JP5995916B2 - Image search apparatus, method, and program - Google Patents

Image search apparatus, method, and program Download PDF

Info

Publication number
JP5995916B2
JP5995916B2 JP2014141549A JP2014141549A JP5995916B2 JP 5995916 B2 JP5995916 B2 JP 5995916B2 JP 2014141549 A JP2014141549 A JP 2014141549A JP 2014141549 A JP2014141549 A JP 2014141549A JP 5995916 B2 JP5995916 B2 JP 5995916B2
Authority
JP
Japan
Prior art keywords
image
local feature
centroid
unit
reference image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014141549A
Other languages
Japanese (ja)
Other versions
JP2016018444A (en
Inventor
大我 吉田
大我 吉田
島村 潤
潤 島村
行信 谷口
行信 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014141549A priority Critical patent/JP5995916B2/en
Publication of JP2016018444A publication Critical patent/JP2016018444A/en
Application granted granted Critical
Publication of JP5995916B2 publication Critical patent/JP5995916B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、画像検索装置、方法、及びプログラムに係り、特に、クエリ画像と類似するリファレンス画像を検索する画像検索装置、方法、及びプログラムに関する。   The present invention relates to an image search apparatus, method, and program, and more particularly, to an image search apparatus, method, and program for searching for a reference image similar to a query image.

従来より、画像中に同一の被写体が写っているかを高速に分析するための技術として、画像から抽出した局所特徴量をあらかじめ作成しておいたクラスタに分類し、同一クラスタの局所特徴量をより多く含む画像ほど、同一の被写体が写っている可能性が高いと判定するbag of visual wordsなどと呼ばれる手法がある(例えば、非特許文献1)。この手法では、局所特徴量1つ1つを比較するのではなく、同じクラスタに分類された局所特徴量のみを処理し、カウントすることにより画像の類似度を算出することができるため、高速に類似する画像を発見することができる。   Conventionally, as a technique to quickly analyze whether the same subject appears in the image, the local feature extracted from the image is classified into clusters created in advance, and the local feature of the same cluster is more There is a technique called “bag of visual words” that determines that the more an image including more, the higher the possibility that the same subject is captured (for example, Non-Patent Document 1). In this method, instead of comparing the local feature values one by one, only the local feature values classified into the same cluster can be processed and counted, so that the similarity of images can be calculated at high speed. Similar images can be found.

また、局所特徴量の回転角度および拡大・縮小の比率の一貫性を検証する手法がある。例えば、非特許文献2に記載の技術では、図14に示すクエリ画像1とリファレンス画像とは、3点ともが回転角度135度、拡大率が0.5であるのに対し、クエリ画像2とリファレンス画像とは2点が回転角度90度、拡大率2であるが、もう一点は回転角度、拡大率ともに異なる。従って、回転角度および拡大率が一貫している点の多いクエリ画像1の方が、クエリ画像2よりも類似度が高いとして判定することができる。   There is also a method for verifying the consistency of the rotation angle of local feature and the ratio of enlargement / reduction. For example, in the technique described in Non-Patent Document 2, the query image 1 and the reference image shown in FIG. 14 have three rotation angles of 135 degrees and an enlargement ratio of 0.5. Two points from the reference image have a rotation angle of 90 degrees and an enlargement ratio of 2, but the other point differs in both the rotation angle and the enlargement ratio. Therefore, it can be determined that the query image 1 having many points with consistent rotation angles and enlargement rates has a higher degree of similarity than the query image 2.

Sivic,Josef,and Andrew Zisserman,“Video Google: A text retrieval approach to object matching in videos.”,Computer Vision,2003,Proceedings,Ninth IEEE International Conference on,IEEE,2003.Sivic, Josef, and Andrew Zisserman, “Video Google: A text retrieval approach to object matching in videos.”, Computer Vision, 2003, Proceedings, Ninth IEEE International Conference on, IEEE, 2003. Jegou,Herve,Matthijs Douze,and Cordelia Schmid,“Improving bag-of-features for large scale image search.”,International Journal of Computer Vision 87.3,2010,p.316-336.Jegou, Herve, Matthijs Douze, and Cordelia Schmid, “Improving bag-of-features for large scale image search.”, International Journal of Computer Vision 87.3, 2010, p.316-336.

しかし、非特許文献1の手法では、各局所特徴量の幾何的な情報が失われているため対応しない部分から抽出された局所特徴量を対応していると判定してしまい、類似画像抽出の精度が低下してしまう。例えば、上記図14に示したリファレンス画像の三角形から抽出された3つの局所特徴量は、クエリ画像1だけでなく、異なる図形であるクエリ画像2とも3点がマッチすると判定され、類似度が高いと判断されてしまう。   However, in the method of Non-Patent Document 1, since the geometric information of each local feature amount is lost, it is determined that the local feature amount extracted from a non-corresponding portion corresponds, and similar image extraction is performed. Accuracy will be reduced. For example, the three local feature amounts extracted from the triangle of the reference image shown in FIG. 14 are determined not only to match the query image 1 but also to the query image 2 that is a different graphic, and the similarity is high. It will be judged.

また、非特許文献2の手法では、回転方向を1軸しか考慮していないため、3次元方向の回転に対応することができない。例えば、図15に示すようにリファレンス画像を二次元平面内で回転したクエリ画像1は、リファレンス画像とマッチすると判定することができるが、三次元空間において上下方向や左右方向から見た画像であるクエリ画像2については、それらの軸に対する回転を局所特徴量に付随する情報として取得していないため、幾何的な一貫性を検証することができず、同一物体であっても類似度が高いと判定することができないという問題があった。そのため、三次元空間における幾何的な一貫性を検証可能にすることが課題となる。   In the method of Non-Patent Document 2, since only one axis is considered in the rotation direction, it cannot cope with rotation in a three-dimensional direction. For example, as shown in FIG. 15, a query image 1 obtained by rotating a reference image in a two-dimensional plane can be determined to match the reference image, but is an image viewed from the vertical direction or the horizontal direction in a three-dimensional space. For the query image 2, rotation about those axes is not acquired as information accompanying the local feature amount, so geometric consistency cannot be verified, and even if the same object is high, There was a problem that it could not be judged. Therefore, it becomes a problem to be able to verify the geometric consistency in the three-dimensional space.

本発明は、上記事情に鑑みて成されたものであり、クエリ画像と類似するリファレンス画像を精度よく取得することができる画像検索装置、方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an image search apparatus, method, and program that can accurately acquire a reference image similar to a query image.

上記目的を達成するために、本発明に係る画像検索装置は、複数のリファレンス画像から、クエリ画像と類似するリファレンス画像を検索する画像検索装置であって、前記複数のリファレンス画像の各々について、前記リファレンス画像に対して回転又は拡大率の変化を含む複数の変換を行って生成された複数の変換画像、及び前記リファレンス画像の各々から抽出された局所特徴量に対してクラスタリングを行って前記局所特徴量の各々が分類された複数のクラスタの各々に対して求められたセントロイドの特徴量を格納したセントロイド格納部と、前記複数のリファレンス画像の各々に対し、前記複数の変換画像、及び前記リファレンス画像の各々から抽出された局所特徴量の各々について、前記局所特徴量が属するクラスタのセントロイド、及び前記変換を表す幾何特徴を格納したインデクス格納部と、入力された前記クエリ画像に基づいて、前記クエリ画像に対して前記複数の変換を行って複数の変換画像を生成し、前記クエリ画像及び前記複数の変換画像の各々から、前記局所特徴量及び前記幾何特徴を抽出する局所特徴量抽出部と、前記局所特徴量抽出部によって抽出された前記クエリ画像の局所特徴量の各々について、前記セントロイド格納部に格納された前記複数のクラスタの各々に対するセントロイドの各々の特徴量と、前記クエリ画像の局所特徴量との類似度を算出し、前記クエリ画像の局所特徴量に対応する前記セントロイドを取得するセントロイド取得部と、前記局所特徴量抽出部によって抽出された前記クエリ画像の局所特徴量の各々について、前記セントロイド取得部によって取得された前記セントロイドに対応して前記インデクス格納部に格納された前記リファレンス画像に対する前記幾何特徴との比率又は差分を算出し、前記複数のリファレンス画像の各々について前記幾何特徴の比率又は差分の各々に対して設けられた投票箱のうち、前記算出された前記リファレンス画像に対する前記幾何特徴との比率又は差分に対して設けられた前記リファレンス画像についての投票箱に投票する投票部と、前記複数のリファレンス画像の各々に対し、前記リファレンス画像についての前記投票箱の投票結果に基づいて、前記クエリ画像と前記リファレンス画像との類似度を示すスコアを算出するスコア部と、前記スコア部によって算出された前記スコアに基づいて、前記クエリ画像と類似する前記リファレンス画像を出力する類似画像出力部と、を含んで構成されている。   In order to achieve the above object, an image search apparatus according to the present invention is an image search apparatus for searching a reference image similar to a query image from a plurality of reference images, and for each of the plurality of reference images, Clustering is performed on a plurality of converted images generated by performing a plurality of conversions including a change in rotation or magnification on a reference image, and local feature amounts extracted from each of the reference images, and the local features A centroid storage unit storing a centroid feature amount obtained for each of a plurality of clusters into which each of the quantities is classified, and for each of the plurality of reference images, the plurality of converted images, and the For each local feature extracted from each reference image, the centro of the cluster to which the local feature belongs. And an index storage unit storing geometric features representing the transformation, and generating the plurality of transformed images by performing the plurality of transformations on the query image based on the input query image, From each of the image and each of the plurality of converted images, the local feature amount extraction unit that extracts the local feature amount and the geometric feature, and each of the local feature amount of the query image extracted by the local feature amount extraction unit, A similarity between each feature quantity of the centroid for each of the plurality of clusters stored in the centroid storage unit and a local feature quantity of the query image is calculated, and corresponds to the local feature quantity of the query image For each of the centroid acquisition unit for acquiring the centroid and the local feature amount of the query image extracted by the local feature amount extraction unit, The ratio or difference of the geometric feature with respect to the reference image stored in the index storage unit corresponding to the centroid acquired by the toroid acquisition unit is calculated, and the geometric feature of each of the plurality of reference images is calculated. A voting unit for voting to a ballot box for the reference image provided for a ratio or difference with respect to the calculated reference image among the ballot boxes provided for each ratio or difference. And, for each of the plurality of reference images, a score unit that calculates a score indicating a similarity between the query image and the reference image based on a vote result of the ballot box for the reference image, and the score Based on the score calculated by the section, similar to the query image A similar image output unit that outputs a reference image.

本発明に係る画像検索方法は、局所特徴量抽出部、セントロイド取得部、投票部、スコア部、及び類似画像出力部を含み、複数のリファレンス画像の各々について、前記リファレンス画像に対して回転又は拡大率の変化を含む複数の変換を行って生成された複数の変換画像、及び前記リファレンス画像の各々から抽出された局所特徴量に対してクラスタリングを行って前記局所特徴量の各々が分類された複数のクラスタの各々に対して求められたセントロイドの特徴量を格納したセントロイド格納部、及び前記複数のリファレンス画像の各々に対し、前記複数の変換画像、及び前記リファレンス画像の各々から抽出された局所特徴量の各々について、前記局所特徴量が属するクラスタのセントロイド、及び前記変換を表す幾何特徴を格納したインデクス格納部を用いて、複数のリファレンス画像から、クエリ画像と類似するリファレンス画像を検索する画像検索装置における画像検索方法であって、前記局所特徴量抽出部が、入力された前記クエリ画像に基づいて、前記クエリ画像に対して前記複数の変換を行って複数の変換画像を生成し、前記クエリ画像及び前記複数の変換画像の各々から、前記局所特徴量及び前記幾何特徴を抽出するステップと、前記セントロイド取得部が、前記局所特徴量抽出部によって抽出された前記クエリ画像の局所特徴量の各々について、前記セントロイド格納部に格納された前記複数のクラスタの各々に対するセントロイドの各々の特徴量と、前記クエリ画像の局所特徴量との類似度を算出し、前記クエリ画像の局所特徴量に対応する前記セントロイドを取得するステップと、前記投票部が、前記局所特徴量抽出部によって抽出された前記クエリ画像の局所特徴量の各々について、前記セントロイド取得部によって取得された前記セントロイドに対応して前記インデクス格納部に格納された前記リファレンス画像に対する前記幾何特徴との比率又は差分を算出し、前記複数のリファレンス画像の各々について前記幾何特徴の比率又は差分の各々に対して設けられた投票箱のうち、前記算出された前記リファレンス画像に対する前記幾何特徴との比率又は差分に対して設けられた前記リファレンス画像についての投票箱に投票するステップと、前記スコア部が、前記複数のリファレンス画像の各々に対し、前記リファレンス画像についての前記投票箱の投票結果に基づいて、前記クエリ画像と前記リファレンス画像との類似度を示すスコアを算出するステップと、前記類似画像出力部が、前記スコア部によって算出された前記スコアに基づいて、前記クエリ画像と類似する前記リファレンス画像を出力するステップと、を含んで構成されている。   The image search method according to the present invention includes a local feature amount extraction unit, a centroid acquisition unit, a voting unit, a score unit, and a similar image output unit, and each of a plurality of reference images is rotated or rotated with respect to the reference image. Each of the local feature values is classified by performing clustering on a plurality of converted images generated by performing a plurality of conversions including a change in magnification and a local feature value extracted from each of the reference images. A centroid storage unit that stores the centroid feature values obtained for each of the plurality of clusters, and each of the plurality of reference images is extracted from each of the plurality of converted images and the reference images. For each local feature amount, a centroid of a cluster to which the local feature amount belongs and a geometric feature representing the transformation are stored. An image search method in an image search apparatus for searching a reference image similar to a query image from a plurality of reference images using an index storage unit, wherein the local feature quantity extraction unit is based on the input query image Performing a plurality of transformations on the query image to generate a plurality of transformation images, and extracting the local feature amount and the geometric feature from each of the query image and the plurality of transformation images; For each of the local feature values of the query image extracted by the local feature value extraction unit, the centroid acquisition unit has characteristics of each centroid for each of the plurality of clusters stored in the centroid storage unit. A degree of similarity between the amount and the local feature amount of the query image, and the centro corresponding to the local feature amount of the query image The voting unit corresponding to the centroid acquired by the centroid acquisition unit for each of the local feature amounts of the query image extracted by the local feature amount extraction unit A ratio or difference between the reference image stored in the index storage unit and the geometric feature is calculated, and a ballot box provided for each of the geometric feature ratio or difference for each of the plurality of reference images. Voting in a ballot box for the reference image provided for a ratio or difference between the calculated geometric feature and the geometric feature, and the score unit for each of the plurality of reference images , Based on the vote result of the ballot box for the reference image, and the query image Calculating a score indicating the degree of similarity with the reference image, and outputting the reference image similar to the query image based on the score calculated by the score unit. , Including.

本発明の前記局所特徴量抽出部は、画像の拡大率及び画像の三軸の各々の回転角を、前記幾何特徴として抽出するようにすることができる。   The local feature amount extraction unit of the present invention can extract the enlargement ratio of the image and the rotation angle of each of the three axes of the image as the geometric feature.

本発明の前記スコア部は、前記複数のリファレンス画像の各々に対し、前記リファレンス画像についての前記投票箱の各々の投票数のうち、最大の投票数を、前記リファレンス画像との類似度を示す前記スコアとして算出するようにすることができる。   The score unit of the present invention, for each of the plurality of reference images, out of the number of votes of each of the ballot box for the reference image, the maximum number of votes, the similarity with the reference image It can be calculated as a score.

本発明の前記投票部は、前記局所特徴量抽出部によって抽出された前記クエリ画像の局所特徴量の各々について、前記セントロイド取得部によって取得された前記セントロイドに対応して前記インデクス格納部に格納された前記リファレンス画像に対する前記幾何特徴との比率又は差分を算出し、前記複数のリファレンス画像の各々について前記幾何特徴の比率又は差分の各々に対して設けられた投票箱のうち、前記算出された前記リファレンス画像に対する前記幾何特徴との比率又は差分に対して設けられた前記リファレンス画像についての投票箱に、前記セントロイド取得部によって取得された前記セントロイドに対応する、前記クエリ画像または前記リファレンス画像の局所特徴量の数に応じた票数、前記セントロイド取得部によって取得された前記セントロイドに対応する局所特徴量を有する前記リファレンス画像の数に応じた票数、又は前記リファレンス画像から抽出された局所特徴量の数に応じた票数を投票するようにすることができる。   The voting unit of the present invention relates to each of the local feature amounts of the query image extracted by the local feature amount extraction unit in the index storage unit corresponding to the centroid acquired by the centroid acquisition unit. A ratio or difference between the geometric feature and the stored reference image is calculated, and the calculation is performed in the ballot box provided for each of the geometric feature ratio or difference for each of the plurality of reference images. The query image or the reference corresponding to the centroid acquired by the centroid acquisition unit in a ballot box for the reference image provided for a ratio or difference between the geometric feature and the reference image. The number of votes corresponding to the number of local features of the image, by the centroid acquisition unit It is possible to vote the number of votes corresponding to the number of the reference images having the local feature amount corresponding to the obtained centroid, or the number of votes corresponding to the number of local feature amounts extracted from the reference image. .

本発明のプログラムは、コンピュータを、本発明の画像検索装置の各部として機能させるためのプログラムである。   The program of the present invention is a program for causing a computer to function as each unit of the image search device of the present invention.

本発明の画像検索装置、方法、及びプログラムによれば、複数のリファレンス画像の各々について、当該リファレンス画像に対して回転及び拡大率の変化を含む複数の変換を行って生成された複数の変換画像、及びリファレンス画像の各々から抽出された局所特徴量に対してクラスタリングを行って局所特徴量の各々が分類された複数のクラスタの各々に対して求められたセントロイドの特徴量を格納し、抽出された局所特徴量の各々について、局所特徴量が属するクラスタのセントロイド、及び幾何特徴を格納し、クエリ画像に対して複数の変換を行って複数の変換画像を生成し、クエリ画像及び複数の変換画像の各々から、局所特徴量及び幾何特徴を抽出し、抽出されたクエリ画像の局所特徴量の各々について、複数のクラスタの各々に対するセントロイドの各々の特徴量と、クエリ画像の局所特徴量との類似度を算出し、クエリ画像の局所特徴量に対応するセントロイドを取得し、抽出されたクエリ画像の局所特徴量の各々について、取得されたセントロイドに対応して格納されたリファレンス画像に対する幾何特徴との比率又は差分を算出し、複数のリファレンス画像の各々について幾何特徴の比率又は差分の各々に対して設けられた投票箱のうち、算出されたリファレンス画像に対する幾何特徴との比率又は差分に対して設けられたリファレンス画像についての投票箱に投票し、リファレンス画像についての投票箱の投票結果に基づいて、クエリ画像とリファレンス画像との類似度を示すスコアを算出し、算出されたスコアに基づいて、クエリ画像と類似するリファレンス画像を出力することで、クエリ画像と類似するリファレンス画像を精度よく取得することができる、という効果が得られる。   According to the image search device, method, and program of the present invention, for each of a plurality of reference images, a plurality of converted images generated by performing a plurality of conversions including changes in rotation and magnification on the reference image. Then, clustering is performed on the local features extracted from each of the reference images, and the centroid features obtained for each of the plurality of clusters into which the local features are classified are stored and extracted. For each of the local feature amounts, a centroid of a cluster to which the local feature amount belongs and a geometric feature are stored, and a plurality of transformations are performed on the query image to generate a plurality of transformation images. A local feature and a geometric feature are extracted from each converted image, and each of the extracted local features of the query image is assigned to each of a plurality of clusters. Calculating the similarity between each feature quantity of the centroid and the local feature quantity of the query image, obtaining a centroid corresponding to the local feature quantity of the query image, and extracting each local feature quantity of the query image Voting provided for each of the geometric feature ratios or differences for each of the plurality of reference images. Of the boxes, vote for the ballot box for the reference image provided for the ratio or difference of the calculated geometric feature to the reference image, and based on the ballot box vote result for the reference image, the query image and the reference A score indicating the degree of similarity with the image is calculated, and a reference that is similar to the query image is calculated based on the calculated score By outputting the image, it is possible to obtain a reference image similar to the query image accuracy, the effect is obtained that.

リファレンス画像を回転又は拡大率の変化をさせる処理を示す概念図である。It is a conceptual diagram which shows the process which rotates a reference image or changes an expansion rate. 本発明の第1の実施の形態に係る画像検索装置の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the image search device which concerns on the 1st Embodiment of this invention. リファレンス画像のアフィン変換の処理を示す概念図である。It is a conceptual diagram which shows the process of the affine transformation of a reference image. セントロイド管理テーブルの一例を示す概念図である。It is a conceptual diagram which shows an example of a centroid management table. セントロイド−リファレンス特徴ベクトル関係管理テーブルを示す概念図である。It is a conceptual diagram which shows a centroid-reference feature vector relationship management table. 幾何特徴に関する類似度の投票の処理を示す概念図である。It is a conceptual diagram which shows the process of the vote of the similarity degree regarding a geometric feature. リファレンス画像及びクエリ画像の幾何特徴の一例を示す図である。It is a figure which shows an example of the geometric feature of a reference image and a query image. リファレンス画像とクエリ画像との幾何特徴の比率又は差分、及び投票の処理の一例を示す図である。It is a figure which shows an example of the ratio or difference of the geometric feature of a reference image and a query image, and a voting process. 本発明の第1及び第2の実施の形態に係る画像検索装置の学習処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the learning process routine of the image search device which concerns on the 1st and 2nd embodiment of this invention. 本発明の第1及び第2の実施の形態に係る画像検索装置の画像検索処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the image search process routine of the image search apparatus which concerns on the 1st and 2nd embodiment of this invention. 本発明の第1及び第2の実施の形態に係る画像検索装置の画像検索処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the image search process routine of the image search apparatus which concerns on the 1st and 2nd embodiment of this invention. 本発明の第2の実施の形態に係るクラスタリング装置の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the clustering apparatus concerning the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係る画像検索装置の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the image search device which concerns on the 2nd Embodiment of this invention. 従来技術を説明するための説明図である。It is explanatory drawing for demonstrating a prior art. 従来技術を説明するための説明図である。It is explanatory drawing for demonstrating a prior art.

以下、図面を参照して本発明の実施の形態を詳細に説明する。以下では、まず本発明の実施の形態の概要について説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Below, the outline | summary of embodiment of this invention is demonstrated first.

<本発明の実施の形態の概要>
本発明の実施の形態では、まず画像から局所特徴量を抽出する。次に、図1に示すように、画像を上下方向、左右方向、及び二次元平面内で回転させると共に、拡大率を変化させた複数の変換画像を作成し、変換画像からも局所特徴量を抽出しておく。これにより、例えば、上記図15におけるクエリ画像2から抽出した局所特徴量は、上記図1におけるリファレンス画像5から抽出した局所特徴量と多くマッチし、クエリ画像2とリファレンス画像との類似度が高いと判定することができる。
<Outline of Embodiment of the Present Invention>
In the embodiment of the present invention, first, a local feature amount is extracted from an image. Next, as shown in FIG. 1, the image is rotated in the vertical direction, the horizontal direction, and in the two-dimensional plane, and a plurality of converted images with different enlargement ratios are created. Extract it. Thereby, for example, the local feature amount extracted from the query image 2 in FIG. 15 matches much with the local feature amount extracted from the reference image 5 in FIG. 1, and the similarity between the query image 2 and the reference image is high. Can be determined.

具体的には、本発明の実施の形態では、まず、事前処理として、予め登録する各リファレンス画像について、局所特徴量及び当該局所特徴量の幾何特徴を抽出しておく。また、抽出した局所特徴量をクラスタリングしておく。そして、クエリ画像が入力されたとき、クエリ画像からも局所特徴量及び当該局所特徴量の幾何特徴を抽出し、各局所特徴量に対応するクラスタに属するリファレンス画像の局所特徴量について、幾何特徴の比率又は差分の一貫性を検証する。クエリ画像の局所特徴量に対して、幾何特徴の比率又は差分の一貫性の高い局所特徴量を持つリファレンス画像を、クエリ画像との類似度が高いとして出力する。   Specifically, in the embodiment of the present invention, as a pre-process, first, a local feature amount and a geometric feature of the local feature amount are extracted for each reference image registered in advance. In addition, the extracted local feature amounts are clustered. When the query image is input, the local feature amount and the geometric feature of the local feature amount are also extracted from the query image, and the geometric feature of the reference image belonging to the cluster corresponding to each local feature amount is extracted. Verify the consistency of ratios or differences. A reference image having a local feature amount with a high consistency in geometric ratio or difference with respect to the local feature amount of the query image is output as having a high degree of similarity with the query image.

[第1の実施の形態]
<画像検索装置100の構成>
第1の実施の形態に係る画像検索装置100の構成について説明する。第1の実施の形態では、複数のリファレンス画像から、クエリ画像と類似するリファレンス画像を検索する画像検索装置に本発明を適用させた場合について説明する。図2に示すように、本発明に係る画像検索装置100は、CPUと、RAMと、後述する学習処理ルーチン及び画像検索処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この画像検索装置100は、機能的には図2に示すように、入力部1と、演算部2と、出力部3とを備えている。
[First Embodiment]
<Configuration of Image Search Device 100>
A configuration of the image search apparatus 100 according to the first embodiment will be described. In the first embodiment, a case will be described in which the present invention is applied to an image search apparatus that searches a reference image similar to a query image from a plurality of reference images. As shown in FIG. 2, the image search apparatus 100 according to the present invention includes a CPU, a RAM, and a ROM that stores a program and various data for executing a learning process routine and an image search process routine described later. Can be configured with a computer. Functionally, the image search apparatus 100 includes an input unit 1, a calculation unit 2, and an output unit 3, as shown in FIG.

入力部1は、複数のリファレンス画像を含むリファレンス画像集合と、クエリ画像との入力を受け付ける。   The input unit 1 receives input of a reference image set including a plurality of reference images and a query image.

演算部2は、局所特徴量抽出部20と、クラスタリング部22と、セントロイド格納部24と、インデクス格納部26と、セントロイド取得部28と、投票部30と、スコア部32と、類似画像出力部34とを備えている。   The calculation unit 2 includes a local feature amount extraction unit 20, a clustering unit 22, a centroid storage unit 24, an index storage unit 26, a centroid acquisition unit 28, a voting unit 30, a score unit 32, and a similar image. And an output unit 34.

局所特徴量抽出部20は、入力部1により入力された複数のリファレンス画像の各々について、当該リファレンス画像に対して回転又は拡大率の変化を含む複数の変換を行って、複数の変換画像を生成する。そして、局所特徴量抽出部20は、生成された複数の変換画像、及びリファレンス画像の各々から、局所特徴量及び幾何特徴を抽出する。   The local feature amount extraction unit 20 generates a plurality of converted images by performing a plurality of conversions including a change in the rotation or enlargement ratio on the reference image for each of the plurality of reference images input by the input unit 1. To do. Then, the local feature amount extraction unit 20 extracts a local feature amount and a geometric feature from each of the generated plurality of converted images and reference images.

また、局所特徴量抽出部20は、入力部1により入力されたクエリ画像に基づいて、リファレンス画像と同様に、クエリ画像に対して回転又は拡大率の変化を含む複数の変換を行って、複数の変換画像を生成する。そして、局所特徴量抽出部20は、クエリ画像及び複数の変換画像の各々から、局所特徴量及び幾何特徴を抽出する。本発明の実施の形態では、画像の拡大率及び三軸の画像の回転角を、幾何特徴として抽出する。   Further, the local feature quantity extraction unit 20 performs a plurality of conversions including a change in the rotation or enlargement ratio on the query image based on the query image input by the input unit 1, and performs a plurality of conversions on the query image. The converted image is generated. Then, the local feature amount extraction unit 20 extracts a local feature amount and a geometric feature from each of the query image and the plurality of converted images. In the embodiment of the present invention, the magnification of the image and the rotation angle of the triaxial image are extracted as geometric features.

具体的には、局所特徴量抽出部20は、リファレンス画像集合が入力された際、まず複数のリファレンス画像の各々から局所特徴量を抽出する。局所特徴量としては、例えば、回転パラメータ及びスケールパラメータを用いない場合のSIFT(Scale Invariant Feature Transform)を用いることができる。局所特徴量は、リファレンス画像だけでなく、リファレンス画像を上下方向、左右方向および二次元平面内で回転させ、拡大率を変化させた変換画像からも抽出する。なお、局所特徴量は、ベクトル形式で表現される。リファレンス画像を回転させた変換画像は、例えば、リファレンス画像のアフィン変換により生成することができる。   Specifically, when a reference image set is input, the local feature quantity extraction unit 20 first extracts a local feature quantity from each of a plurality of reference images. As the local feature amount, for example, SIFT (Scale Invariant Feature Transform) in the case where the rotation parameter and the scale parameter are not used can be used. The local feature amount is extracted not only from the reference image but also from the converted image in which the reference image is rotated in the vertical direction, the horizontal direction, and in the two-dimensional plane, and the enlargement ratio is changed. The local feature amount is expressed in a vector format. The converted image obtained by rotating the reference image can be generated, for example, by affine transformation of the reference image.

アフィン変換によって、変換前の画像における点(x,y)は、変換後の画像において以下の式(1)に示す点(x’,y’)に対応する。図3に、リファレンス画像をアフィン変換によって回転させる処理の一例を示す概念図を示す。   By affine transformation, the point (x, y) in the image before transformation corresponds to the point (x ′, y ′) shown in the following equation (1) in the image after transformation. FIG. 3 is a conceptual diagram illustrating an example of processing for rotating a reference image by affine transformation.

ただし、sはクエリ画像及びリファレンス画像の拡大率、θ、φ、ψは上記図3に示した3軸の回転角度である。拡大率s、及び回転角度θ、φ、ψは幾何特徴の一例である。   Here, s is the magnification of the query image and the reference image, and θ, φ, and ψ are the rotation angles of the three axes shown in FIG. The enlargement factor s and the rotation angles θ, φ, and ψ are examples of geometric features.

また、局所特徴量抽出部20は、クエリ画像が入力された際、リファレンス画像集合が入力された際と同様に、クエリ画像から局所特徴量及び対応する幾何特徴を抽出する。   In addition, when the query image is input, the local feature amount extraction unit 20 extracts the local feature amount and the corresponding geometric feature from the query image in the same manner as when the reference image set is input.

なお、利用する局所特徴量が回転角を表すパラメータが算出される局所特徴量であった場合、ψを変化させたリファレンス画像を作成せず、ψの値として局所特徴量の回転角を表すパラメータを使用してもよい。また、利用する局所特徴量が拡大率(スケール)を表すパラメータが算出される局所特徴量であった場合、sを変化させたリファレンス画像を作成せず、sの値として局所特徴量の拡大率を表すパラメータを使用してもよい。   If the local feature to be used is a local feature for which a parameter representing the rotation angle is calculated, a parameter representing the rotation angle of the local feature is not created as a value of ψ, without creating a reference image in which ψ is changed. May be used. Further, when the local feature to be used is a local feature for which a parameter representing the enlargement ratio (scale) is calculated, a reference image in which s is changed is not created, and the enlargement ratio of the local feature is used as the value of s. A parameter representing can be used.

クラスタリング部22は、入力部1により入力された複数のリファレンス画像の各々について生成された複数の変換画像、及びリファレンス画像の各々から抽出された局所特徴量に対してクラスタリングを行い、局所特徴量の各々を複数のクラスタに分類する。クラスタリングの際のクラスタ数は、任意の値に予め設定してよい。また、クラスタリング部22は、複数のクラスタの各々について、当該クラスタのセントロイドを求める。セントロイドとは、例えば、クラスタに属する局所特徴量の重心を求めた特徴量である。そして、クラスタリング部22は、複数のクラスタの各々について求めたセントロイドの特徴量を、クラスタリング結果として、後述するセントロイド格納部24に格納する。   The clustering unit 22 performs clustering on the plurality of converted images generated for each of the plurality of reference images input by the input unit 1 and the local feature amount extracted from each of the reference images. Each is classified into a plurality of clusters. The number of clusters in clustering may be set to an arbitrary value in advance. Moreover, the clustering part 22 calculates | requires the centroid of the said cluster about each of several clusters. The centroid is, for example, a feature value obtained by obtaining the centroid of local feature values belonging to a cluster. Then, the clustering unit 22 stores the centroid feature amount obtained for each of the plurality of clusters as a clustering result in the centroid storage unit 24 described later.

また、クラスタリング部22は、入力部1により入力された複数のリファレンス画像の各々に対し、複数の変換画像、及び当該リファレンス画像の各々から抽出された局所特徴量の各々について、当該局所特徴量が属するクラスタのセントロイド、及び当該局所特徴量に対応する幾何特徴を、後述するインデクス格納部26に格納する。   In addition, the clustering unit 22 has, for each of the plurality of reference images input by the input unit 1, the local feature amount of each of the plurality of converted images and the local feature amount extracted from each of the reference images. The centroid of the cluster to which it belongs and the geometric feature corresponding to the local feature amount are stored in the index storage unit 26 described later.

セントロイド格納部24には、クラスタリング部22によって求められた複数のクラスタの各々についてのセントロイドの特徴量が格納される。セントロイド格納部24に格納されるクラスタリング結果の一例を図4に示す。図4に示すクラスタリング結果は、セントロイドIDと特徴量との組み合わせを示すデータである。   The centroid storage unit 24 stores the centroid feature amount for each of the plurality of clusters obtained by the clustering unit 22. An example of the clustering result stored in the centroid storage unit 24 is shown in FIG. The clustering result shown in FIG. 4 is data indicating a combination of a centroid ID and a feature amount.

なお、セントロイドIDはクラスタのセントロイドを識別するIDである。上記図4に示したセントロイド格納部24に格納されるクラスタリング結果は一例であり、格納される属性や名称が異なっていてもよい。また、テキストファイル形式など、テーブル以外の形式で保存されていてもよい。   The centroid ID is an ID for identifying the centroid of the cluster. The clustering result stored in the centroid storage unit 24 shown in FIG. 4 is an example, and the stored attributes and names may be different. Moreover, you may preserve | save in formats other than a table, such as a text file format.

インデクス格納部26には、複数のリファレンス画像の各々に対し、当該リファレンス画像から抽出された局所特徴量が属するクラスタのセントロイド、及び当該局所特徴量に対応する幾何特徴が格納される。インデクス格納部26に格納されるデータの一例を図5に示す。上記図5に示すデータは、リファレンス画像の画像IDと局所特徴量IDとセントロイドIDと幾何特徴の各々との組み合わせを示すデータである。画像ID及び局所特徴量IDは、リファレンス画像及び局所特徴量を識別するIDである。また、上記図5に示したインデクス格納部26に格納されるデータは一例であり、格納される属性や名称が異なっていてもよい。また、テキストファイル形式など、テーブル以外の形式で保存されていてもよい。   The index storage unit 26 stores, for each of a plurality of reference images, a centroid of a cluster to which the local feature amount extracted from the reference image belongs, and a geometric feature corresponding to the local feature amount. An example of data stored in the index storage unit 26 is shown in FIG. The data shown in FIG. 5 is data indicating combinations of the image ID, local feature ID, centroid ID, and geometric feature of the reference image. The image ID and the local feature amount ID are IDs for identifying the reference image and the local feature amount. The data stored in the index storage unit 26 shown in FIG. 5 is an example, and the stored attributes and names may be different. Moreover, you may preserve | save in formats other than a table, such as a text file format.

セントロイド取得部28は、局所特徴量抽出部20によって抽出されたクエリ画像の局所特徴量の各々について、セントロイド格納部24に格納された複数のクラスタの各々に対するセントロイドの各々の特徴量と、当該クエリ画像の局所特徴量との類似度を算出し、当該クエリ画像の局所特徴量に対応するセントロイドを取得する。   The centroid acquisition unit 28 includes, for each local feature amount of the query image extracted by the local feature amount extraction unit 20, each feature amount of the centroid for each of the plurality of clusters stored in the centroid storage unit 24. The similarity with the local feature amount of the query image is calculated, and the centroid corresponding to the local feature amount of the query image is acquired.

具体的には、セントロイド取得部28は、局所特徴量抽出部20によって抽出されたクエリ画像の局所特徴量の各々を、セントロイド格納部24に格納された各セントロイドの特徴量と比較し、当該局所特徴量と最も類似度の高いセントロイドを選択し、当該局所特徴量を当該セントロイドに対応するセントロイドIDに割り当てる。局所特徴量をセントロイドに割り当てるための類似度としては、例えば、局所特徴量とセントロイドの特徴量との距離を用いればよい。   Specifically, the centroid acquisition unit 28 compares each local feature amount of the query image extracted by the local feature amount extraction unit 20 with the feature amount of each centroid stored in the centroid storage unit 24. The centroid having the highest similarity to the local feature is selected, and the local feature is assigned to the centroid ID corresponding to the centroid. As the similarity for assigning the local feature quantity to the centroid, for example, the distance between the local feature quantity and the centroid feature quantity may be used.

投票部30は、局所特徴量抽出部20によって抽出されたクエリ画像の局所特徴量の各々について、セントロイド取得部28によって取得されたセントロイドに対応してインデクス格納部26に格納されたリファレンス画像に対する幾何特徴との比率又は差分を算出する。なお、本発明の実施の形態では、幾何特徴のうち拡大率については比率を算出し、回転角度については差分を算出する。   The voting unit 30 stores the reference image stored in the index storage unit 26 corresponding to the centroid acquired by the centroid acquisition unit 28 for each local feature amount of the query image extracted by the local feature extraction unit 20. The ratio or difference with respect to the geometric feature is calculated. In the embodiment of the present invention, a ratio is calculated for an enlargement ratio among geometric features, and a difference is calculated for a rotation angle.

そして、投票部30は、複数のリファレンス画像の各々について幾何特徴の比率又は差分の各々に対して設けられた投票箱のうち、算出されたリファレンス画像に対する幾何特徴との比率又は差分に対して設けられたリファレンス画像についての投票箱に投票する。   Then, the voting unit 30 is provided for the ratio or difference between the calculated reference image and the geometric feature of the voting box provided for each of the geometric feature ratio or difference for each of the plurality of reference images. Vote in the ballot box for the given reference image.

具体的には、投票部30は、投票に際し、まずは投票対象となる投票箱を予め準備する。投票箱は、各リファレンス画像の画像IDに対し、拡大率の比率、θの差分、φの差分、ψの差分の4次元空間を格子状に区切ることによって作成する。例えば、図6に示すように拡大率を8段階、θを6段階、φを6段階、ψを6段階に分けると、8×6×6×6=1728個の投票箱を、各リファレンス画像に対して作成する。   Specifically, when voting, the voting unit 30 first prepares a ballot box to be voted in advance. The ballot box is created by dividing a four-dimensional space of a magnification ratio, a θ difference, a φ difference, and a ψ difference in a grid pattern with respect to the image ID of each reference image. For example, as shown in FIG. 6, when the enlargement ratio is divided into 8 steps, θ is 6 steps, φ is 6 steps, and ψ is 6 steps, 8 × 6 × 6 × 6 = 1728 ballot boxes are assigned to each reference image. Create against.

投票は、同一のセントロイドIDに対応する、リファレンス画像とクエリ画像との局所特徴量の各組み合わせについて行う。例えば、図7に示すようにID1及びID2のリファレンス画像からR1,R2,R3,R4、クエリ画像からQ1とQ2との局所特徴量が抽出されたとすると、投票の対象はR1とQ1、R3とQ1、R2とQ2、R4とQ2の組み合わせとなる。投票の結果の一例を図8に示す。   Voting is performed for each combination of local feature amounts of the reference image and the query image corresponding to the same centroid ID. For example, as shown in FIG. 7, if local feature amounts of R1, R2, R3, and R4 are extracted from the reference images of ID1 and ID2 and Q1 and Q2 are extracted from the query image, the voting targets are R1, Q1, and R3. A combination of Q1, R2 and Q2, and R4 and Q2. An example of the result of voting is shown in FIG.

図8に示すように、画像ID1についての投票箱Aには、R1とQ1及びR2とQ2の組み合わせより2票が投票される。また、画像ID2についての投票箱BにはR3とQ1との組み合わせより1票、投票箱CにはR4とQ2との組み合わせより1票が投票され、その他の投票箱に投票された票数は0である。画像ID1についての投票箱の中で最も多く投票された投票箱の票数は2、画像ID2についての投票箱の中で最も多く投票された投票箱の票数は1であり、これが各画像IDのスコアとなる。クエリ画像はリファレンス画像ID1ともID2とも、セントロイドIDが共通する局所特徴量を2つ有しているが、以上のようにして、リファレンス画像ID1の方がID2に比べてクエリ画像との類似度が高いと判定することができる。   As shown in FIG. 8, in the ballot box A for the image ID1, two votes are voted based on the combination of R1 and Q1 and R2 and Q2. The ballot box B for the image ID 2 is voted for one vote from the combination of R3 and Q1, the ballot box C is voted for one vote from the combination of R4 and Q2, and the number of votes voted in other ballot boxes is 0. It is. The number of votes in the ballot box with the most votes in the ballot box for image ID1 is 2, and the number of votes in the ballot box with the most votes in the ballot box for image ID2 is 1. This is the score of each image ID. It becomes. Although the query image has two local feature quantities that have the same centroid ID for both the reference image ID1 and ID2, the reference image ID1 is more similar to the query image than ID2 as described above. Can be determined to be high.

また、1回あたりの投票の投票数を、クエリ画像又はリファレンス画像における、同一セントロイドに対応する局所特徴量の数によって重みづけしてもよい。例えば、クエリ画像の局所特徴量に対応するセントロイドについて、当該セントロイドに対応する局所特徴量が、クエリ画像にn個、リファレンス画像にn個あった場合、当該セントロイドについての投票における投票数wを以下の式(2)の値とすることができる。 In addition, the number of votes for one vote may be weighted by the number of local feature amounts corresponding to the same centroid in the query image or the reference image. For example, regarding the centroid corresponding to the local feature amount of the query image, when there are n q local feature amounts corresponding to the centroid in the query image and n r in the reference image, in voting for the centroid the number of votes w v can be the value of the expression (2) below.

上記式(2)に示した投票数を用いることにより、例えば、ビルの画像における窓のように同じセントロイドに対応する局所特徴量が大量に含まれる場合に、画像の類似度が窓の個数だけで決定されてしまうのを避け、窓以外の局所特徴量も考慮して類似する画像を取得することが可能になる。   By using the number of votes shown in the above formula (2), for example, when a large amount of local feature values corresponding to the same centroid are included as in a window of a building image, the image similarity is the number of windows. Thus, it is possible to obtain a similar image in consideration of local feature values other than the window.

また、クエリ画像の局所特徴量に対応するセントロイドについて、当該セントロイドに対応する局所特徴量が、クエリ画像にn個あった場合、当該セントロイドについての投票における投票数wを以下の式(3)の値とすることができる。 Further, the centroid corresponding to the local feature amount of the query image, local feature amount corresponding to the centroid, if a n q pieces to the query image, following the vote count w v in voting for the centroid It can be set as the value of Formula (3).

また、クエリ画像の局所特徴量に対応するセントロイドについて、当該セントロイドに対応する局所特徴量が、リファレンス画像にn個あった場合、当該セントロイドについての投票における投票数wを以下の式(4)の値とすることができる。 Further, the centroid corresponding to the local feature amount of the query image, local feature amount corresponding to the centroid, if a n r pieces to the reference image, the following voting number w v in voting for the centroid It can be set as the value of Formula (4).

また、1回あたりの投票の投票数を、リファレンス画像集合において各セントロイドに対応する局所特徴量が何枚のリファレンス画像に含まれていたかによって重みづけしてもよい。例えば、全画像数がNであり、クエリ画像の局所特徴量に対応するセントロイドについて、当該セントロイドに対応する局所特徴量がn枚のリファレンス画像から抽出されていた場合、当該セントロイドについての投票における投票数wを以下の式(5)の値とすることができる。 In addition, the number of votes for one vote may be weighted according to how many reference images the local feature amount corresponding to each centroid is included in the reference image set. For example, when the total number of images is N and the local feature amount corresponding to the centroid corresponding to the local feature amount of the query image has been extracted from n f reference images, the centroid of votes w v in voting may be a value of the expression (5) below.

上記式(5)に示した投票数を用いることにより、多くの画像に含まれるセントロイドに関する投票で類似度が決まってしまうのを避け、珍しいセントロイドが対応したときにはより類似していると判定されやすくすることが可能になる。   By using the number of votes shown in the above formula (5), it is determined that the degree of similarity is not determined by voting regarding centroids included in many images, and is determined to be more similar when an unusual centroid corresponds. It becomes possible to make it easier.

また、1回あたりの投票の投票数を、リファレンス画像における局所特徴量の数によって重みづけしてもよい。例えば、あるリファレンス画像から抽出された局所特徴量の数がN個であった場合、当該リファレンス画像についての投票箱に対する投票における投票数wを以下の式の値とすることができる。 Further, the number of votes for one vote may be weighted by the number of local feature values in the reference image. For example, when the number of local feature values extracted from a certain reference image is N r, the number of votes w v in voting for the ballot box for the reference image can be a value of the following equation.

上記式(6)に示した票数を用いることにより、リファレンス画像から大量の局所特徴量が抽出された場合に類似度が高くなりやすく、一方で少量の局所特徴量が抽出された場合には類似度が低くなりやすくなるのを避け、クエリ画像とリファレンス画像とにおいて局所特徴量のセントロイドIDが共通する割合を考慮して類似度を算出することが可能になる。   By using the number of votes shown in the above equation (6), the similarity is likely to increase when a large amount of local feature amounts are extracted from the reference image, while similar when a small amount of local feature amounts are extracted. It is possible to calculate the similarity by considering the ratio of the centroid IDs of the local feature amounts common to the query image and the reference image.

上記式(2)、式(5)及び式(6)の重みづけはそれぞれ同時に用いることができ、3つの重みづけを同時に用いた場合、投票における投票数wは以下の式(7)の値となる。 The formula (2), weighting of the formula (5) and (6) can be used at the same time each, in the case of using three simultaneous weighting, Votes w v in voting the following formula (7) Value.

スコア部32は、複数のリファレンス画像の各々に対し、当該リファレンス画像についての投票箱の投票結果に基づいて、クエリ画像とリファレンス画像との類似度を示すスコアを算出する。具体的には、スコア部32は、リファレンス画像の画像IDに対応する複数の投票箱の投票結果を集約することにより、リファレンス画像のスコアを算出する。   The score unit 32 calculates, for each of the plurality of reference images, a score indicating the degree of similarity between the query image and the reference image based on the vote result of the ballot box for the reference image. Specifically, the score unit 32 calculates the score of the reference image by collecting the voting results of a plurality of ballot boxes corresponding to the image ID of the reference image.

例えば、スコア部32は、複数のリファレンス画像の各々に対し、当該リファレンス画像についての投票箱の各々の投票数のうち、最大の投票数を当該リファレンス画像のスコアとして算出する。   For example, the score unit 32 calculates, for each of the plurality of reference images, the maximum number of votes among the number of votes of each ballot box for the reference image as the score of the reference image.

類似画像出力部34は、スコア部32によって算出されたスコアに基づいて、クエリ画像と類似するリファレンス画像を出力する。具体的には、類似画像出力部34は、算出したリファレンス画像のスコアを高い順にソートし、スコアの高いリファレンス画像の画像IDを出力する。   The similar image output unit 34 outputs a reference image similar to the query image based on the score calculated by the score unit 32. Specifically, the similar image output unit 34 sorts the calculated reference image scores in descending order, and outputs the image IDs of the reference images having the highest scores.

出力部3は、類似画像出力部34によって出力されたリファレンス画像の画像IDをリストとして出力する。   The output unit 3 outputs the image IDs of the reference images output by the similar image output unit 34 as a list.

<画像検索装置100の作用>
次に、第1の実施の形態に係る画像検索装置100の作用について、まず、リファレンス画像を登録する学習処理ルーチンについて説明する。入力部1において複数のリファレンス画像を含むリファレンス画像集合の入力を受け付けると、画像検索装置100は、図9に示す学習処理ルーチンを実行する。
<Operation of Image Retrieval Device 100>
Next, regarding the operation of the image search apparatus 100 according to the first embodiment, a learning processing routine for registering a reference image will be described first. When the input unit 1 receives an input of a reference image set including a plurality of reference images, the image search device 100 executes a learning process routine shown in FIG.

まず、ステップS100では、入力部1において受け付けたリファレンス画像集合を取得する。   First, in step S100, the reference image set received by the input unit 1 is acquired.

次に、ステップS102では、上記ステップS100で取得したリファレンス画像集合から、1つのリファレンス画像を設定する。   Next, in step S102, one reference image is set from the reference image set acquired in step S100.

次に、ステップS104において、局所特徴量抽出部20によって、上記ステップS102で設定したリファレンス画像に対して、回転又は拡大率の変化を含む複数の変換を行って、複数の変換画像を生成する。   Next, in step S104, the local feature quantity extraction unit 20 performs a plurality of conversions including a change in rotation or magnification on the reference image set in step S102 to generate a plurality of converted images.

ステップS106において、局所特徴量抽出部20によって、上記ステップS104で生成された複数の変換画像、及び上記ステップS102で設定されたリファレンス画像の各々から局所特徴量及び幾何特徴を抽出する。   In step S106, the local feature amount extraction unit 20 extracts a local feature amount and a geometric feature from each of the plurality of converted images generated in step S104 and the reference image set in step S102.

ステップS108において、上記ステップS100で取得したリファレンス画像集合に含まれる全てのリファレンス画像について上記ステップS102〜上記ステップS106の処理が終了したかを判定し、終了していなければステップS102へ戻って処理を繰り返し、終了していればステップS110へ移行する。   In step S108, it is determined whether or not the processing in steps S102 to S106 has been completed for all the reference images included in the reference image set acquired in step S100. If not completed, the process returns to step S102 for processing. If repeated, the process proceeds to step S110.

ステップS110において、クラスタリング部22によって、上記ステップS106で抽出された局所特徴量に対してクラスタリングを行い、局所特徴量の各々を複数のクラスタに分類する。   In step S110, the clustering unit 22 performs clustering on the local feature amount extracted in step S106, and classifies each local feature amount into a plurality of clusters.

ステップS112において、クラスタリング部22によって、上記ステップS110で求められた複数のクラスタの各々について、当該クラスタのセントロイドを求める。そして、クラスタリング部22によって、複数のクラスタの各々について求めたセントロイドの特徴量を、セントロイド格納部24に格納する。   In step S112, the clustering unit 22 obtains the centroid of the cluster for each of the plurality of clusters obtained in step S110. Then, the centroid feature amount obtained for each of the plurality of clusters is stored in the centroid storage unit 24 by the clustering unit 22.

ステップS114において、クラスタリング部22によって、上記ステップS106で抽出された複数の局所特徴量のうち、1つの局所特徴量を設定する。   In step S114, the clustering unit 22 sets one local feature amount among the plurality of local feature amounts extracted in step S106.

ステップS116において、クラスタリング部22によって、上記ステップS114で設定された局所特徴量について、当該局所特徴量に対応するリファレンス画像の画像ID、当該局所特徴量が属するクラスタのセントロイドID、及び当該局所特徴量に対応する幾何特徴(拡大率s、及び回転角度θ、φ、ψ)を、インデクス格納部26に格納する。   In step S116, for the local feature amount set in step S114 by the clustering unit 22, the image ID of the reference image corresponding to the local feature amount, the centroid ID of the cluster to which the local feature amount belongs, and the local feature The geometric feature (enlargement ratio s and rotation angles θ, φ, ψ) corresponding to the quantity is stored in the index storage unit 26.

ステップS118において、上記ステップS106で抽出された全ての局所特徴量について上記ステップS114〜上記ステップS116の処理が終了したかを判定し、終了していなければステップS114へ戻って処理を繰り返し、終了していれば、処理を終了する。学習処理ルーチンの終了により、リファレンス画像の登録は完了となる。   In step S118, it is determined whether or not the processing of step S114 to step S116 has been completed for all the local feature values extracted in step S106. If not, the process returns to step S114 to repeat the processing and end. If so, the process ends. When the learning process routine ends, registration of the reference image is completed.

次に、クエリ画像を入力し、クエリ画像と類似するリファレンス画像を取得する画像検索処理ルーチンについて説明する。入力部1においてクエリ画像の入力を受け付けると、画像検索装置100は、図10及び図11に示す画像検索処理ルーチンを実行する。   Next, an image search processing routine for inputting a query image and acquiring a reference image similar to the query image will be described. When the input unit 1 receives an input of a query image, the image search device 100 executes an image search processing routine shown in FIGS. 10 and 11.

まず、ステップS200では、入力部1において入力を受け付けたクエリ画像を取得する。   First, in step S200, a query image whose input is accepted by the input unit 1 is acquired.

次に、ステップS202では、局所特徴量抽出部20によって、上記ステップS200で取得したクエリ画像に対し、回転又は拡大率の変化を含む複数の変換を行って、複数の変換画像を生成する。   Next, in step S202, the local feature amount extraction unit 20 performs a plurality of conversions including a change in rotation or enlargement ratio on the query image acquired in step S200 to generate a plurality of converted images.

ステップS204では、局所特徴量抽出部20によって、上記ステップS200で取得したクエリ画像及び上記ステップS202で生成された複数の変換画像の各々から、局所特徴量及び幾何特徴を抽出する。   In step S204, the local feature amount extraction unit 20 extracts a local feature amount and a geometric feature from each of the query image acquired in step S200 and the plurality of converted images generated in step S202.

ステップS206では、上記ステップS204で抽出された局所特徴量の各々のうち、1つの局所特徴量を設定する。   In step S206, one local feature amount is set out of each of the local feature amounts extracted in step S204.

ステップS208では、セントロイド取得部28によって、上記ステップS206で設定されたクエリ画像の局所特徴量について、セントロイド格納部24に格納された複数のクラスタの各々に対するセントロイドの各々と、上記ステップS206で設定されたクエリ画像の局所特徴量との類似度を算出し、上記ステップS206で設定されたクエリ画像の局所特徴量に対応するセントロイドを取得する。そして、セントロイド取得部28は、上記ステップS206で設定されたクエリ画像の局所特徴量に対して、取得されたセントロイドに対応するセントロイドIDを割り当てる。   In step S208, the centroid for the local feature of the query image set in step S206 by the centroid acquisition unit 28 for each of the plurality of clusters stored in the centroid storage unit 24, and the above step S206. The degree of similarity with the local feature amount of the query image set in is calculated, and a centroid corresponding to the local feature amount of the query image set in step S206 is acquired. Then, the centroid acquisition unit 28 assigns a centroid ID corresponding to the acquired centroid to the local feature amount of the query image set in step S206.

ステップS210では、投票部30によって、上記ステップS208で割り当てられたセントロイドIDに対応してインデクス格納部26に格納されたリファレンス画像の1つの局所特徴量を設定する。   In step S210, the voting unit 30 sets one local feature amount of the reference image stored in the index storage unit 26 corresponding to the centroid ID assigned in step S208.

そして、ステップS212では、投票部30によって、上記ステップS210で設定された局所特徴量の局所特徴量IDに対応する、インデクス格納部26に格納された画像IDと幾何特徴とを取得する。   In step S212, the voting unit 30 acquires the image ID and the geometric feature stored in the index storage unit 26 corresponding to the local feature amount ID of the local feature amount set in step S210.

ステップS214では、投票部30によって、上記ステップS210で設定された局所特徴量に対応する幾何特徴と、上記ステップS212で取得された画像IDに対応するリファレンス画像の幾何特徴との比率又は差分を算出する。そして、投票部30によって、上記ステップS212で取得された画像IDに対応するリファレンス画像について幾何特徴の比率又は差分の各々に対して設けられた投票箱のうち、算出された比率又は差分に対して設けられたリファレンス画像についての投票箱に投票する。   In step S214, the voting unit 30 calculates a ratio or difference between the geometric feature corresponding to the local feature amount set in step S210 and the geometric feature of the reference image corresponding to the image ID acquired in step S212. To do. And with respect to the calculated ratio or difference among the ballot boxes provided for each of the geometric feature ratio or difference for the reference image corresponding to the image ID acquired in step S212 by the voting unit 30. Vote in the ballot box for the provided reference image.

ステップS216では、上記ステップS208で割り当てられたセントロイドIDに対応する全ての局所特徴量について上記ステップS212〜上記ステップS214の処理が終了したか否かを判定し、終了していなければステップS210へ戻って処理を繰り返し、終了していれば、ステップS218へ移行する。   In step S216, it is determined whether or not the processing in steps S212 to S214 has been completed for all local feature amounts corresponding to the centroid ID assigned in step S208. If not, the process proceeds to step S210. If it returns and repeats a process and is complete | finished, it will transfer to step S218.

ステップS218では、上記ステップS204で抽出されたクエリ画像の全ての局所特徴量について上記ステップS206〜上記ステップS216の処理が終了したか否かを判定し、終了していなければステップS206へ戻って処理を繰り返し、終了していれば、ステップS220へ移行する。   In step S218, it is determined whether or not the processing from step S206 to step S216 has been completed for all the local feature amounts of the query image extracted in step S204. If not, processing returns to step S206 and processing is performed. If the process is completed, the process proceeds to step S220.

ステップS220では、リファレンス画像集合から、1つのリファレンス画像を設定する。   In step S220, one reference image is set from the reference image set.

ステップS222では、スコア部32によって、上記ステップS220で設定されたリファレンス画像についての投票箱の各々の投票数のうち、最大の投票数を当該リファレンス画像のスコアとして算出する。   In step S222, the score unit 32 calculates the maximum number of votes among the number of votes in each ballot box for the reference image set in step S220 as the score of the reference image.

ステップS224では、リファレンス画像集合に含まれる全てのリファレンス画像について、上記ステップS220〜ステップS222の処理が終了したか否かを判定し、終了していなければステップS220へ戻って処理を繰り返し、終了していれば、ステップS226へ移行する。   In step S224, it is determined whether or not the processing in steps S220 to S222 has been completed for all the reference images included in the reference image set. If not completed, the process returns to step S220 to repeat the processing. If so, the process proceeds to step S226.

ステップS226では、類似画像出力部34によって、上記ステップS222で算出したリファレンス画像のスコアを高い順にソートし、スコアの高いリファレンス画像の画像IDを出力する。   In step S226, the similar image output unit 34 sorts the scores of the reference images calculated in step S222 in descending order, and outputs the image ID of the reference image having the highest score.

ステップS228では、類似画像出力部34によって出力されたリファレンス画像IDをリストとして出力部3により出力し、処理を終了する。   In step S228, the reference image ID output by the similar image output unit 34 is output as a list by the output unit 3, and the process ends.

以上説明したように、第1の実施の形態に係る画像検索装置100によれば、複数のリファレンス画像の各々について、当該リファレンス画像に対して回転又は拡大率の変化を含む複数の変換を行って生成された複数の変換画像、及びリファレンス画像の各々から抽出された局所特徴量に対してクラスタリングを行って局所特徴量の各々が分類された複数のクラスタの各々に対して求められたセントロイドの特徴量を格納し、抽出された局所特徴量の各々について、局所特徴量が属するクラスタのセントロイド、及び幾何特徴を格納し、クエリ画像に対して複数の変換を行って複数の変換画像を生成し、クエリ画像及び複数の変換画像の各々から、局所特徴量及び幾何特徴を抽出し、抽出されたクエリ画像の局所特徴量の各々について、複数のクラスタの各々に対するセントロイドの各々の特徴量と、クエリ画像の局所特徴量との類似度を算出し、クエリ画像の局所特徴量に対応するセントロイドを取得し、抽出されたクエリ画像の局所特徴量の各々について、取得されたセントロイドに対応して格納されたリファレンス画像に対する幾何特徴との比率又は差分を算出し、複数のリファレンス画像の各々について幾何特徴の比率又は差分の各々に対して設けられた投票箱のうち、算出されたリファレンス画像に対する幾何特徴との比率又は差分に対して設けられたリファレンス画像についての投票箱に投票し、リファレンス画像についての投票箱の投票結果に基づいて、クエリ画像とリファレンス画像との類似度を示すスコアを算出し、算出されたスコアに基づいて、クエリ画像と類似するリファレンス画像を出力することで、クエリ画像と類似するリファレンス画像を精度よく取得することができる。   As described above, according to the image search device 100 according to the first embodiment, for each of a plurality of reference images, a plurality of conversions including rotation or enlargement rate change are performed on the reference image. The centroids obtained for each of a plurality of clusters into which local feature amounts are classified by clustering local feature amounts extracted from each of the generated plurality of converted images and reference images. Stores feature quantities, and for each extracted local feature quantity, stores the centroid and geometric features of the cluster to which the local feature quantity belongs, and performs multiple transformations on the query image to generate multiple transformed images Then, a local feature and a geometric feature are extracted from each of the query image and the plurality of converted images, and a plurality of local features are extracted for each of the extracted query images. Calculates the similarity between each feature quantity of the centroid for each of the clusters and the local feature quantity of the query image, obtains the centroid corresponding to the local feature quantity of the query image, and extracts the local feature of the query image For each of the quantities, calculate a ratio or difference with respect to the stored reference image corresponding to the acquired centroid, and provide for each of the geometric feature ratio or difference for each of the plurality of reference images. Among the calculated ballot boxes, vote for the ballot box for the reference image provided for the ratio or difference with the geometric feature with respect to the calculated reference image, and query based on the ballot box vote result for the reference image A score indicating the similarity between the image and the reference image is calculated, and the query image and the reference image are calculated based on the calculated score. By outputting the reference image similar, it is possible to acquire the reference image similar to the query image accurately.

また、クエリ画像について、同一の被写体が写っている画像をあらかじめ登録しておいたリファレンス画像中から高速かつ高精度に取得することができる。   Further, the query image can be acquired at high speed and with high accuracy from the reference images registered in advance, which are images of the same subject.

また、画像の各局所特徴量について、局所特徴量の類似度及び幾何特徴の比率又は差分に基づいて、対応する投票箱に投票し、リファレンス画像の画像IDに対応する複数の投票箱に投票された結果を集約し、より多くの投票がなされたリファレンス画像を類似度が高いと判定することにより、同一物体で視点方向や拡大率の異なる画像を類似度が高いと判定することが可能になる。   Further, for each local feature amount of the image, based on the similarity of the local feature amount and the ratio or difference of the geometric features, the corresponding ballot box is voted and voted to a plurality of ballot boxes corresponding to the image ID of the reference image. It is possible to determine that the similarity is high for images with the same object but different viewpoint directions and magnification rates by determining that the similarity is high for the reference images for which more votes have been made. .

また、幾何特徴として局所特徴量の拡大率及び三次元空間での各回転角を抽出することにより、二次元平面内だけでなく、上下方向や左右方向に視点が変化した場合にも、画像間の類似度が高いと判定することが可能になる。   Also, by extracting the local feature magnification rate and each rotation angle in the three-dimensional space as geometric features, not only in the two-dimensional plane but also when the viewpoint changes in the vertical and horizontal directions, It is possible to determine that the degree of similarity is high.

また、リファレンス画像1枚につき、拡大率の比率および3軸の各回転角の差分の4次元空間を格子状に区切った各領域の投票箱を作成し、各リファレンス画像に対応する投票箱の投票結果で最大の値をリファレンス画像のスコアとすることにより、三次元空間において、どの視点から見ている可能性が最も高いかを判別し、その方向から見た場合の局所特徴量との幾何的な一貫性を検証することが可能になる。   In addition, for each reference image, a ballot box for each area is created by dividing the four-dimensional space of the enlargement ratio and the difference between the three rotation angles in a grid pattern, and the ballot boxes corresponding to the reference images are voted. By determining the maximum value in the result as the score of the reference image, it is possible to determine which viewpoint is most likely to be viewed in the three-dimensional space, and the geometrical characteristics of the local feature when viewed from that direction. It becomes possible to verify the consistency.

また、クエリ画像又はリファレンス画像において同一セントロイドに対応する局所特徴量数、リファレンス画像集合において各セントロイドが何枚の画像に含まれていたか、及びリファレンス画像における局所特徴量の総数の少なくとも1つ以上を用いて投票の投票数を重みづけすることにより、ある画像に同じセントロイドに対応する局所特徴量が大量に含まれる場合に類似度が当該セントロイドに対応する局所特徴量だけで決定されてしまうのを避ける、または、多くの画像に含まれるセントロイドに関する投票で類似度が決まってしまうのを避ける、または、リファレンス画像から大量の局所特徴量が抽出された場合に類似度が高く、少量の局所特徴量が抽出された場合には類似度が低くなりやすくなるのを避けることが可能になる。   Further, at least one of the number of local features corresponding to the same centroid in the query image or the reference image, how many images each centroid was included in the reference image set, and the total number of local features in the reference image By weighting the number of votes for voting using the above, when a large amount of local features corresponding to the same centroid are included in an image, the similarity is determined only by the local features corresponding to the centroid. Or a voting about centroids included in many images, or the similarity is high when a large amount of local features are extracted from the reference image, When a small amount of local feature amount is extracted, it is possible to avoid the similarity from being easily lowered.

[第2の実施の形態]
次に、第2の実施の形態について説明する。第2の実施の形態では、リファレンス画像の各々から抽出された局所特徴量に対してクラスタリングを行う処理と、クエリ画像とリファレンス画像との類似度を示すスコアを算出し、算出されたスコアに基づいて、クエリ画像と類似するリファレンス画像を出力する処理とを別々の装置で行う点が、第1の実施の形態と異なっている。
[Second Embodiment]
Next, a second embodiment will be described. In the second embodiment, the clustering is performed on the local feature amount extracted from each of the reference images, the score indicating the similarity between the query image and the reference image is calculated, and based on the calculated score Thus, the point that the processing for outputting the reference image similar to the query image is performed by a separate device is different from the first embodiment.

第2の実施の形態では、クラスタリング装置200が学習処理ルーチンを実行し、画像検索装置210が画像検索処理ルーチンを実行する。なお、第1の実施の形態に係る画像検索装置100と同一の構成となる部分については、同一符号を付して、詳細な説明を省略する。   In the second embodiment, the clustering apparatus 200 executes a learning process routine, and the image search apparatus 210 executes an image search process routine. Note that portions having the same configuration as those of the image search apparatus 100 according to the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

<クラスタリング装置200の構成>
図12に示すように、第2の実施の形態に係るクラスタリング装置200は、入力部4と、演算部5とを備えている。
<Configuration of Clustering Device 200>
As illustrated in FIG. 12, the clustering apparatus 200 according to the second embodiment includes an input unit 4 and a calculation unit 5.

入力部4は、複数のリファレンス画像を含むリファレンス画像集合を受け付ける。   The input unit 4 receives a reference image set including a plurality of reference images.

演算部5は、局所特徴量抽出部50と、クラスタリング部22と、セントロイド格納部24と、インデクス格納部26とを備えている。   The calculation unit 5 includes a local feature quantity extraction unit 50, a clustering unit 22, a centroid storage unit 24, and an index storage unit 26.

局所特徴量抽出部50は、局所特徴量抽出部20と同様に、入力部1により入力された複数のリファレンス画像の各々について、当該リファレンス画像に対して回転又は拡大率の変化を含む複数の変換を行って、複数の変換画像を生成する。そして、局所特徴量抽出部20は、生成された複数の変換画像、及びリファレンス画像の各々から、局所特徴量及び幾何特徴を抽出する。   Similar to the local feature quantity extraction unit 20, the local feature quantity extraction unit 50 performs a plurality of conversions including a change in the rotation or enlargement ratio with respect to each of the reference images input by the input unit 1. To generate a plurality of converted images. Then, the local feature amount extraction unit 20 extracts a local feature amount and a geometric feature from each of the generated plurality of converted images and reference images.

<画像検索装置210の構成>
図13に示すように、第2の実施の形態に係る画像検索装置210は、入力部6と、演算部7と、出力部3とを備えている。
<Configuration of Image Retrieval Device 210>
As illustrated in FIG. 13, the image search apparatus 210 according to the second embodiment includes an input unit 6, a calculation unit 7, and an output unit 3.

入力部6は、クエリ画像の入力を受け付ける。   The input unit 6 receives an input of a query image.

演算部7は、局所特徴量抽出部70と、セントロイド格納部74と、インデクス格納部76と、セントロイド取得部28と、投票部30と、スコア部32と、類似画像出力部34とを備えている。   The calculation unit 7 includes a local feature amount extraction unit 70, a centroid storage unit 74, an index storage unit 76, a centroid acquisition unit 28, a voting unit 30, a score unit 32, and a similar image output unit 34. I have.

局所特徴量抽出部70は、局所特徴量抽出部20と同様に、入力部1により入力されたクエリ画像に基づいて、クエリ画像に対して回転又は拡大率の変化を含む複数の変換を行って、複数の変換画像を生成する。そして、局所特徴量抽出部70は、クエリ画像及び複数の変換画像の各々から、局所特徴量及び幾何特徴を抽出する。   Similar to the local feature amount extraction unit 20, the local feature amount extraction unit 70 performs a plurality of conversions including a rotation or a change in the enlargement ratio on the query image based on the query image input by the input unit 1. A plurality of converted images are generated. Then, the local feature amount extraction unit 70 extracts a local feature amount and a geometric feature from each of the query image and the plurality of converted images.

セントロイド格納部74には、クラスタリング装置200のクラスタリング部22によって求められた複数のクラスタの各々についてのセントロイドの特徴量が格納される。   The centroid storage unit 74 stores the centroid feature amount for each of the plurality of clusters obtained by the clustering unit 22 of the clustering apparatus 200.

インデクス格納部76には、複数のリファレンス画像の各々に対し、クラスタリング装置200のクラスタリング部22によって求められた局所特徴量が属するクラスタのセントロイド、及び当該局所特徴量に対応する幾何特徴が格納される。   The index storage unit 76 stores, for each of a plurality of reference images, a centroid of a cluster to which the local feature amount obtained by the clustering unit 22 of the clustering apparatus 200 belongs, and a geometric feature corresponding to the local feature amount. The

次に、第2の実施の形態に係るクラスタリング装置200及び画像検索装置210の作用について説明する。   Next, operations of the clustering device 200 and the image search device 210 according to the second embodiment will be described.

<クラスタリング装置200の作用>
まず、クラスタリング装置200の作用について説明する。入力部1において複数のリファレンス画像を含むリファレンス画像集合の入力を受け付けると、クラスタリング装置200は、上記図9に示す学習処理ルーチンを実行し、セントロイド格納部24には、複数のクラスタの各々についてのセントロイドの特徴量が格納され、インデクス格納部26には、複数のリファレンス画像の各々に対しての局所特徴量が属するクラスタのセントロイド、及び当該局所特徴量に対応する幾何特徴が格納される。
<Operation of Clustering Device 200>
First, the operation of the clustering apparatus 200 will be described. When the input unit 1 receives an input of a reference image set including a plurality of reference images, the clustering apparatus 200 executes the learning processing routine shown in FIG. 9, and the centroid storage unit 24 stores each of the plurality of clusters. Centroid feature quantities are stored, and the index storage unit 26 stores a centroid of a cluster to which the local feature quantity for each of the plurality of reference images belongs, and a geometric feature corresponding to the local feature quantity. The

<画像検索装置210の作用>
次に、画像検索装置210の作用について説明する。まず、クラスタリング装置200のセントロイド格納部24に格納されている複数のクラスタの各々についてのセントロイドの特徴量が、画像検索装置210に入力されると、セントロイド格納部74に格納される。また、クラスタリング装置200のインデクス格納部26に格納されている複数のリファレンス画像の各々に対しての局所特徴量が属するクラスタのセントロイド、及び当該局所特徴量に対応する幾何特徴が入力されると、インデクス格納部76に格納される。そして、入力部6においてクエリ画像の入力を受け付けると、画像検索装置210によって、図10及び図11に示す画像検索処理ルーチンが実行され、クエリ画像と類似するリファレンス画像の画像IDが出力される。
<Operation of Image Retrieval Device 210>
Next, the operation of the image search device 210 will be described. First, when a centroid feature amount for each of a plurality of clusters stored in the centroid storage unit 24 of the clustering device 200 is input to the image search device 210, the centroid feature amount is stored in the centroid storage unit 74. Further, when a centroid of a cluster to which a local feature amount belongs to each of a plurality of reference images stored in the index storage unit 26 of the clustering apparatus 200 and a geometric feature corresponding to the local feature amount are input. And stored in the index storage unit 76. When the input unit 6 receives an input of a query image, the image search processing routine shown in FIGS. 10 and 11 is executed by the image search device 210, and an image ID of a reference image similar to the query image is output.

なお、第2の実施の形態に係るクラスタリング装置200及び画像検索装置210の他の構成及び作用については、第1の実施の形態と同様であるため、説明を省略する。   Note that the other configurations and operations of the clustering apparatus 200 and the image search apparatus 210 according to the second embodiment are the same as those of the first embodiment, and thus description thereof is omitted.

以上説明したように、第2の実施の形態に係るクラスタリング装置200及び画像検索装置210によれば、クエリ画像と類似するリファレンス画像を精度よく取得することができる。   As described above, according to the clustering apparatus 200 and the image search apparatus 210 according to the second embodiment, a reference image similar to a query image can be acquired with high accuracy.

なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。   Note that the present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the gist of the present invention.

例えば、上記第1の実施の形態に係る画像検索装置100及び第2の実施の形態に係るクラスタリング装置200は、セントロイド格納部24、及びインデクス格納部26を備えている場合について説明したが、例えばセントロイド格納部24、及びインデクス格納部26の少なくとも1つが画像検索装置100の外部装置に設けられ、画像検索装置100は、外部装置と通信手段を用いて通信することにより、セントロイド格納部24、及びインデクス格納部26の少なくとも1つを参照するようにしてもよい。   For example, although the image search device 100 according to the first embodiment and the clustering device 200 according to the second embodiment have been described as including the centroid storage unit 24 and the index storage unit 26, For example, at least one of the centroid storage unit 24 and the index storage unit 26 is provided in an external device of the image search device 100, and the image search device 100 communicates with the external device using a communication unit, so that the centroid storage unit 24 and at least one of the index storage unit 26 may be referred to.

また、上記第2の実施の形態に係る画像検索装置210は、セントロイド格納部74、及びインデクス格納部76を備えている場合について説明したが、例えばセントロイド格納部74、及びインデクス格納部76の少なくとも1つが画像検索装置210の外部装置に設けられ、画像検索装置210は、外部装置と通信手段を用いて通信することにより、セントロイド格納部74、及びインデクス格納部76の少なくとも1つを参照するようにしてもよい。   Moreover, although the case where the image search apparatus 210 according to the second embodiment includes the centroid storage unit 74 and the index storage unit 76 has been described, for example, the centroid storage unit 74 and the index storage unit 76 are provided. Are provided in an external device of the image search device 210, and the image search device 210 communicates with the external device using a communication means, so that at least one of the centroid storage unit 74 and the index storage unit 76 is provided. You may make it refer.

また、上述の画像検索装置100、クラスタリング装置200、及び画像検索装置210は、内部にコンピュータシステムを有しているが、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。   Further, the image search device 100, the clustering device 200, and the image search device 210 described above have a computer system therein, but the “computer system” is a homepage if a WWW system is used. It also includes the provision environment (or display environment).

また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。   In the present specification, the embodiment has been described in which the program is installed in advance. However, the program can be provided by being stored in a computer-readable recording medium.

1,4,6 入力部
2,5,7 演算部
3 出力部
20,50,70 局所特徴量抽出部
22 クラスタリング部
24,74 セントロイド格納部
26,76 インデクス格納部
28 セントロイド取得部
32 スコア部
30 投票部
34 類似画像出力部
100 画像検索装置
200 クラスタリング装置
210 画像検索装置
1, 4, 6 Input unit 2, 5, 7 Calculation unit 3 Output unit 20, 50, 70 Local feature extraction unit 22 Clustering unit 24, 74 Centroid storage unit 26, 76 Index storage unit 28 Centroid acquisition unit 32 Score Unit 30 Voting unit 34 Similar image output unit 100 Image search device 200 Clustering device 210 Image search device

Claims (9)

複数のリファレンス画像から、クエリ画像と類似するリファレンス画像を検索する画像検索装置であって、
前記複数のリファレンス画像の各々について、前記リファレンス画像に対して回転又は拡大率の変化を含む複数の変換を行って生成された複数の変換画像、及び前記リファレンス画像の各々から抽出された局所特徴量に対してクラスタリングを行って前記局所特徴量の各々が分類された複数のクラスタの各々に対して求められたセントロイドの特徴量を格納したセントロイド格納部と、
前記複数のリファレンス画像の各々に対し、前記複数の変換画像、及び前記リファレンス画像の各々から抽出された局所特徴量の各々について、前記局所特徴量が属するクラスタのセントロイド、及び前記変換を表す幾何特徴を格納したインデクス格納部と、
入力された前記クエリ画像に基づいて、前記クエリ画像に対して前記複数の変換を行って複数の変換画像を生成し、前記クエリ画像及び前記複数の変換画像の各々から、前記局所特徴量及び前記幾何特徴を抽出する局所特徴量抽出部と、
前記局所特徴量抽出部によって抽出された前記クエリ画像の局所特徴量の各々について、前記セントロイド格納部に格納された前記複数のクラスタの各々に対するセントロイドの各々の特徴量と、前記クエリ画像の局所特徴量との類似度を算出し、前記クエリ画像の局所特徴量に対応する前記セントロイドを取得するセントロイド取得部と、
前記局所特徴量抽出部によって抽出された前記クエリ画像の局所特徴量の各々について、前記セントロイド取得部によって取得された前記セントロイドに対応して前記インデクス格納部に格納された前記リファレンス画像に対する前記幾何特徴との比率又は差分を算出し、前記複数のリファレンス画像の各々について前記幾何特徴の比率又は差分の各々に対して設けられた投票箱のうち、前記算出された前記リファレンス画像に対する前記幾何特徴との比率又は差分に対して設けられた前記リファレンス画像についての投票箱に投票する投票部と、
前記複数のリファレンス画像の各々に対し、前記リファレンス画像についての前記投票箱の投票結果に基づいて、前記クエリ画像と前記リファレンス画像との類似度を示すスコアを算出するスコア部と、
前記スコア部によって算出された前記スコアに基づいて、前記クエリ画像と類似する前記リファレンス画像を出力する類似画像出力部と、
を含む画像検索装置。
An image search device for searching a reference image similar to a query image from a plurality of reference images,
For each of the plurality of reference images, a plurality of converted images generated by performing a plurality of conversions including a change in rotation or magnification on the reference image, and local feature amounts extracted from each of the reference images A centroid storage unit that stores centroid feature values obtained for each of a plurality of clusters in which each of the local feature values is classified by performing clustering on
For each of the plurality of reference images, for each of the plurality of converted images and each of the local feature amounts extracted from each of the reference images, a centroid of a cluster to which the local feature amount belongs and a geometry representing the conversion An index storage that stores the features;
Based on the inputted query image, the plurality of transformations are performed on the query image to generate a plurality of transformed images, and from each of the query image and the plurality of transformed images, the local feature amount and the A local feature extraction unit for extracting geometric features;
For each of the local feature amounts of the query image extracted by the local feature amount extraction unit, each feature amount of the centroid for each of the plurality of clusters stored in the centroid storage unit, and A centroid acquisition unit that calculates a similarity with a local feature and acquires the centroid corresponding to the local feature of the query image;
For each of the local feature amounts of the query image extracted by the local feature amount extraction unit, the reference image stored in the index storage unit corresponding to the centroid acquired by the centroid acquisition unit A ratio or difference with a geometric feature is calculated, and for each of the plurality of reference images, out of the voting box provided for each of the geometric feature ratio or difference, the geometric feature with respect to the calculated reference image A voting unit for voting in a ballot box for the reference image provided for the ratio or difference with
For each of the plurality of reference images, a score unit that calculates a score indicating the degree of similarity between the query image and the reference image based on the voting result of the ballot box for the reference image;
A similar image output unit that outputs the reference image similar to the query image based on the score calculated by the score unit;
Image search device including
前記局所特徴量抽出部は、画像の拡大率及び画像の三軸の各々の回転角を、前記幾何特徴として抽出する
請求項1記載の画像検索装置。
The image search apparatus according to claim 1, wherein the local feature amount extraction unit extracts an image enlargement ratio and a rotation angle of each of the three axes of the image as the geometric feature.
前記スコア部は、前記複数のリファレンス画像の各々に対し、前記リファレンス画像についての前記投票箱の各々の投票数のうち、最大の投票数を、前記リファレンス画像との類似度を示す前記スコアとして算出する
請求項1又は2記載の画像検索装置。
The score unit calculates, for each of the plurality of reference images, the maximum number of votes among the number of votes of each of the ballot boxes for the reference image as the score indicating the degree of similarity with the reference image. The image search device according to claim 1 or 2.
前記投票部は、前記局所特徴量抽出部によって抽出された前記クエリ画像の局所特徴量の各々について、前記セントロイド取得部によって取得された前記セントロイドに対応して前記インデクス格納部に格納された前記リファレンス画像に対する前記幾何特徴との比率又は差分を算出し、前記複数のリファレンス画像の各々について前記幾何特徴の比率又は差分の各々に対して設けられた投票箱のうち、前記算出された前記リファレンス画像に対する前記幾何特徴との比率又は差分に対して設けられた前記リファレンス画像についての投票箱に、前記セントロイド取得部によって取得された前記セントロイドに対応する、前記クエリ画像または前記リファレンス画像の局所特徴量の数に応じた票数、前記セントロイド取得部によって取得された前記セントロイドに対応する局所特徴量を有する前記リファレンス画像の数に応じた票数、又は前記リファレンス画像から抽出された局所特徴量の数に応じた票数を投票する
請求項1〜請求項3の何れか1項記載の画像検索装置。
The voting unit stores each local feature amount of the query image extracted by the local feature amount extraction unit in the index storage unit corresponding to the centroid acquired by the centroid acquisition unit. The ratio or difference of the geometric feature with respect to the reference image is calculated, and the calculated reference among the ballot boxes provided for each of the geometric feature ratio or difference for each of the plurality of reference images. The query image or the local area of the reference image corresponding to the centroid acquired by the centroid acquisition unit in a ballot box for the reference image provided for a ratio or difference between the geometric feature with respect to the image The number of votes corresponding to the number of features is acquired by the centroid acquisition unit. The number of votes according to the number of the reference images having the local feature amount corresponding to the centroid or the number of votes according to the number of local feature amounts extracted from the reference image is voted. The image search device according to claim 1.
局所特徴量抽出部、セントロイド取得部、投票部、スコア部、及び類似画像出力部を含み、
複数のリファレンス画像の各々について、前記リファレンス画像に対して回転又は拡大率の変化を含む複数の変換を行って生成された複数の変換画像、及び前記リファレンス画像の各々から抽出された局所特徴量に対してクラスタリングを行って前記局所特徴量の各々が分類された複数のクラスタの各々に対して求められたセントロイドの特徴量を格納したセントロイド格納部、及び前記複数のリファレンス画像の各々に対し、前記複数の変換画像、及び前記リファレンス画像の各々から抽出された局所特徴量の各々について、前記局所特徴量が属するクラスタのセントロイド、及び前記変換を表す幾何特徴を格納したインデクス格納部を用いて、複数のリファレンス画像から、クエリ画像と類似するリファレンス画像を検索する画像検索装置における画像検索方法であって、
前記局所特徴量抽出部が、入力された前記クエリ画像に基づいて、前記クエリ画像に対して前記複数の変換を行って複数の変換画像を生成し、前記クエリ画像及び前記複数の変換画像の各々から、前記局所特徴量及び前記幾何特徴を抽出するステップと、
前記セントロイド取得部が、前記局所特徴量抽出部によって抽出された前記クエリ画像の局所特徴量の各々について、前記セントロイド格納部に格納された前記複数のクラスタの各々に対するセントロイドの各々の特徴量と、前記クエリ画像の局所特徴量との類似度を算出し、前記クエリ画像の局所特徴量に対応する前記セントロイドを取得するステップと、
前記投票部が、前記局所特徴量抽出部によって抽出された前記クエリ画像の局所特徴量の各々について、前記セントロイド取得部によって取得された前記セントロイドに対応して前記インデクス格納部に格納された前記リファレンス画像に対する前記幾何特徴との比率又は差分を算出し、前記複数のリファレンス画像の各々について前記幾何特徴の比率又は差分の各々に対して設けられた投票箱のうち、前記算出された前記リファレンス画像に対する前記幾何特徴との比率又は差分に対して設けられた前記リファレンス画像についての投票箱に投票するステップと、
前記スコア部が、前記複数のリファレンス画像の各々に対し、前記リファレンス画像についての前記投票箱の投票結果に基づいて、前記クエリ画像と前記リファレンス画像との類似度を示すスコアを算出するステップと、
前記類似画像出力部が、前記スコア部によって算出された前記スコアに基づいて、前記クエリ画像と類似する前記リファレンス画像を出力するステップと、
を含む画像検索方法。
Including a local feature extraction unit, a centroid acquisition unit, a voting unit, a score unit, and a similar image output unit,
For each of a plurality of reference images, a plurality of converted images generated by performing a plurality of conversions including a change in rotation or magnification on the reference image, and a local feature amount extracted from each of the reference images A centroid storage unit that stores centroid feature values obtained for each of a plurality of clusters in which each of the local feature values is classified by performing clustering on each of the plurality of reference images For each of the local feature values extracted from each of the plurality of converted images and the reference image, a centroid of a cluster to which the local feature value belongs and an index storage unit that stores geometric features representing the conversion are used. The image search device searches for a reference image similar to the query image from a plurality of reference images. An image search method in,
The local feature quantity extraction unit performs the plurality of conversions on the query image based on the input query image to generate a plurality of conversion images, and each of the query image and the plurality of conversion images Extracting the local feature and the geometric feature from:
For each of the local feature values of the query image extracted by the local feature value extraction unit, the centroid acquisition unit has characteristics of each centroid for each of the plurality of clusters stored in the centroid storage unit. Calculating a similarity between a quantity and a local feature quantity of the query image, and obtaining the centroid corresponding to the local feature quantity of the query image;
The voting unit stores each of the local feature values of the query image extracted by the local feature value extracting unit in the index storage unit corresponding to the centroid acquired by the centroid acquisition unit. The ratio or difference of the geometric feature with respect to the reference image is calculated, and the calculated reference among the ballot boxes provided for each of the geometric feature ratio or difference for each of the plurality of reference images. Voting in a ballot box for the reference image provided for a ratio or difference of the geometric feature to an image;
The score unit calculates, for each of the plurality of reference images, a score indicating the similarity between the query image and the reference image based on the voting result of the ballot box for the reference image;
The similar image output unit outputting the reference image similar to the query image based on the score calculated by the score unit;
Image search method including
前記局所特徴量抽出部が前記幾何特徴を抽出するステップは、画像の拡大率及び画像の三軸の各々の回転角を、前記幾何特徴として抽出する
請求項5記載の画像検索方法。
The image search method according to claim 5, wherein the step of extracting the geometric feature by the local feature amount extraction unit extracts an enlargement ratio of an image and a rotation angle of each of three axes of the image as the geometric feature.
前記スコア部が前記スコアを算出するステップは、前記複数のリファレンス画像の各々に対し、前記リファレンス画像についての前記投票箱の各々の投票数のうち、最大の投票数を、前記リファレンス画像との類似度を示す前記スコアとして算出する
請求項6記載の画像検索方法。
The step of calculating the score by the score unit is similar to the reference image, with respect to each of the plurality of reference images, the maximum number of votes in each of the ballot boxes for the reference image. The image search method according to claim 6, wherein the image search method calculates the score indicating the degree.
前記投票部が投票するステップは、前記局所特徴量抽出部によって抽出された前記クエリ画像の局所特徴量の各々について、前記セントロイド取得部によって取得された前記セントロイドに対応して前記インデクス格納部に格納された前記リファレンス画像に対する前記幾何特徴との比率又は差分を算出し、前記複数のリファレンス画像の各々について前記幾何特徴の比率又は差分の各々に対して設けられた投票箱のうち、前記算出された前記リファレンス画像に対する前記幾何特徴との比率又は差分に対して設けられた前記リファレンス画像についての投票箱に、前記セントロイド取得部によって取得された前記セントロイドに対応する、前記クエリ画像または前記リファレンス画像の局所特徴量の数に応じた票数、前記セントロイド取得部によって取得された前記セントロイドに対応する局所特徴量を有する前記リファレンス画像の数に応じた票数、又は前記リファレンス画像から抽出された局所特徴量の数に応じた票数を投票する
請求項5〜請求項7の何れか1項記載の画像検索方法。
The step of voting by the voting unit corresponds to the index storage unit corresponding to the centroid acquired by the centroid acquisition unit for each local feature amount of the query image extracted by the local feature amount extraction unit. The ratio or difference of the geometric feature with respect to the reference image stored in the reference image is calculated, and the calculation is performed among the ballot boxes provided for the geometric feature ratio or difference for each of the plurality of reference images. The query image corresponding to the centroid acquired by the centroid acquisition unit in a ballot box for the reference image provided for a ratio or difference with the geometric feature relative to the reference image, Obtain the number of votes corresponding to the number of local features of the reference image and the centroid The number of votes corresponding to the number of the reference images having the local feature amount corresponding to the centroid obtained by voting or the number of votes corresponding to the number of local feature amounts extracted from the reference image is voted. Item 8. The image search method according to any one of Items 7 to 8.
コンピュータを、請求項1〜請求項4の何れか1項記載の画像検索装置の各部として機能させるためのプログラム。   The program for functioning a computer as each part of the image search device of any one of Claims 1-4.
JP2014141549A 2014-07-09 2014-07-09 Image search apparatus, method, and program Active JP5995916B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014141549A JP5995916B2 (en) 2014-07-09 2014-07-09 Image search apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014141549A JP5995916B2 (en) 2014-07-09 2014-07-09 Image search apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2016018444A JP2016018444A (en) 2016-02-01
JP5995916B2 true JP5995916B2 (en) 2016-09-21

Family

ID=55233610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014141549A Active JP5995916B2 (en) 2014-07-09 2014-07-09 Image search apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP5995916B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018142074A (en) * 2017-02-27 2018-09-13 三菱重工業株式会社 Feature quantity calculation device, image similarity determination device, image retrieval device, feature quantity calculation method, and program
JP7378421B2 (en) * 2018-11-13 2023-11-13 株式会社半導体エネルギー研究所 Image search system and image search method
CN112749652B (en) * 2020-12-31 2024-02-20 浙江大华技术股份有限公司 Identity information determining method and device, storage medium and electronic equipment

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4343038B2 (en) * 2004-06-23 2009-10-14 日本電信電話株式会社 Partial image search system, method and program
JP2013101423A (en) * 2011-11-07 2013-05-23 Nippon Telegr & Teleph Corp <Ntt> Image matching device and image matching program
JP5577372B2 (en) * 2012-03-29 2014-08-20 楽天株式会社 Image search apparatus, image search method, program, and computer-readable storage medium
JP5963609B2 (en) * 2012-08-23 2016-08-03 キヤノン株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2016018444A (en) 2016-02-01

Similar Documents

Publication Publication Date Title
Xu et al. Reconstruction of scaffolds from a photogrammetric point cloud of construction sites using a novel 3D local feature descriptor
US20150287211A1 (en) Method for classification and segmentation and forming 3d models from images
CN116188805B (en) Image content analysis method and device for massive images and image information network
Yang et al. Ranking 3D feature correspondences via consistency voting
JP2010272092A (en) Image retrieval device and image retrieval method
CN105205135B (en) A kind of 3D model retrieval methods and its retrieval device based on topic model
TWI536186B (en) Three-dimension image file serching method and three-dimension image file serching system
JP6055435B2 (en) Subject recognition apparatus, subject recognition method, and subject recognition program
JP2015111339A (en) Image search system, image search apparatus, search server device, image search method, and image search program
CN102411779A (en) Object model matching posture measuring method based on image
JP5995916B2 (en) Image search apparatus, method, and program
CN107316328A (en) A kind of closed loop detection method based on two dimensional laser scanning instrument Corner Feature
CN108765446B (en) Power line point cloud segmentation method and system based on random field and random forest
Ng et al. Matching of interest point groups with pairwise spatial constraints
Liu et al. Method for extraction of airborne LiDAR point cloud buildings based on segmentation
JP4721829B2 (en) Image retrieval method and apparatus
JP6598480B2 (en) Image processing apparatus, image processing method, and program
JP6623126B2 (en) Object search device, three-dimensional object modeling device, method, and program
US20220351488A1 (en) Computer-readable recording medium storing shape identification program, shape identification method, and information processing apparatus
Ren et al. A multi-scale UAV image matching method applied to large-scale landslide reconstruction
JP6320806B2 (en) 3D model search method and 3D model search system
JP6355372B2 (en) 3D model feature extraction method and 3D model annotation system
Ochmann et al. Towards the Extraction of Hierarchical Building Descriptions from 3D Indoor Scans.
US10339364B2 (en) Apparatus and method for rejecting erroneous objects of extrusion in point cloud data
Gominski et al. Benchmarking individual tree mapping with sub-meter imagery

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160823

R150 Certificate of patent or registration of utility model

Ref document number: 5995916

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150