JP2018120395A - Apparatus, method and program for registering feature amount - Google Patents

Apparatus, method and program for registering feature amount Download PDF

Info

Publication number
JP2018120395A
JP2018120395A JP2017011051A JP2017011051A JP2018120395A JP 2018120395 A JP2018120395 A JP 2018120395A JP 2017011051 A JP2017011051 A JP 2017011051A JP 2017011051 A JP2017011051 A JP 2017011051A JP 2018120395 A JP2018120395 A JP 2018120395A
Authority
JP
Japan
Prior art keywords
feature
registered
registered feature
similarity score
pseudo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017011051A
Other languages
Japanese (ja)
Other versions
JP6674393B2 (en
Inventor
康平 松▲崎▼
Kohei Matsuzaki
康平 松▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017011051A priority Critical patent/JP6674393B2/en
Publication of JP2018120395A publication Critical patent/JP2018120395A/en
Application granted granted Critical
Publication of JP6674393B2 publication Critical patent/JP6674393B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an apparatus for registering a feature amount capable of acquiring a robust feature amount even in a case where there is a view change.SOLUTION: An apparatus 10 for registering a feature amount that determines a registration feature set as a registration object from an input image comprises: a pseudo-query feature generation unit 1 that generates a pseudo-query feature set from the input image and/or one or more processed images obtained by processing the input image; a registration-feature candidate generation unit 2 that generates a registration-feature candidate set; a feature matching unit 31 that carries out matching between each element of the pseudo-query feature set and each element of the registration-feature candidate set; a similarity score calculation unit 32 that determines a similarity score sum to elements of the pseudo-query feature set over each element of the registration-feature candidate set on the basis of a matching result from the feature matching unit 31; and a registration-feature generation unit 33 that determines the registration feature set by determining an element of the registration feature set using the element of the registration-feature candidate set selected based on the determined similarity score sum.SELECTED DRAWING: Figure 1

Description

本発明は、ビュー変化がある場合であってもロバストな特徴量を得ることのできる特徴量登録装置、方法及びプログラムに関する。   The present invention relates to a feature amount registration apparatus, method, and program capable of obtaining a robust feature amount even when there is a view change.

非特許文献1および2の様に、画像から抽出される局所特徴を用いて物体検索を行う技術がある。これらの技術では、予めデータベースに登録する画像から局所特徴を抽出し,任意のデータベース(以下、DBと略記する。)作成方法に従ってDBを構築する。実行時には、物体をカメラ等の撮影手段で撮影した画像をクエリ画像とし、局所特徴を抽出する。これらの特徴をDB内の特徴とマッチングすることによって、クエリ画像とDB画像と間の類似度を計算することで、物体検索結果を得る。   As in Non-Patent Documents 1 and 2, there is a technique for performing object search using local features extracted from an image. In these techniques, local features are extracted from images registered in advance in a database, and a DB is constructed according to an arbitrary database (hereinafter abbreviated as DB) creation method. At the time of execution, an image obtained by photographing an object with a photographing means such as a camera is used as a query image, and local features are extracted. An object search result is obtained by calculating the similarity between the query image and the DB image by matching these features with the features in the DB.

当該検索処理の高速化やメモリ使用量削減等のため、特徴点の持つ特徴ベクトルはVisual Word(ビジュアルワード。以下、VWと略記する。)と呼ばれる代表ベクトルに量子化される。その際には、一般的に特徴点の持つ特徴ベクトルの最近傍となるVWに量子化される。しかし、撮影された画像から抽出される特徴ベクトルは、登録時との撮影視点の差異や、撮影画像のぼけ、ぶれ等の様々な要因によって変化しうる。そのため、DBに登録された物体の同一位置から抽出された特徴ベクトルであっても、異なるVWに量子化されてしまうことがある。これを量子化誤りと呼ぶ。   In order to speed up the search process and reduce the amount of memory used, the feature vector of the feature point is quantized into a representative vector called Visual Word (visual word, hereinafter abbreviated as VW). In that case, it is generally quantized to VW, which is the nearest feature vector of the feature point. However, the feature vector extracted from the photographed image may change due to various factors such as a difference in photographing viewpoint from that at the time of registration, blurring and blurring of the photographed image. For this reason, even feature vectors extracted from the same position of an object registered in the DB may be quantized to different VWs. This is called a quantization error.

この問題に対し、非特許文献1では、特徴点の特徴ベクトルをk近傍となる複数のVWに割り当て(Soft Assignment)た上でDBに登録することによって、量子化誤りの影響を緩和している。   To deal with this problem, Non-Patent Document 1 alleviates the influence of quantization errors by assigning feature vectors of feature points to a plurality of VWs near k (Soft Assignment) and registering them in the DB. .

また、非特許文献2では、元々の特徴ベクトルをよりコンパクトなバイナリベクトルに変換し、VWと合わせてデータベースに格納している。そして、クエリ側とDB側で同一VWとなった特徴の持つバイナリベクトル間の距離を測定し、類似度スコアの重み付けに利用している。また、この距離を特徴マッチングの判断にも利用している。すなわち,距離が閾値以内である場合のみマッチングする、または、クエリ側の特徴にとってデータベース側の特徴がk近傍に位置する場合のみマッチングする、という判断である。さらに、特徴点の持つオリエンテーションやスケールを利用することによって,幾何的整合性の無いマッチをフィルタリングし,検索精度を改善している。   In Non-Patent Document 2, the original feature vector is converted into a more compact binary vector and stored in the database together with the VW. The distance between the binary vectors of the features having the same VW on the query side and the DB side is measured and used to weight the similarity score. In addition, this distance is also used to determine feature matching. That is, it is determined that matching is performed only when the distance is within the threshold value, or matching is performed only when the database-side feature is located in the vicinity of k for the query-side feature. Furthermore, by using the orientation and scale of the feature points, matches with no geometric consistency are filtered to improve the search accuracy.

Philbin, James, et al. "Lost in quantization: Improving particular object retrieval in large scale image databases." Computer Vision and Pattern Recognition, 2008. CVPR 2008. IEEE Conference on. IEEE, 2008.Philbin, James, et al. "Lost in quantization: Improving particular object retrieval in large scale image databases." Computer Vision and Pattern Recognition, 2008. CVPR 2008. IEEE Conference on. IEEE, 2008. Jegou, Herve, Matthijs Douze, and Cordelia Schmid. "Hamming embedding and weak geometric consistency for large scale image search." Computer Vision-ECCV 2008. Springer Berlin Heidelberg, 2008. 304-317.Jegou, Herve, Matthijs Douze, and Cordelia Schmid. "Hamming embedding and weak geometric consistency for large scale image search." Computer Vision-ECCV 2008. Springer Berlin Heidelberg, 2008. 304-317.

しかしながら、上述した非特許文献1,2等の従来の技術では、クエリ側とDB側でのビューの変化に対する考慮がなされていなかった。すなわち、局所特徴にはビューが変化した際の特徴点検出のロバスト性および特徴量のロバスト性があるにも関わらず、それらに対する考慮がなされていなかった。   However, in the conventional technologies such as Non-Patent Documents 1 and 2 described above, no consideration is given to changes in view on the query side and the DB side. That is, although local features have robustness of feature point detection and feature amount robustness when the view changes, they have not been considered.

なおここで、ビューとはクエリ画像およびDB画像において物体を撮影する際のカメラ視点の位置及び姿勢、光源位置及び方向、ピント設定、カメラ移動(ブレ)状態その他といったような、物体を撮影して画像を得る際にその見た目を変化させる任意の条件をいうものとする。また、画像は実際の物体をカメラで物理的に撮影して得られるもの(実写)に限らず、コンピュータグラフィックス(以下、CGと略記する。)手法で合成される画像や、当該CG手法及び実写を組み合わせて得られる画像も含むものとする。   Here, the view refers to shooting an object such as the position and orientation of the camera viewpoint when shooting the object in the query image and DB image, the light source position and direction, the focus setting, the camera movement (blur) state, etc. An arbitrary condition for changing the appearance when an image is obtained is assumed. In addition, images are not limited to images obtained by physically shooting an actual object with a camera (actual shooting), but images synthesized by a computer graphics (hereinafter abbreviated as CG) method, the CG method, It also includes images obtained by combining live-action shots.

上記従来技術の課題に鑑み、本発明は、ビュー変化がある場合であってもロバストな特徴量を得ることのできる特徴量登録装置、方法及びプログラムを提供することを目的とする。   In view of the above-described problems of the conventional technology, an object of the present invention is to provide a feature amount registration apparatus, method, and program capable of obtaining a robust feature amount even when there is a view change.

上記目的を達成するため、本発明は、入力画像より登録対象としての登録特徴集合を求める特徴量登録装置であって、前記入力画像及び/又は当該入力画像を加工して得られる1つ以上の加工画像より疑似クエリ特徴集合を生成する疑似クエリ特徴生成部と、登録特徴候補集合を生成する登録特徴候補生成部と、前記疑似クエリ特徴集合の各要素と前記登録特徴候補集合の各要素との間でマッチングを行う特徴マッチング部と、前記特徴マッチング部によるマッチング結果に基づき、前記登録特徴候補集合の各要素につき、前記疑似クエリ特徴集合の要素との間の類似度スコア和を求める類似度スコア計算部と、前記求めた類似度スコア和に基づいて選択される前記登録特徴候補集合の要素を用いて、前記登録特徴集合の要素を決定することで、前記登録特徴集合を求める登録特徴生成部と、を備えることを特徴とする。   In order to achieve the above object, the present invention is a feature amount registration apparatus for obtaining a registered feature set as a registration target from an input image, wherein the input image and / or one or more obtained by processing the input image A pseudo query feature generation unit that generates a pseudo query feature set from a processed image, a registered feature candidate generation unit that generates a registered feature candidate set, each element of the pseudo query feature set, and each element of the registered feature candidate set And a similarity score for calculating a similarity score sum between the elements of the pseudo-query feature set for each element of the registered feature candidate set based on a matching result obtained by the feature matching unit Determining an element of the registered feature set using a calculation unit and an element of the registered feature candidate set selected based on the calculated similarity score sum Characterized by and a registered feature generation unit for obtaining the registration feature sets.

また、本発明は、入力画像より登録対象としての登録特徴集合を求める特徴登録方法であって、前記入力画像及び/又は当該入力画像を加工して得られる1つ以上の加工画像より疑似クエリ特徴集合を生成する疑似クエリ特徴生成段階と、登録特徴候補集合を生成する登録特徴候補生成段階と、前記疑似クエリ特徴集合の各要素と前記登録特徴候補集合の各要素との間でマッチングを行う特徴マッチング段階と、前記特徴マッチング段階によるマッチング結果に基づき、前記登録特徴候補集合の各要素につき、前記疑似クエリ特徴集合の要素との間の類似度スコア和を求める類似度スコア計算段階と、前記求めた類似度スコア和に基づいて選択される前記登録特徴候補集合の要素を用いて、前記登録特徴集合の要素を決定することで、前記登録特徴集合を求める登録特徴生成段階と、を備えることを特徴とする。さらに、本発明は、コンピュータを前記特徴量登録装置として機能させるプログラムであることを特徴とする。   The present invention is also a feature registration method for obtaining a registered feature set as a registration target from an input image, wherein the pseudo query feature is obtained from the input image and / or one or more processed images obtained by processing the input image. A pseudo query feature generation stage for generating a set, a registered feature candidate generation stage for generating a registered feature candidate set, and a feature for performing matching between each element of the pseudo query feature set and each element of the registered feature candidate set A similarity score calculation step for obtaining a similarity score sum between each element of the registered feature candidate set and an element of the pseudo-query feature set based on a matching result obtained by the feature matching step; By determining the elements of the registered feature set using the elements of the registered feature candidate set selected based on the sum of similarity scores. Characterized in that it comprises a registration feature generation determining a feature set, the. Furthermore, the present invention is a program for causing a computer to function as the feature amount registration apparatus.

本発明によれば、ビュー変化がある場合であってもロバストな特徴量を得ることができる。   According to the present invention, it is possible to obtain a robust feature amount even when there is a view change.

一実施形態に係る特徴量登録装置の機能ブロック図である。It is a functional block diagram of the feature-value registration apparatus which concerns on one Embodiment. 一実施形態に係る特徴量登録装置の動作のフローチャートである。It is a flowchart of operation | movement of the feature-value registration apparatus which concerns on one Embodiment. 一実施形態に係る疑似クエリ特徴生成部の詳細を示す機能ブロック図である。It is a functional block diagram which shows the detail of the pseudo query characteristic production | generation part which concerns on one Embodiment. 画像同士に同一対象の幾何変換関係がある場合のディストラクタの関係(及びその逆としての同一対象同一箇所の関係)を説明するための図である。It is a figure for demonstrating the relationship of the destructor in case there exists the geometric transformation relationship of the same object between images (and the relationship of the same object same location as the contrary).

図1は、一実施形態に係る特徴量登録装置の機能ブロック図である。当該図示する通り、特徴量登録装置10は、疑似クエリ特徴生成部1、登録特徴候補生成部2、反復処理部3及び特徴量記憶部4を備え、反復処理部3はさらに特徴マッチング部31、類似度スコア計算部32及び登録特徴生成部33を備える。   FIG. 1 is a functional block diagram of a feature amount registration apparatus according to an embodiment. As shown in the figure, the feature amount registration device 10 includes a pseudo query feature generation unit 1, a registered feature candidate generation unit 2, an iterative processing unit 3, and a feature amount storage unit 4, and the iterative processing unit 3 further includes a feature matching unit 31, A similarity score calculation unit 32 and a registered feature generation unit 33 are provided.

まず、特徴量登録装置10の全体動作は、画像を入力として読み込み、ビュー変化が発生していることが想定される当該画像に適した登録特徴集合を出力する、というものである。本発明によれば特に、クエリ側とDB側でビューの変化が想定される場合にも、特徴マッチングを介して得られる類似度スコアを最大化するような特徴集合として、登録特徴集合を出力することが可能である。   First, the overall operation of the feature amount registration apparatus 10 is to read an image as an input and output a registered feature set suitable for the image in which a view change is assumed to occur. According to the present invention, the registered feature set is output as a feature set that maximizes the similarity score obtained through feature matching even when a view change is assumed between the query side and the DB side. It is possible.

例えば、ビュー変化が具体的には画像の撮影の際のカメラの位置姿勢の変化である場合であれば、特徴量登録装置10によって得られる登録特徴集合は、画像を撮影する際のカメラの位置姿勢が色々と変動しても、当該変動範囲に渡って全体最適化されたものとなり、どのような位置姿勢において撮影された場合であってもロバストに特徴マッチングを可能とするものとなる。   For example, if the view change is specifically a change in the position and orientation of the camera at the time of image capture, the registered feature set obtained by the feature amount registration device 10 is the position of the camera at the time of image capture. Even if the posture changes variously, it is optimized as a whole over the fluctuation range, and it is possible to perform robust feature matching regardless of the position and orientation of the image.

さらに、本発明の一実施形態によれば、Distractor(ディストラクタ、不正解の選択肢)の存在を仮定した上での類似度スコアの最大化を目指すものとして、登録特徴集合を出力することが可能である。ここで、特徴検索問題において一般に、クエリ側の特徴にとっての不正解の選択肢、すなわちディストラクタは不可避な存在であるが、本発明においては、当該ディストラクタの存在を仮定したうえでの類似度スコアの最大化を目指すような登録特徴集合を出力することもできる。詳細は後述する。   Furthermore, according to an embodiment of the present invention, it is possible to output a registered feature set for the purpose of maximizing the similarity score on the assumption of the presence of a Distractor (distractor, incorrect answer option). It is. Here, in general, in the feature search problem, an incorrect answer option for a query-side feature, that is, a distractor is unavoidable, but in the present invention, a similarity score based on the existence of the distractor is assumed. It is also possible to output a registered feature set that aims to maximize. Details will be described later.

なお、特徴量登録装置10が出力する登録特徴集合とは、当該画像の特徴集合としてDBへと登録するのに上記のような観点から適したものを意味し、用途として必ずしも登録(DBその他の何らかの媒体に恒久的又は一時的に記録されること)を必要とするものではない。   Note that the registered feature set output by the feature amount registration apparatus 10 means a feature suitable for registration in the DB as a feature set of the image from the above viewpoint, and is not necessarily registered as a use (DB or other It is not required to be recorded permanently or temporarily on some medium.

また、特徴量登録装置10のフレームワーク(主要な処理の流れ)は次の通りである。すなわち、求めるN個のDB特徴(登録特徴)の集合をX={x1, x2, …, xN}、任意のM個の疑似クエリ特徴の集合をQ={q1, q2, …, qM}、任意のL個のディストラクタの集合をD={d1, d2, …, dL}とし、任意の制約条件の下でQから最大の類似度スコアを得ることのできるXを生成するフレームワークである。(なお、前述の通り、実施形態によってはディストラクタ集合Dの利用は省略してもよい。) Further, the framework (main processing flow) of the feature amount registration apparatus 10 is as follows. That is, a set of N DB features (registered features) to be obtained is X = {x 1 , x 2 ,…, x N }, and a set of arbitrary M pseudo-query features is Q = {q 1 , q 2 , …, Q M }, and let D = {d 1 , d 2 ,…, d L } be a set of any L distractors and obtain the maximum similarity score from Q under any constraints It is a framework that generates X that can. (As described above, use of the distractor set D may be omitted depending on the embodiment.)

以上が全体概略であり、図1に示す機能ブロック間のデータ授受の流れに関して、各部の処理内容の概略は以下の通りである。   The above is the overall outline. Regarding the flow of data exchange between the functional blocks shown in FIG. 1, the outline of the processing contents of each part is as follows.

疑似クエリ特徴生成部1は、特徴量登録装置10への入力としての画像を読み込み、疑似クエリ特徴集合Qを生成して、特徴マッチング部31へと出力する。実施形態によっては疑似クエリ特徴生成部1はさらに、線L21で示すように当該生成した疑似クエリ特徴集合Qを登録特徴候補生成部2へも出力するようにしてもよいし、線L31で示すように当該生成する際に得られるディストラクタ情報(後述)を反復処理部3へと出力するようにしてもよい。   The pseudo query feature generation unit 1 reads an image as an input to the feature amount registration apparatus 10, generates a pseudo query feature set Q, and outputs it to the feature matching unit 31. Depending on the embodiment, the pseudo query feature generation unit 1 may further output the generated pseudo query feature set Q to the registered feature candidate generation unit 2 as indicated by a line L21, or as indicated by a line L31. In addition, distractor information (described later) obtained at the time of generation may be output to the iterative processing unit 3.

登録特徴候補生成部2は、特徴量登録装置10からの最終的な出力としての登録特徴集合を得るのに候補として用いるための登録特徴候補集合を生成し、特徴マッチング部31へと出力する。登録特徴候補集合を当該生成するための入力は線L21,L22,L23で示すような各実施形態のいずれかが可能であり、線L21で示されるように疑似クエリ特徴生成部1から得られる疑似クエリ特徴集合を用いてもよいし、線L22で示されるように登録特徴生成部33から得られる登録特徴集合を用いてもよいし、線L23で示されるように特徴量記憶部4に予め記憶されている特徴集合を用いてもよい。   The registered feature candidate generation unit 2 generates a registered feature candidate set to be used as a candidate for obtaining a registered feature set as a final output from the feature amount registration apparatus 10 and outputs the registered feature candidate set to the feature matching unit 31. The input for generating the registered feature candidate set can be any one of the embodiments shown by lines L21, L22, and L23, and the pseudo-feature obtained from the pseudo-query feature generating unit 1 as shown by the line L21. A query feature set may be used, a registered feature set obtained from the registered feature generation unit 33 as indicated by a line L22 may be used, or a feature amount storage unit 4 is stored in advance as indicated by a line L23. A feature set may be used.

反復処理部3は上記説明したフレームワークを実行するものであり、疑似クエリ特徴生成部1から得られる疑似クエリ特徴集合と、登録特徴候補生成部2から得られる登録特徴候補集合と、を入力とし、反復処理によって所定数N個の登録特徴集合を最終結果として出力する。詳細は図2を参照して後述するが、第一の反復処理として特徴マッチング部31及び類似度スコア計算部32において疑似クエリ特徴集合の各要素(qi)及び登録特徴候補集合の各要素(yj)を対象とした処理を行うことでマッチング結果及び類似度スコアが得られ、さらに当該得られたマッチング結果及び類似度スコアに基づく第二の反復処理を登録特徴生成部33において行うことでN個の登録特徴集合が得られる。第二の反復処理の各回においては図1に示すように得られているマッチング結果及び類似度スコアを更新すべき旨の指示が登録特徴生成部33より出力され、マッチング結果及び類似度スコアの更新が行われる。   The iterative processing unit 3 executes the above-described framework. The pseudo query feature set obtained from the pseudo query feature generation unit 1 and the registration feature candidate set obtained from the registration feature candidate generation unit 2 are input. A predetermined number N of registered feature sets are output as a final result by iterative processing. Details will be described later with reference to FIG. 2. As a first iterative process, each element (qi) of the pseudo query feature set and each element (yj) of the registered feature candidate set are used in the feature matching unit 31 and the similarity score calculation unit 32. ) To obtain a matching result and a similarity score, and the registered feature generation unit 33 performs a second iterative process based on the obtained matching result and the similarity score. A registered feature set is obtained. In each round of the second iterative process, an instruction to update the matching result and similarity score obtained as shown in FIG. 1 is output from the registered feature generation unit 33, and the matching result and similarity score are updated. Is done.

反復処理部3の反復処理の各回における要素処理をそれぞれ実行するのが各部31,32,33である。特徴マッチング部31は、疑似クエリ特徴生成部1から得られる疑似クエリ特徴集合と、登録特徴候補生成部2から得られる登録特徴候補集合と、の間でマッチングを行い、マッチング結果を類似度スコア計算部32へと出力する。類似度スコア計算部32は当該得られたマッチング結果に基づいて類似度スコアを算出して登録特徴生成部33へと出力する。登録特徴生成部33では当該得られた類似度スコアに基づいて、最終出力としての登録特徴集合の要素を1つずつ、合計でN個決定する。前述の通り特徴マッチング部31及び類似度スコア計算部32が第一の反復処理を行い、登録特徴生成部33が第二の反復処理を行う。   The units 31, 32, and 33 execute the element processing in each iteration of the iterative processing unit 3, respectively. The feature matching unit 31 performs matching between the pseudo query feature set obtained from the pseudo query feature generation unit 1 and the registered feature candidate set obtained from the registered feature candidate generation unit 2, and the matching result is used to calculate a similarity score. Output to part 32. The similarity score calculation unit 32 calculates a similarity score based on the obtained matching result and outputs the similarity score to the registered feature generation unit 33. Based on the obtained similarity score, the registered feature generation unit 33 determines N elements in a registered feature set as a final output one by one. As described above, the feature matching unit 31 and the similarity score calculation unit 32 perform the first iteration process, and the registered feature generation unit 33 performs the second iteration process.

一実施形態では線L22に示すように、反復処理部3で得られた登録特徴集合をさらに登録特徴候補生成部2へと出力してもよい。この場合すなわち、特徴量登録装置10の全体で所定回数(A回とする)の繰り返し処理を行い、a回目(a=1,2, ..., A-1)に反復処理部3の登録特徴生成部33から出力された登録特徴集合をその次のa+1回目の登録特徴候補生成部2(及び特徴マッチング部31)への入力とすることで、最終的にA回目に登録特徴生成部33から得られる登録特徴を特徴量登録装置10の出力とする。従って図1において、当該繰り返しを行わない場合(A=1の場合)は線L22は省略される。   In one embodiment, as shown by a line L22, the registered feature set obtained by the iterative processing unit 3 may be further output to the registered feature candidate generating unit 2. In this case, that is, the entire feature quantity registration device 10 performs a predetermined number of repetitions (assuming A times), and registration of the iterative processing unit 3 is performed a-th (a = 1, 2,..., A-1) By using the registered feature set output from the feature generation unit 33 as the input to the next a + 1-th registered feature candidate generation unit 2 (and the feature matching unit 31), finally the registered feature generation at the Ath time The registered feature obtained from the unit 33 is used as the output of the feature registration device 10. Accordingly, in FIG. 1, the line L22 is omitted when the repetition is not performed (when A = 1).

実施形態によっては反復処理部3ではまた、線L31で示されるように疑似クエリ特徴生成部1から得られるディストラクタ情報を、または、線L32で示されるように特徴量記憶部4から得られるディストラクタ情報を、用いることでディストラクタを考慮した登録特徴集合を生成するようにしてもよい。   Depending on the embodiment, the iterative processing unit 3 may also use the distractor information obtained from the pseudo query feature generation unit 1 as indicated by the line L31 or the distracter information obtained from the feature amount storage unit 4 as indicated by the line L32. Using the tractor information, a registered feature set considering the distractor may be generated.

特徴量記憶部4は、画像検索の際のいわゆる一般的なDBに相当するものであり、予めマニュアル作業等で得られたものとしての各物体が撮影された各画像の特徴量を記憶しておき、線L23で示すように一実施形態において登録特徴候補生成部2へと当該特徴量を参照に供する。特徴量記憶部4は当該記憶しておく各特徴量に関してさらに、同様に予めマニュアル作業等で得られたものとしてそのディストラクタ情報を記憶しておいてもよく、一実施形態において線L32に示すように当該ディストラクタ情報を反復処理部3の参照に供するようにしてもよい。   The feature amount storage unit 4 corresponds to a so-called general DB at the time of image search, and stores the feature amount of each image obtained by photographing each object in advance as a manual operation or the like. In addition, as shown by a line L23, the feature amount is provided to the registered feature candidate generation unit 2 for reference in one embodiment. The feature quantity storage unit 4 may further store the distractor information for each feature quantity to be stored in the same manner as previously obtained by manual work or the like, which is indicated by a line L32 in one embodiment. Thus, the distractor information may be used for reference of the iterative processing unit 3.

図2は一実施形態に係る特徴量登録装置10の動作のフローチャートである。以下、図2の各ステップを説明しながら、図1の各部の処理内容の詳細を説明する。   FIG. 2 is a flowchart of the operation of the feature amount registration apparatus 10 according to an embodiment. In the following, details of the processing contents of each unit in FIG. 1 will be described while explaining each step in FIG. 2.

ステップS1では、疑似クエリ特徴生成部1が入力として得た画像より、M個の要素からなる疑似クエリ特徴集合Q={q1, q2, …, qM}を生成したうえで、ステップS2へと進む。 In step S1, a pseudo query feature set Q = {q 1 , q 2 ,..., Q M } composed of M elements is generated from the image obtained as input by the pseudo query feature generation unit 1, and then step S2 Proceed to

図3は疑似クエリ特徴生成部1の詳細を示す機能ブロック図であり、図示する通り疑似クエリ特徴生成部1は画像加工部11及び生成部12を備える。疑似クエリ特徴生成部1へ入力された画像P0(説明のため、画像P0とする)は生成部12及び画像加工部11へと入力される。画像加工部11では当該画像P0に所定種類b個の加工処理pr1,pr2, ..., prbをそれぞれ施したものとして加工画像P1,P2, ..., Pbを得て、生成部12へと出力する。   FIG. 3 is a functional block diagram showing details of the pseudo query feature generation unit 1, and the pseudo query feature generation unit 1 includes an image processing unit 11 and a generation unit 12 as shown. The image P0 input to the pseudo query feature generation unit 1 (for the sake of explanation, the image P0) is input to the generation unit 12 and the image processing unit 11. The image processing unit 11 obtains the processed images P1, P2,..., Pb on the assumption that the image P0 has been subjected to the predetermined types b of processings pr1, pr2,. Is output.

画像加工部11におけるb個の加工処理はそれぞれ、加工処理の種類及び当該種類の加工処理の強さ等のパラメータを与えることで所定のものを事前に定めておく。当該加工処理は、特徴量登録装置10が出力する登録特徴集合によってさらに画像検索などを実施する際に想定されるビュー変化を網羅するものとして、所定のものを事前に定めておけばよい。   Each of the b pieces of processing in the image processing unit 11 is determined in advance by giving parameters such as the type of processing and the strength of the processing of the type. A predetermined process may be determined in advance as a process that covers view changes assumed when an image search or the like is further performed using the registered feature set output by the feature amount registration apparatus 10.

例えば加工処理の種類としては、相似変換、アフィン変換、射影変換などの幾何的な変換を施すものが含まれていてよい。当該幾何変換処理においてはさらに、入力された画像P0に写る物体の3Dモデルを有している場合、当該モデルにテクスチャを張り付けた上でビューを変化させた画像を生成してもよい。すなわち、要素ポリゴンのそれぞれにおけるテクスチャ情報を含む物体の3Dモデルを所定データとして与えておき、既存技術であるCGモデルとして生成(レンダリングによる生成)してもよい。さらにビュー変化として、ノイズ、ブラー、オクルージョンなどが想定される場合には、例えばノイズ付与、平滑化、マスキングなどの任意の画像処理を加工処理として採用してよい。   For example, the types of processing may include those that perform geometric transformation such as similarity transformation, affine transformation, and projective transformation. In the geometric transformation process, when a 3D model of an object shown in the input image P0 is further included, an image in which a view is changed after applying a texture to the model may be generated. That is, a 3D model of an object including texture information in each element polygon may be given as predetermined data and generated as a CG model that is an existing technology (generated by rendering). Further, when noise, blur, occlusion, or the like is assumed as the view change, for example, arbitrary image processing such as noise addition, smoothing, and masking may be employed as the processing process.

また、加工処理のパラメータも、幾何変換であれば当該幾何変換を施すための変換行列として、ノイズ付与等であれば当該付与ノイズの強さ等として与えることができる。1つの加工画像を得る際に2つ以上の加工処理を組み合わせてもよい。   Further, the parameters of the processing process can be given as a transformation matrix for performing the geometric transformation in the case of geometric transformation, and as the strength of the imparted noise in the case of noise addition or the like. When obtaining one processed image, two or more processing processes may be combined.

生成部12では、入力画像P0と、画像加工部11から得られるその一連の加工画像P1,P2, ..., Pbと、より特徴量を抽出して、当該抽出された特徴量のすべてを疑似クエリ特徴集合Q={q1, q2, …, qM}として出力する。当該抽出する特徴量としては、周知のSIFT特徴量やSURF特徴量といった所定種類の局所特徴量(特徴点(キーポイント)の局所近傍で算出される特徴量)を採用することができる。 The generation unit 12 extracts feature amounts from the input image P0 and the series of processed images P1, P2, ..., Pb obtained from the image processing unit 11, and extracts all the extracted feature amounts. Output as pseudo query feature set Q = {q 1 , q 2 ,..., Q M }. As the feature quantity to be extracted, a predetermined type of local feature quantity (a feature quantity calculated in the vicinity of a feature point (key point)) such as a well-known SIFT feature quantity or SURF feature quantity can be employed.

なお、生成部12では、入力画像P0は用いずその加工画像P1,P2, ..., Pbのみから特徴量を抽出することで疑似クエリ特徴集合Q={q1, q2, …, qM}を出力してもよい。同様に、1枚の入力画像P0を入力として用いて画像加工部11で加工することに代えて、同一物体を様々なビュー条件下において実際に撮影して得られた複数の画像が生成部12へと入力されるようにしてもよい。 In addition, the generation unit 12 does not use the input image P0, but extracts the feature amount from only the processed images P1, P2,..., Pb, so that the pseudo query feature set Q = {q 1 , q 2 ,. M } may be output. Similarly, instead of processing by the image processing unit 11 using one input image P0 as an input, a plurality of images obtained by actually photographing the same object under various view conditions are generated by the generation unit 12. May be input.

ステップS1において疑似クエリ特徴生成部1ではさらに、画像加工部11において幾何変換を含む加工を行った場合には、ディストラクタ情報(不正解情報)(又は幾何変換関係がある場合にこれと同等の情報として同一対象同一箇所情報)も出力することができる。本発明において、ディストラクタとは、1つのクエリ特徴(qi)にとって、正解DB特徴以外の全ての特徴を意味し、具体的には(1)クエリ画像(入力画像P0)とは無関係の画像(画像P0とは別の対象が撮影されている画像)から抽出される全特徴と、(2)クエリ画像と同一対象の撮影されている画像(すなわち加工画像P1,P2, ..., Pn)から抽出されたマッチング制約条件を満たさない全特徴と、の両方を合わせた集合D(qi)(各クエリ特徴qiについて定まる集合)として定義される。ここで、あるクエリ特徴にとって「正解」と言えるDB特徴は、同じ対象の同じ箇所を記述している局所特徴となるが、撮影条件(ビュー)の変化によって全く同一とはならない。そのため、十分に「似ている」特徴を正解とみなすが、当該「似ている」基準がマッチング制約条件である。マッチング制約条件の具体例については、特徴マッチング部31の説明において後述する。   In step S1, the pseudo-query feature generation unit 1 further performs processing including geometric transformation in the image processing unit 11, and the distractor information (incorrect information) (or equivalent if there is a geometric transformation relationship) As the information, the same target and same part information) can also be output. In the present invention, a distractor means all the features other than the correct DB feature for one query feature (qi). Specifically, (1) an image that is not related to the query image (input image P0) ( All the features extracted from the image that is taken from a different object than the image P0), and (2) the taken image that is the same subject as the query image (ie, processed images P1, P2,..., Pn) Are defined as a set D (qi) (a set determined for each query feature qi) that combines both of the features that do not satisfy the matching constraint condition. Here, a DB feature that can be said to be “correct” for a certain query feature is a local feature that describes the same part of the same object, but is not exactly the same due to changes in shooting conditions (views). Therefore, a feature that is sufficiently “similar” is regarded as a correct answer, but the “similar” criterion is a matching constraint. A specific example of the matching constraint condition will be described later in the description of the feature matching unit 31.

上記の(1)及び(2)の両方として各クエリ特徴qiについて定義されるディストラクタに関して、(1)は明白であり、図4を参照してディストラクタのうちの(2)の模式例を示す。図4では左側に示すクエリ画像P0に対して右側に示すように画像P0を幾何変換等したものとしてn=100枚の加工画像P1〜P100が生成されDB特徴(登録特徴候補)として利用される例が示されている。〇印で示すクエリ画像P0の位置p0(対象例として「家屋」の屋根の最先端の位置)から抽出された特徴qi0について、マッチング制約条件を満たすものは画像P1〜P100に関して同じく〇印で示す、画像P1における対応位置p1から抽出された特徴yj1と、画像P2における対応位置p2から抽出された特徴yj2と、画像P3における対応位置p3から抽出された特徴yj3と、…画像P100における対応位置p100から抽出された特徴yj100と、の100個である。従って、図4において△印で示される、加工画像P1〜P10から抽出される特徴のうちこれらマッチング制約条件を満たす100個の特徴以外の全ての特徴(例えば画像P1における位置p1eの特徴yj1eなど。なお、図4では△印として一部のディストラクタのみを例示し、符号もその一部のみに付している。)が、クエリ画像P0の特徴qi0のディストラクタとなる。   With respect to the destructor defined for each query feature qi as both (1) and (2) above, (1) is obvious and with reference to FIG. 4, a schematic example of (2) of the destructors Show. In FIG. 4, n = 100 processed images P1 to P100 are generated and used as DB features (registered feature candidates) as a result of geometric transformation or the like of the image P0 as shown on the right side with respect to the query image P0 shown on the left side. An example is shown. For the feature qi0 extracted from the position p0 of the query image P0 indicated by a circle (the leading edge position of the roof of the “house” as an example), those that satisfy the matching constraint are also marked with a circle for the images P1 to P100. The feature yj1 extracted from the corresponding position p1 in the image P1, the feature yj2 extracted from the corresponding position p2 in the image P2, the feature yj3 extracted from the corresponding position p3 in the image P3, and the corresponding position p100 in the image P100. 100 features yj100 extracted from Therefore, all of the features extracted from the processed images P1 to P10 indicated by Δ in FIG. 4 other than 100 features satisfying these matching constraint conditions (for example, the feature yj1e at the position p1e in the image P1). In FIG. 4, only a part of the destructors are illustrated as Δ marks, and the reference numerals are also given to only a part of them.) Is the destructor of the feature qi0 of the query image P0.

なお、図4の例のように、画像加工部11で入力画像P0に対して幾何変換Hkにより加工画像Pk(k=1,2,...)を生成する場合は、画像P0の位置p0の特徴qi0と画像Pkの位置pkの特徴yk1とが対応箇所のものであるか否かの判定は、「||pk-Hk*p0||<TH」(ここで|| ||はユークリッド距離(絶対値)、THは閾値)を満たす場合に対応箇所であるもの(同一対象同一箇所の対応があるもの)と判定することができる。すなわち、画像P0の位置p0をホモグラフィ行列等で表現される幾何変換Hkで写像した位置Hk*p0が位置pkに十分に近いと判定される場合に、対応箇所と判定することができる。逆に当該十分に近い位置以外の任意箇所で抽出された特徴量は、画像P0の位置p0の特徴qi0に対するディストラクタとなる。従って、画像加工部11で幾何変換を含む変換を行って加工画像を得た場合はこのようにして、同一対象同一箇所の対応がないものを特定することでディストラクタ情報を出力することができる。   In the case where the processed image Pk (k = 1, 2,...) Is generated by the geometric transformation Hk for the input image P0 in the image processing unit 11 as in the example of FIG. 4, the position p0 of the image P0. Whether or not the feature qi0 of the image Pk and the feature yk1 of the position pk of the image Pk are the corresponding parts is determined by “|| pk-Hk * p0 || <TH” (where || || is the Euclidean distance When (absolute value), TH is a threshold value), it can be determined that it is a corresponding location (the same target has the same location). That is, when it is determined that the position Hk * p0 obtained by mapping the position p0 of the image P0 by the geometric transformation Hk expressed by a homography matrix or the like is sufficiently close to the position pk, it can be determined as a corresponding part. Conversely, the feature quantity extracted at an arbitrary location other than the sufficiently close position becomes a distractor for the feature qi0 at the position p0 of the image P0. Therefore, when the image processing unit 11 performs conversion including geometric conversion to obtain a processed image, in this way, it is possible to output distractor information by specifying those that do not correspond to the same target and the same location. .

ステップS2では、登録特徴候補生成部2がK個の要素からなる登録特徴候補集合Y={y1, y2, …, yK}を生成してから、ステップS3へと進む。なお、登録特徴候補集合Yとは、この中からN個の要素を選択することによってN個の登録特徴集合X={x1, x2, …, xN}を得るようにするものであるので、要素数Kに関してK>Nとなるように生成する。 In step S2, the registered feature candidate generation unit 2 generates a registered feature candidate set Y = {y 1 , y 2 ,..., Y K } composed of K elements, and then proceeds to step S3. The registered feature candidate set Y is to obtain N registered feature sets X = {x 1 , x 2 ,..., X N } by selecting N elements from among them. Therefore, K> N is generated for the number of elements K.

ステップS2において当該生成する手法としては以下のような各実施形態が可能である。   The following embodiments can be used as the method of generating in step S2.

一実施形態では、図1に線L21として示されるように、ステップS1で生成されている疑似クエリ特徴集合Qをそのまま、登録特徴候補集合Yとして採用する、すなわち、Y=Qとして生成する。   In one embodiment, as indicated by a line L21 in FIG. 1, the pseudo-query feature set Q generated in step S1 is directly adopted as the registered feature candidate set Y, that is, generated as Y = Q.

一実施形態では、図1に線L22として示されるように、登録特徴生成部33が生成した登録特徴集合を、登録特徴候補集合Yとして採用する。当該実施形態は、図2のフローチャートの全体を所定回数繰り返して、ステップS10で得られる登録特徴集合を所定回数だけ更新したものを最終的な出力としての登録特徴集合として採用することに相当する。   In one embodiment, the registered feature set generated by the registered feature generation unit 33 is adopted as the registered feature candidate set Y as indicated by a line L22 in FIG. The embodiment corresponds to repeating the entire flowchart of FIG. 2 a predetermined number of times and updating the registered feature set obtained in step S10 a predetermined number of times as a registered feature set as a final output.

一実施形態では、図1に線L23として示されるように、特徴量記憶部4から所定数K個の特徴量を抽出したものを、登録特徴候補集合Yとして採用する。当該抽出はランダムに行えばよいが、特徴量が特徴空間において偏らないように抽出することが好ましい。   In one embodiment, as indicated by a line L23 in FIG. 1, a predetermined number K of feature quantities extracted from the feature quantity storage unit 4 is adopted as the registered feature candidate set Y. The extraction may be performed at random, but it is preferable to perform extraction so that the feature amount is not biased in the feature space.

なお、特徴量記憶部4はいわゆる一般のDBであるため、疑似クエリ特徴生成部1に入力される任意の画像(未知画像)の特徴量に対して、事前知識なしでディストラクタ情報を特徴量記憶部4の特徴量に定義することはできない。なお、図4を参照して前述の通り、幾何変換の関係がある場合は同一対象同一箇所の対応がないものとしてディストラクタ情報が定義される。(以下同様)ただし、当該事前知識がある場合は、特徴量記憶部4に記憶されている特徴量の少なくとも一部にディストラクタ情報を定義しておいてもよい。当該ディストラクタ情報は図1に線L32で示すように反復処理部3へと参照に供することができる。   Note that since the feature quantity storage unit 4 is a so-called general DB, the destructor information is used as feature quantity without prior knowledge for the feature quantity of an arbitrary image (unknown image) input to the pseudo-query feature generation unit 1. It cannot be defined as a feature quantity in the storage unit 4. As described above with reference to FIG. 4, when there is a geometric transformation relationship, distractor information is defined as having no correspondence between the same target and the same location. However, when there is prior knowledge, distractor information may be defined in at least a part of the feature quantity stored in the feature quantity storage unit 4. The distracter information can be used for reference to the iterative processing unit 3 as indicated by a line L32 in FIG.

ステップS3では、以下の2重ループ処理S4〜S9によって類似度スコア計算部32が各登録特徴候補yjについて計算するその類似度スコア和score(yj)の初期値としてゼロを設定してから、ステップS4へ進む。(当該類似度スコア和score(yj)の値は、当該2重ループ処理においてステップS6でマッチング判定された場合に該当yjに関しての値が加算更新されることにより、当該2重ループ処理を抜けた時点(ステップS10に到達した時点)でその値が求まっている状態となる。)   In step S3, the similarity score calculation unit 32 sets zero as the initial value of the similarity score sum score (yj) calculated for each registered feature candidate yj by the following double loop processing S4 to S9, Proceed to S4. (The value of the similarity score sum score (yj) is passed through the double loop process when the value of the corresponding yj is added and updated when the matching determination is made in step S6 in the double loop process. (At the time (when step S10 is reached), the value has been obtained.)

ステップS4は、以下のステップS5〜S9をステップS1で生成した各疑似クエリ特徴qiについて繰り返し実施する旨を表すダミーステップであり、今回の処理対象のqiを設定したうえでステップS5へと進む。ステップS5は、以下のステップS6〜S8をステップS2で生成した登録特徴候補yjについて繰り返し実施する旨を表すダミーステップであり、今回の処理対象のyjを設定したうえでステップS6へと進む。   Step S4 is a dummy step indicating that the following steps S5 to S9 are repeatedly performed for each pseudo query feature qi generated in step S1, and after setting qi to be processed this time, the process proceeds to step S5. Step S5 is a dummy step indicating that the following steps S6 to S8 are repeatedly performed for the registered feature candidate yj generated in step S2, and the process proceeds to step S6 after setting the current processing target yj.

ステップS6は、当該処理対象に設定されている疑似クエリ特徴qiと登録特徴候補yjとがマッチングするか否かの判定を特徴マッチング部31が行ったうえで、ステップS7へと進む。ステップS7では、直近のステップS6でマッチング判定が得られた場合に、類似度スコア計算部32が当該処理対象に設定されている登録特徴候補yiに関しての現状の類似度スコア和score(yi)の値を加算更新してから、ステップS8へと進む。(直近のステップS6でマッチング判定が得られなかった場合、ステップS7では加算更新は行わず、そのままステップS8へと進む。)   In step S6, the feature matching unit 31 determines whether or not the pseudo query feature qi set as the processing target matches the registered feature candidate yj, and the process proceeds to step S7. In step S7, when a matching determination is obtained in the latest step S6, the similarity score calculation unit 32 calculates the current similarity score sum score (yi) for the registered feature candidate yi set as the processing target. After adding and updating the value, the process proceeds to step S8. (If the matching determination is not obtained in the latest step S6, the addition update is not performed in step S7, and the process proceeds to step S8 as it is.)

なお、当該2重ループ内の上記ステップS6,S7の各処理の詳細は当該2重ループ処理の説明後に行う。   Note that the details of the processes of steps S6 and S7 in the double loop will be described after the description of the double loop process.

ステップS8では、全ての登録特徴候補yjについて以上のステップS5〜S7の処理が完了したか否かを判定し、完了していればステップS9へと進み、未完了であればステップS5に戻り、未処理の登録特徴候補yjを処理対象に設定して上記を繰り返す。ステップS9では、全ての疑似クエリ特徴qiについて以上のステップS4〜S8の処理が完了したか否かを判定し、完了していればステップS10へと進み、未完了であればステップS4に戻り、未処理の疑似クエリ特徴qiを処理対象に設定して上記を繰り返す。   In step S8, it is determined whether or not the processing in steps S5 to S7 has been completed for all registered feature candidates yj. If completed, the process proceeds to step S9, and if not completed, the process returns to step S5. The unprocessed registered feature candidate yj is set as a processing target and the above is repeated. In step S9, it is determined whether or not the processing of the above steps S4 to S8 has been completed for all the pseudo query features qi. If completed, the process proceeds to step S10, and if not completed, the process returns to step S4. The above processing is repeated with the unprocessed pseudo query feature qi set as the processing target.

以上、ステップS4〜S9における各qi及び各yjに関する2重ループ処理を終えてステップS10に至った時点で、特徴マッチング部32による一連のマッチング結果と、類似度スコア計算部32による各yjに関しての最終的な類似度スコア和score(yj)と、が求まっている状態となっている。以下、当該マッチング処理及び類似度スコア計算の詳細を順に説明する。   As described above, when the double loop process for each qi and each yj in steps S4 to S9 is completed and the process reaches step S10, a series of matching results by the feature matching unit 32 and each yj by the similarity score calculation unit 32 The final similarity score sum score (yj) is obtained. Hereinafter, details of the matching process and the similarity score calculation will be described in order.

まず、ステップS6のマッチング処理に関して、特徴マッチング部31が、予め指定された制約条件(マッチング判定条件)に基づき、疑似クエリ特徴集合Qの各要素qiにつき、登録特徴候補集合Yの各要素yjの中からマッチングするものmatch(qi)を求める。すなわち、「{}」の記号で集合要素を列挙することで形式的に記載すれば、2重ループ処理を終えた時点で以下のようなマッチング結果が得られることとなる。これを結果リスト1と呼ぶ。
match(q1)={y11, y12, ...}, match(q2)={y21, y22, ...}, ...
match(qi)={yi1, yi2, ...}, ...., match(qN)={yN1, yN2, ... } …(結果リスト1)
First, with respect to the matching processing in step S6, the feature matching unit 31 sets each element yj of the registered feature candidate set Y for each element qi of the pseudo-query feature set Q based on a previously specified constraint condition (matching determination condition). Find match (qi) from among the matches. That is, if form elements are listed by enumerating them with the symbol “{}”, the following matching results are obtained when the double loop processing is completed. This is called a result list 1.
match (q 1 ) = {y 11 , y 12 , ...}, match (q 2 ) = {y 21 , y 22 , ...}, ...
match (q i ) = {y i1 , y i2 , ...}, ...., match (q N ) = {y N1 , y N2 , ...}… (Result list 1)

ステップS6において当該マッチング判定するための制約条件は様々なものが可能であり、例えば以下のようなものが挙げられる。当該各手法のいずれか又は任意の組み合わせを制約条件としてよい。
(手法1)クエリ側の特徴(qi)とDB側の特徴(yj)が同一のVWに量子化される。
(手法2)ディストラクタが存在する特徴ベクトル空間において、クエリ側の特徴ベクトル(qi)にとってDB側の特徴ベクトル(yj)がk近傍に位置する。
(手法3)クエリ側の特徴ベクトル(qi)とDB側の特徴ベクトル間(yj)の距離が閾値以内である。
(手法4)クエリ側の特徴とDB側の特徴の持つオリンテーションの差分が閾値以内である。
(手法5)クエリ側の特徴とDB側の特徴の持つスケールの比が閾値以内である。
Various constraints can be used for the matching determination in step S6. Examples include the following. Any or any combination of the methods may be used as the constraint condition.
(Method 1) The query-side feature (qi) and the DB-side feature (yj) are quantized to the same VW.
(Method 2) In the feature vector space where the distractor exists, the feature vector (yj) on the DB side is located in the vicinity of k for the feature vector (qi) on the query side.
(Method 3) The distance between the query-side feature vector (qi) and the DB-side feature vector (yj) is within a threshold.
(Method 4) The difference between the orientation of the query-side feature and the DB-side feature is within the threshold.
(Method 5) The ratio of the scale of the query-side feature to the DB-side feature is within the threshold.

なお、手法2においてk近傍とは、qiと、qiにとって類似度が上位のk位に含まれるyjとをマッチングする手法を意味する。すなわち、手法2ではクエリ側の特徴ベクトル(qi)との類似度が上位の側のk個がマッチング結果match(qi)として得られる。   In the method 2, the k neighborhood means a method of matching qi with yj that is included in the k-th rank having the highest similarity with respect to qi. That is, in Method 2, k pieces having higher similarity to the query-side feature vector (qi) are obtained as matching results match (qi).

なお、登録特徴候補集合Yの中には、現在注目しているDB側の特徴(yj)と同じ位置から抽出された特徴yが複数含まれている可能性があるが、それらはk近傍探索時のランキングから除外するようにしてよい。具体的には以下の[1]〜[3]のようにすればよい。   Note that the registered feature candidate set Y may include multiple features y extracted from the same position as the feature (yj) on the DB that is currently focused on. You may exclude it from the ranking of time. Specifically, the following [1] to [3] may be performed.

[1]予め,yjと座標が一致する他のy(同一対象同一箇所の関係にあるもの)をリスト化しておく。例えば、図4の例において(画像P0を除く)画像P1〜P100から疑似クエリ特徴集合が抽出されている場合であれば、list(yj1)={yj2, yj3, ..., yj100}である。同様にlist(yj2)={yj1,yj3,yj4, ..., yj100}となる。list(yj3)等も同様に定義しておくことができる。
[2] qiと各yの特徴ベクトル間距離を測定し、小さい順にソートしたランキングを作成する。このとき、list(yj)の要素は,ランキングに含めない。(yj自身は含める。)すなわち、現在注目しているyjと互いに同一対象同一箇所の関係にある一連のy∈list(yj)は、ランキングから除外する。(換言すれば、現在注目しているyjと、list(yj)に属さないその他のyと、のみがqiとの間の類似度ランキング作成対象となる。)
[3] 上記のように求めたランキングの上位k件以内にyjが含まれていれば、制約条件を満たしたとみなし、qiとyjとをマッチングする。
[1] A list of other ys whose coordinates coincide with yj (those having the same target and the same location) are listed in advance. For example, in the example of FIG. 4, if a pseudo query feature set is extracted from images P1 to P100 (excluding image P0), list (yj1) = {yj2, yj3, ..., yj100} . Similarly, list (yj2) = {yj1, yj3, yj4, ..., yj100}. List (yj3) etc. can be defined in the same way.
[2] Measure the distance between feature vectors of qi and each y, and create a ranking sorted in ascending order. At this time, the element of list (yj) is not included in the ranking. (Yj itself is included.) That is, a series of yεlist (yj) having the same target and the same location as yj currently focused on is excluded from the ranking. (In other words, only yj that is currently focused on, and other y that does not belong to list (yj), are the targets of similarity ranking creation between qi.)
[3] If yj is included in the top k rankings obtained as described above, it is considered that the constraint condition is satisfied, and qi and yj are matched.

以上の[1]〜[3]の手順により、上位k件の中に真の正解が最大1つしか含まれない状況を再現することができる。これは、本発明において同じ画像を変換した大量の画像をマッチングの対象に含めることに起因した、例外的な処理に相当する。   By the above steps [1] to [3], it is possible to reproduce a situation in which only one true correct answer is included in the top k cases. This corresponds to an exceptional process caused by including a large number of images obtained by converting the same image in the subject of the present invention.

なお、上記及び手法4,5において述べている「特徴のオリエンテーション差および/またはスケール比」とは、SIFT特徴量等として特徴ベクトルを求める際に求まるオリエンテーション及びスケールに関しての差及び比を意味する。   Note that the “feature orientation difference and / or scale ratio” described above and in the methods 4 and 5 mean the difference and ratio regarding the orientation and scale obtained when obtaining a feature vector as an SIFT feature amount or the like.

また、ステップS7にて類似度スコア計算部32は、直近のステップS6でマッチング判定が得られた場合に当該登録特徴候補yjに関する類似度スコア和score(yj)を当該qiの寄与として加算更新することで、2重ループ処理を終えた時点で最終的な類似度スコア和score(yj)を得た状態となる。   In step S7, the similarity score calculation unit 32 adds and updates the similarity score score score (yj) related to the registered feature candidate yj as the contribution of the qi when the matching determination is obtained in the latest step S6. Thus, when the double loop processing is finished, the final similarity score sum score (yj) is obtained.

まず、当該求まる類似度スコア和score(yj)は、前述の各疑似クエリ特徴qiに関して求まっている結果リスト1を、各登録特徴候補yjから見たマッチング結果match(yj)として、以下のような結果リスト2に書き換えたうえで、当該結果リスト2に属するqiの類似度スコア和として求まることとなる。なお、結果リスト1と結果リスト2とは、内容としては等価である。
match(y1)={q11, q12, ...}, match(y2)={q21, q22, ...}, ...
match(yj)={qj1, qj2, ...}, ...., match(yK)={qK1, qK2, ... } …(結果リスト2)
First, the obtained similarity score sum score (yj) is obtained by using the result list 1 obtained for each pseudo query feature qi described above as a matching result match (yj) viewed from each registered feature candidate yj as follows: After rewriting to the result list 2, the similarity score sum of qi belonging to the result list 2 is obtained. The result list 1 and the result list 2 are equivalent in content.
match (y 1 ) = {q 11 , q 12 , ...}, match (y 2 ) = {q 21 , q 22 , ...}, ...
match (y j ) = {q j1 , q j2 , ...}, ...., match (y K ) = {q K1 , q K2 , ...}… (Result list 2)

ループ処理内においては具体的に、類似度スコア和を求める処理では、予め指定された計算法に基づき、上記得られることとなる結果リスト2に属する要素qi(ステップS6でマッチング判定された要素qi)に関して加算することで、各登録特徴候補yjの類似度スコア和score(yj)(リストmatch(yj)内の各要素qと当該登録特徴候補yjとの類似度のスコア和)を計算することとなる。当該加算のための重みづけは様々なものが可能であり、例えば以下のようなものが挙げられる。 Specifically, in the process of calculating the similarity score sum in the loop process, the element qi belonging to the result list 2 to be obtained based on the calculation method specified in advance (the element qi determined to be matched in step S6) ), The similarity score sum score (y j ) of each registered feature candidate y j (score sum of the similarity between each element q in the list match (y j ) and the registered feature candidate y j ) Will be calculated. Various weightings can be used for the addition, and examples include the following.

(計算法1)重み付けの値として「1」(固定値)を用いる。すなわち、ステップS6にてyjとqiとがマッチング判定されるごとにスコア和score(yi)に「1」を加算することによって、ループ処理を終えた時点で以下のようなスコア和score(yj)が求まることとなる。すなわち、結果リスト2におけるmatch(yj)の要素数が大きいほど類似度スコア和score(yj)が大きいものとして得られる。
score(yj)=リストmatch(yj)に属する要素の個数。
(Calculation method 1) “1” (fixed value) is used as a weighting value. That is, every time yj and qi are determined to be matched in step S6, “1” is added to the score sum score (yi), thereby completing the following score sum score (yj) Will be required. That is, the similarity score sum score (y j ) is increased as the number of elements of match (yj) in the result list 2 increases.
score (y j ) = number of elements belonging to the list match (y j ).

(計算法2)重み付けの値として、既存手法であるtf-idf(Term Frequency - Inverse Document Frequency)を用いる。すなわち、リストmatch(yj)に属する特徴ベクトルqのtf-idf値をtfidf(q)と表記すると、以下の式で当該リスト内のtf-idf値の総和として類似度スコア和score(yj)が求まる。なお、値tf-idf(q)は特徴ベクトルqをVWに量子化したうえで、既存手法に従って求めることができる。 (Calculation method 2) The existing method tf-idf (Term Frequency-Inverse Document Frequency) is used as the weighting value. That is, if the tf-idf value of the feature vector q belonging to the list match (y j ) is expressed as tfidf (q), the similarity score sum score (y j ) Is obtained. The value tf-idf (q) can be obtained according to an existing method after quantizing the feature vector q into VW.

(計算法3)重み付けの値として式「kthd2-d2」を用いる。ここでdはクエリ側とリファレンス側の特徴ベクトル間の距離,kthdはクエリ側の特徴にとってk番目に近い特徴との特徴ベクトル間の距離である。すなわち、リストmatch(yj)に属する特徴ベクトルqに関して求まる「kthd2-d2」の値をf(q)と書くと、上記tf-idfの場合と同様に以下の式でリスト内総和として求まることとなる。 (Calculation method 3) The expression “kthd 2 -d 2 ” is used as a weighting value. Here, d is the distance between the feature vectors on the query side and the reference side, and kthd is the distance between the feature vectors with the k-th feature closest to the feature on the query side. That is, if the value of `` kthd 2 -d 2 '' obtained for the feature vector q belonging to the list match (y j ) is written as f (q), as in the case of tf-idf, It will be sought.

ここで、「kthd2-d2」は、以下に掲げる非特許文献3に開示のLocal Naive-Bayes Nearest-Neighborと呼ばれる画像のクラス分類手法を画像検索に適用した際のスコア関数である。kthd2-d2はVWに量子化した後でも特徴ベクトルを用いて計算してもよいし,非特許文献1のように、特徴ベクトルをコンパクトに変換したHamming embeddingと呼ばれるベクトル間の距離を用いてもよい。
[非特許文献3] McCann and D. G. Lowe, "Local naive bayes nearest neighbor for image classification," in Proc. of CVPR, 2012.
Here, “kthd 2 -d 2 ” is a score function when an image classification method called Local Naive-Bayes Nearest-Neighbor disclosed in Non-Patent Document 3 described below is applied to image retrieval. kthd 2 -d 2 may be calculated using feature vectors even after being quantized to VW, and as in Non-Patent Document 1, the distance between vectors called Hamming embedding, which is a compact transformation of feature vectors, is used. May be.
[Non-Patent Document 3] McCann and DG Lowe, "Local naive bayes nearest neighbor for image classification," in Proc. Of CVPR, 2012.

なお、計算法3においては特徴マッチング部31の(手法2)で説明したのと同様に、手順[1]〜[3]によってランキングを作成したうえで、当該ランキングにおけるk番目に近い特徴ベクトルを求めるようにしてもよい。   In calculation method 3, as described in (Method 2) of feature matching unit 31, a ranking is created by procedures [1] to [3], and the k-th feature vector in the ranking is calculated. You may make it ask.

以上、計算法1〜3に限らず、その他の任意の既存の画像検索のためのスコア関数(重み付け関数)を用いて類似度スコア和score(yj)を計算することができる。   The similarity score sum score (yj) can be calculated using not only the calculation methods 1 to 3 but also any other existing score function (weighting function) for image search.

ステップS10では、登録特徴生成部33が、以下のN回の繰り返しステップS11〜S14で最終結果(当該最終結果はステップS15で出力される)を得るための登録特徴集合の初期値として空集合(φ)を設定してから、ステップS11へと進む。ステップS11は、以下のステップS12〜S14をN回繰り返すことを表すためのダミーステップであり、そのままステップS12へと進む。   In step S10, the registered feature generation unit 33 uses an empty set (as an initial value of a registered feature set for obtaining a final result (the final result is output in step S15) in the following N repetition steps S11 to S14). After setting φ), the process proceeds to step S11. Step S11 is a dummy step indicating that the following steps S12 to S14 are repeated N times, and the process directly proceeds to step S12.

ステップS12では、登録特徴生成部33が以下の(手順1)、(手順2)により登録特徴集に新たな要素xn(n=1,2, ,,,, Nであり、nは当該繰り返しステップS12〜S14の現時点での繰り返し回数を表すものとする。)を追加してから、ステップS13へと進む。 In step S12, the registered feature generation unit 33 adds new elements x n (n = 1, 2,,,, N to the registered feature list by the following (procedure 1) and (procedure 2), and n is the repetition Step S12 to S14 represent the number of repetitions at the present time), and the process proceeds to Step S13.

(手順1)各登録特徴候補yjの中から、最大の類似度スコアscore(yj)を持つ登録特徴候補ymaxを選択する。すなわち、式表記すればインデクスmaxは以下のように定まる。
max=argmax(score(yj))
(手順2)この登録特徴候補ymaxに紐づく疑似クエリ特徴集合match(ymax)の特徴ベクトルを平均化したものを追加する特徴ベクトルxnとする。
(Procedure 1) The registered feature candidate y max having the maximum similarity score score (y j ) is selected from each registered feature candidate y j . That is, when expressed in an expression, the index max is determined as follows.
max = argmax (score (y j ))
(Procedure 2) A feature vector x n to which an average of the feature vectors of the pseudo-query feature set match (y max ) associated with this registered feature candidate y max is added.

上記の手順2ではさらに同様にして、特徴ベクトルxnのみならず、オリエンテーションo、スケールs、および座標uの少なくとも1つをそれぞれ平均化した特徴を、登録特徴fnとしてもよい。例えばこれら全てを登録特徴とする場合はfn=(xn, on, sn, un)のように各量を列挙したものとして登録特徴が得られる。 In the procedure 2 described above, similarly, not only the feature vector x n but also a feature obtained by averaging at least one of the orientation o, the scale s, and the coordinate u may be used as the registered feature f n . For example, when all of these and registration features registered feature is obtained as those listed f n = (x n, o n, s n, u n) the respective amounts as.

上記の手順2では次のような追加実施形態も可能である。すなわち、手順2における特徴の平均化によって、結果的に疑似クエリ特徴集合から得られる類似度スコアの和が小さくなる可能性がある。そのため、手順2において平均化された特徴を用いて特徴マッチング部31および類似度スコア計算部32の処理を再度行い、結果的に類似度スコアの和が小さくなっていた場合、平均化を行わないという判断を行ってもよい。   In the above procedure 2, the following additional embodiment is also possible. In other words, the feature averaging in the procedure 2 may result in a smaller sum of similarity scores obtained from the pseudo-query feature set. Therefore, the feature matching unit 31 and the similarity score calculation unit 32 are processed again using the features averaged in step 2, and as a result, if the sum of the similarity scores is small, no averaging is performed. You may make a judgment.

すなわち、当初の(手順1)において選択されたscore(ymax)と、(手順2)で平均化して求めたxnによるscore(xn)と、を比較して、「score(ymax)>score(xn)」となっている場合、平均化したxnを登録対象として採用しないようにしてよい。逆に類似度スコア和が大きくなる場合、以上の通り平均化を行ったxnを登録特徴集合の要素として採用すればよい。当該平均化された特徴を用いてscore(xn)を計算する際は、登録特徴候補集合Yにおいて、平均化される対象となった複数の特徴を平均化された1つの特徴に置き換えた暫定集合Y'を対象として、(すなわち、集合Yの代わりに暫定集合Y'を入力として用いて、)特徴マッチング部31及び類似度スコア計算部32の処理を行うようにすればよい。例えばxn=(y1+y2+y3)/3と3個の平均で登録特徴を得た場合、3個あったy1,y2,y3を1個のxnに置き換えるようにすればよい。なお、平均化を行わない判断を下した場合は、平均化せずにymaxをそのままxnとして登録すればよい。 That is, the score (y max) selected in the initial (Step 1), and score (x n) by x n obtained by averaging in (Step 2), by comparing the "score (y max) If “> score (x n )”, the averaged x n may not be adopted as a registration target. On the other hand, when the similarity score sum increases, xn averaged as described above may be adopted as an element of the registered feature set. When calculating the score (x n ) using the averaged feature, the provisional feature is obtained by replacing a plurality of features to be averaged with one averaged feature in the registered feature candidate set Y. The processing of the feature matching unit 31 and the similarity score calculation unit 32 may be performed on the set Y ′ (that is, using the temporary set Y ′ instead of the set Y as an input). For example, when a registered feature is obtained by averaging x n = (y1 + y2 + y3) / 3, three y1, y2, and y3 may be replaced with one xn . If it is determined that averaging is not performed, ymax may be registered as xn as it is without averaging.

ステップS13では、登録特徴生成部33が直近のステップS12の(手順1)で決定されたymaxに紐づく疑似クエリ特徴集合match(ymax)(ymaxに対する疑似クエリ特徴のマッチング結果リスト)の各要素を、全てのその他のyj(ymax自身も含む)に紐づく疑似クエリ特徴集合match(yj)={qj1, qj2, ...}から除外する更新を行うと共に、match(ymax)の各要素から与えられたスコア和への寄与分をその他の類似度スコア和score(yj)から減算する更新を行ったうえで、ステップS14へと進む。当該減算する更新とはすなわち、スコア和score(yi)を計算するためのmatch(yi)からmatch(ymax)に属する要素を除外した「match(yi) \match(ymax)」を用いて、スコア和score(yi)を計算しなおすことに相当する。「\」は差集合演算であり、以下でも同様である。 In step S13, the registration feature generation unit 33 of the immediately preceding step S12 in brute cord to y max determined in (Step 1) Pseudo query feature set match (y max) (matching result list pseudo query feature for y max) Updates that exclude each element from the pseudo query feature set match (y j ) = {q j1 , q j2 , ...} associated with all other yj (including y max itself) and match ( After updating to subtract the contribution to the score sum given from each element of y max ) from the other similarity score sum score (y j ), the process proceeds to step S14. The update to be subtracted is, in other words, using “match (yi) \ match (y max )” that excludes elements belonging to match (y max ) from match (yi) for calculating the score sum score (yi) This is equivalent to recalculating the score sum score (yi). “\” Is a difference set operation, and the same applies to the following.

ステップS13による当該更新により、登録特徴候補集合Yを以下のように更新してステップS4〜S9の2重ループ処理を再度実施した場合に得られるマッチング結果及び類似度スコア和とほぼ同様のものとして更新されたマッチング結果及び類似度スコア和を、2重ループ処理を再度行うことなく高速に得ることができる。
Y=Y\match(ymax)
As a result of the update in step S13, the registered feature candidate set Y is updated as follows, and the matching result and the similarity score sum obtained when the double loop processing of steps S4 to S9 is performed again are substantially the same. The updated matching result and similarity score sum can be obtained at high speed without performing the double loop process again.
Y = Y \ match (y max )

また、当該ステップS11〜S14の繰り返し回数がn回目であるとすると、n回目のステップS13で上記のように更新された疑似クエリ特徴集合match(yj)={qj1, qj2, ...}(すなわち更新された結果リスト2)及び更新された類似度スコア和score(yj)が、次のn+1回目のステップS12の判断で利用されることとなる。(なお、一度でもymaxとして選択されたもの(y[選択済]とする)は、そのスコア値score(y[選択済])が以降の繰り返し処理ではその値が更新されてゼロとなるため、また、そのマッチング結果としてのリストmatch(y[選択済])も空集合となるため、(手順1)の選択から除外されることとなる。) Also, assuming that the number of iterations of steps S11 to S14 is n, the pseudo-query feature set match (y j ) = {q j1 , q j2 ,. .} (That is, the updated result list 2) and the updated similarity score sum score (y j ) are used in the next n + 1 determination in step S12. (Note that if y max is selected even once (assuming y [selected] ), the score value score (y [selected] ) will be updated to zero in subsequent iterations. In addition, the list match (y [selected] ) as the matching result is also an empty set, and is therefore excluded from the selection in (procedure 1).)

ステップS14では登録特徴生成部33が当該時点においてN個の要素からなる登録特徴集合が得られているか否かを判定し、得られていなければ新たな要素を追加すべくステップS11へと戻って上記を繰り返し、得られていればステップS15へと進む。ステップS15では登録特徴生成部33が以上の繰り返しステップS11〜S14で得られたN個の要素からなる登録特徴集合を最終結果として出力して、当該図2のフローは終了する。   In step S14, the registered feature generation unit 33 determines whether or not a registered feature set including N elements has been obtained at that time. If not, the process returns to step S11 to add a new element. The above is repeated, and if it is obtained, the process proceeds to step S15. In step S15, the registered feature generation unit 33 outputs a registered feature set composed of N elements obtained in the above repeated steps S11 to S14 as a final result, and the flow of FIG. 2 ends.

以上、本発明によれば、ビュー変化がある場合でもロバストな特徴量を得ることができる。また、ディストラクタが存在する特徴ベクトル空間において、多様なビューにおけるクエリ特徴とマッチする可能性の高い登録特徴集合を生成することができる。さらに、より高い類似度スコアを与える登録特徴を優先的に選択することにより、大規模なデータベースに対する画像検索の精度を改善することができる。以下、補足事項を述べる。   As described above, according to the present invention, it is possible to obtain a robust feature amount even when there is a view change. In addition, it is possible to generate a registered feature set that is highly likely to match query features in various views in a feature vector space in which a distractor exists. Furthermore, by preferentially selecting a registered feature that gives a higher similarity score, it is possible to improve the accuracy of image search for a large-scale database. The supplementary items are described below.

(1)図2のフロー全体を繰り返す実施形態(繰り返しの2回目以降では図1の線L22の入力が行われる実施形態)、すなわち、一度の処理で得られた登録特徴集合を、新たな登録特徴候補とみなして、終了条件を満たすまで処理を反復する実施形態は例えば次のようにすることができる。   (1) An embodiment in which the entire flow of FIG. 2 is repeated (an embodiment in which the input of the line L22 in FIG. 1 is performed after the second iteration), that is, a registered feature set obtained by a single process is newly registered. An embodiment in which processing is repeated until it is regarded as a feature candidate and the end condition is satisfied can be performed as follows, for example.

例えば、1回目の登録特徴候補を疑似クエリ特徴集合(M>N)に設定し、M'個(M>M'>N)の登録特徴集合を得る。それを新たな登録特徴候補とみなしてM''個(M'>M''>N)の登録特徴集合を得る、という処理を、N個の登録特徴を得るまで繰り返してもよい。あるいは、1回目の処理で得られたN個の登録特徴を新たな登録特徴候補とみなして処理を行い、結果的に得られる類似度スコアの和に変化が無くなるまで処理を繰り返してもよい。   For example, the first registered feature candidate is set to a pseudo query feature set (M> N), and M ′ (M> M ′> N) registered feature sets are obtained. The process of obtaining M ″ (M ′> M ″> N) registered feature sets by regarding it as a new registered feature candidate may be repeated until N registered features are obtained. Alternatively, the N registered features obtained in the first process may be regarded as new registered feature candidates, the process may be performed, and the process may be repeated until there is no change in the resulting similarity score sum.

(2)本発明におけるマッチングの制約条件、類似度スコア計算方法、疑似クエリ特徴集合、ディストラクタは、実行時の検索処理に則しているほど本発明の効果が期待される。すなわち、マッチングの制約条件および類似度スコア計算方法は実行時に利用するマッチング方法および類似度スコア計算方法と内容的に一致し、疑似クエリ特徴集合はユーザが実際に撮影した画像から得られるものに類似し、ディストラクタ関係が与えられる要素集合の内容およびその要素数は、実際の検索データベースに類似していることが望ましい。   (2) The matching constraint, the similarity score calculation method, the pseudo query feature set, and the destructor according to the present invention are expected to be more effective as the search process at the time of execution is followed. That is, the matching constraints and the similarity score calculation method are content-matching with the matching method and similarity score calculation method used at the time of execution, and the pseudo-query feature set is similar to that obtained from the image actually captured by the user However, it is desirable that the contents of the element set to which the distractor relationship is given and the number of elements are similar to those in the actual search database.

(3)本発明は、コンピュータを特徴量登録装置10として機能させるプログラムとしても提供可能である。当該コンピュータには、CPU(中央演算装置)、メモリ及び各種I/Fといった周知のハードウェア構成のものを採用することができ、CPUが特徴量登録装置10の各部の機能に対応する命令を実行することとなる。   (3) The present invention can also be provided as a program that causes a computer to function as the feature amount registration apparatus 10. The computer can employ a known hardware configuration such as a CPU (Central Processing Unit), memory, and various I / Fs, and the CPU executes instructions corresponding to the functions of each part of the feature value registration device 10. Will be.

10…特徴量登録装置、1…疑似クエリ特徴生成部、2…登録特徴候補生成部、31…特徴マッチング部、32…類似度スコア計算部、33…登録特徴生成部、4…特徴量記憶部   DESCRIPTION OF SYMBOLS 10 ... Feature quantity registration apparatus, 1 ... Pseudo query feature generation part, 2 ... Registered feature candidate generation part, 31 ... Feature matching part, 32 ... Similarity score calculation part, 33 ... Registration feature generation part, 4 ... Feature quantity storage part

Claims (14)

入力画像より登録対象としての登録特徴集合を求める特徴量登録装置であって、
前記入力画像及び/又は当該入力画像を加工して得られる1つ以上の加工画像より疑似クエリ特徴集合を生成する疑似クエリ特徴生成部と、
登録特徴候補集合を生成する登録特徴候補生成部と、
前記疑似クエリ特徴集合の各要素と前記登録特徴候補集合の各要素との間でマッチングを行う特徴マッチング部と、
前記特徴マッチング部によるマッチング結果に基づき、前記登録特徴候補集合の各要素につき、前記疑似クエリ特徴集合の要素との間の類似度スコア和を求める類似度スコア計算部と、
前記求めた類似度スコア和に基づいて選択される前記登録特徴候補集合の要素を用いて、前記登録特徴集合の要素を決定することで、前記登録特徴集合を求める登録特徴生成部と、を備えることを特徴とする特徴量登録装置。
A feature amount registration device for obtaining a registered feature set as a registration target from an input image,
A pseudo query feature generation unit that generates a pseudo query feature set from the input image and / or one or more processed images obtained by processing the input image;
A registered feature candidate generator for generating a registered feature candidate set;
A feature matching unit that performs matching between each element of the pseudo-query feature set and each element of the registered feature candidate set;
Based on the matching result by the feature matching unit, for each element of the registered feature candidate set, a similarity score calculation unit that calculates a similarity score sum between the elements of the pseudo query feature set;
A registered feature generation unit for obtaining the registered feature set by determining an element of the registered feature set using an element of the registered feature candidate set selected based on the obtained similarity score sum A feature amount registration apparatus characterized by that.
前記登録特徴候補集合の少なくとも一部の要素同士の間においては、互いに同一対象の同一箇所から抽出された特徴である旨を規定する同一対象同一箇所情報が予め与えられており、
前記特徴マッチング部及び/又は前記類似度スコア計算部では、前記同一対象同一箇所情報を用いて、前記マッチングする処理及び/又は前記類似度スコア和を求める処理をそれぞれ行うことを特徴とする請求項1に記載の特徴量登録装置。
Between at least some elements of the registered feature candidate set, the same target same part information that prescribes that the features are extracted from the same part of the same target is given in advance.
The feature matching unit and / or the similarity score calculation unit respectively perform the matching process and / or the process of obtaining the similarity score sum using the same target same part information. The feature amount registration device according to 1.
前記特徴マッチング部では、前記疑似クエリ特徴集合の各第一要素につき、前記登録特徴候補集合の各第二要素との間でマッチングするか否かの判定を行うに際して、当該第二要素との間で前記同一対象同一箇所情報の関係がある前記登録特徴候補集合のその他の第二要素を、当該マッチングするか否かの判定材料から除外することを特徴とする請求項2に記載の特徴量登録装置。   In the feature matching unit, for each first element of the pseudo-query feature set, when determining whether to match with each second element of the registered feature candidate set, The feature amount registration according to claim 2, wherein the other second element of the registered feature candidate set having the relationship of the same target and the same location information is excluded from the material for determining whether or not to match. apparatus. 前記特徴マッチング部では、前記疑似クエリ特徴集合の各第一要素につき、前記登録特徴候補集合の各第二要素との間でマッチングするか否かの判定を、当該第一要素との類似度の順位が上位の所定位以内にある場合に、当該マッチングするものとして判定することを特徴とする請求項3に記載の特徴量登録装置。   In the feature matching unit, for each first element of the pseudo-query feature set, a determination as to whether or not to match with each second element of the registered feature candidate set is based on the similarity to the first element. 4. The feature amount registration apparatus according to claim 3, wherein when the rank is within a predetermined upper rank, it is determined that the matching is performed. 前記類似度スコア計算部では、所定種類の重み付け和によって前記類似度スコア和を求めることを特徴とする請求項2ないし4のいずれかに記載の特徴量登録装置。   5. The feature amount registration apparatus according to claim 2, wherein the similarity score calculation unit obtains the similarity score sum by a predetermined type of weighted sum. 前記登録特徴生成部では、前記求めた類似度スコア和が最大となる前記登録特徴候補集合の要素を前記選択することを特徴とする請求項1ないし5のいずれかに記載の特徴量登録装置。   6. The feature amount registration apparatus according to claim 1, wherein the registered feature generation unit selects the element of the registered feature candidate set that maximizes the calculated similarity score sum. 前記登録特徴生成部では、前記選択された登録特徴候補集合の要素に対して、前記マッチング部によってマッチングされている各要素に基づいて、前記登録特徴集合の要素を決定することを特徴とする請求項1ないし6のいずれかに記載の特徴量登録装置。   The registered feature generation unit determines an element of the registered feature set based on each element matched by the matching unit with respect to an element of the selected registered feature candidate set. Item 7. The feature registration device according to any one of Items 1 to 6. 前記登録特徴生成部では、前記選択された登録特徴候補集合の要素に対して、前記マッチング部によってマッチングされている各要素を平均したものとして、前記登録特徴集合の要素を決定することを特徴とする請求項1ないし7のいずれかに記載の特徴量登録装置。   The registered feature generation unit determines the elements of the registered feature set by averaging the elements matched by the matching unit with respect to the elements of the selected registered feature candidate set. The feature amount registration apparatus according to any one of claims 1 to 7. 前記登録特徴生成部では、前記選択された登録特徴候補集合の要素に対して、前記マッチング部によってマッチングされている各要素を平均したものを求め、当該平均した要素によって前記登録特徴候補集合を暫定更新した暫定更新集合を対象として前記特徴マッチング部及び前記類似度スコア計算部による処理を適用することで当該平均した要素について計算される類似度スコア和が、前記選択された登録特徴候補集合の要素における類似度スコア和よりも小さくなる場合、前記選択された登録特徴候補集合の要素をそのまま前記登録特徴集合の要素として採用し、当該小さくならない場合、前記平均した要素を前記登録特徴集合の要素として採用することを特徴とする請求項1ないし7のいずれかに記載の特徴量登録装置。   In the registered feature generation unit, an element obtained by averaging the elements matched by the matching unit is obtained for the elements of the selected registered feature candidate set, and the registered feature candidate set is provisionally determined based on the averaged element. The similarity score sum calculated for the averaged element by applying the processing by the feature matching unit and the similarity score calculation unit for the updated provisional update set is an element of the selected registered feature candidate set. If it is smaller than the similarity score sum in, the element of the selected registered feature candidate set is directly adopted as the element of the registered feature set, and if not smaller, the averaged element is used as the element of the registered feature set 8. The feature amount registration apparatus according to claim 1, wherein the feature amount registration device is employed. 前記登録特徴生成部では、前記登録特徴集合の要素を1つずつ決定し、当該決定する都度、当該決定された要素に対応する前記疑似クエリ特徴集合の要素による寄与分を前記類似度スコア和から減算することで当該類似度スコア和を更新すると共に、当該更新された類似度スコア和に基づいて、且つ、前記決定された要素に対応する前記疑似クエリ特徴集合の要素は以降に前記登録特徴集合の要素を決定するための参照対象からは除外することで、前記登録特徴集合の要素の次の1つをさらに決定することを所定回数繰り返すことを特徴とする請求項1ないし9のいずれかに記載の特徴量登録装置。   In the registered feature generation unit, each element of the registered feature set is determined one by one, and each time the determination is made, the contribution by the element of the pseudo query feature set corresponding to the determined element is determined from the similarity score sum. The similarity score sum is updated by subtraction, and the elements of the pseudo-query feature set corresponding to the determined element based on the updated similarity score sum are subsequently used as the registered feature set. 10. The method according to any one of claims 1 to 9, wherein the determination of the next one of the elements of the registered feature set is repeated a predetermined number of times by excluding them from the reference object for determining the elements of The feature quantity registration device described. 前記登録特徴候補生成部では、前記疑似クエリ特徴生成部で生成された疑似クエリ特徴集合を、または、前記登録特徴生成部が既に生成した登録特徴を、前記登録特徴候補集合として採用することを特徴とする請求項1ないし10のいずれかに記載の特徴量登録装置。   The registration feature candidate generation unit employs the pseudo query feature set generated by the pseudo query feature generation unit or the registration feature already generated by the registration feature generation unit as the registration feature candidate set. The feature amount registration apparatus according to claim 1. 前記加工画像の各々は、前記入力画像を幾何変換したものとして、及び/又は、前記入力画像に写っている物体のテクスチャを含む所定の3Dデータに基づくリンダリングを行ったものとして、得られる画像であることを特徴とする請求項1ないし11のいずれかに記載の特徴量登録装置。   Each of the processed images is an image obtained as a result of geometric transformation of the input image and / or as a result of performing a Lindering based on predetermined 3D data including a texture of an object shown in the input image. The feature amount registration device according to claim 1, wherein the feature amount registration device is a feature amount registration device. 入力画像より登録対象としての登録特徴集合を求める特徴量登録方法であって、
前記入力画像及び/又は当該入力画像を加工して得られる1つ以上の加工画像より疑似クエリ特徴集合を生成する疑似クエリ特徴生成段階と、
登録特徴候補集合を生成する登録特徴候補生成段階と、
前記疑似クエリ特徴集合の各要素と前記登録特徴候補集合の各要素との間でマッチングを行う特徴マッチング段階と、
前記特徴マッチング段階によるマッチング結果に基づき、前記登録特徴候補集合の各要素につき、前記疑似クエリ特徴集合の要素との間の類似度スコア和を求める類似度スコア計算段階と、
前記求めた類似度スコア和に基づいて選択される前記登録特徴候補集合の要素を用いて、前記登録特徴集合の要素を決定することで、前記登録特徴集合を求める登録特徴生成段階と、を備えることを特徴とする特徴量登録方法。
A feature amount registration method for obtaining a registered feature set as a registration target from an input image,
A pseudo query feature generation step of generating a pseudo query feature set from the input image and / or one or more processed images obtained by processing the input image;
A registered feature candidate generation stage for generating a registered feature candidate set;
A feature matching stage for matching between each element of the pseudo-query feature set and each element of the registered feature candidate set;
A similarity score calculation step for obtaining a similarity score sum between elements of the pseudo-query feature set for each element of the registered feature candidate set based on a matching result obtained by the feature matching step;
A registered feature generation step of determining the registered feature set by determining an element of the registered feature set using an element of the registered feature candidate set selected based on the calculated similarity score sum. A feature amount registration method characterized by that.
コンピュータを請求項1ないし12のいずれかに記載の特徴量登録装置として機能させることを特徴とするプログラム。   A program for causing a computer to function as the feature amount registration apparatus according to any one of claims 1 to 12.
JP2017011051A 2017-01-25 2017-01-25 Feature amount registration device, method and program Active JP6674393B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017011051A JP6674393B2 (en) 2017-01-25 2017-01-25 Feature amount registration device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017011051A JP6674393B2 (en) 2017-01-25 2017-01-25 Feature amount registration device, method and program

Publications (2)

Publication Number Publication Date
JP2018120395A true JP2018120395A (en) 2018-08-02
JP6674393B2 JP6674393B2 (en) 2020-04-01

Family

ID=63043840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017011051A Active JP6674393B2 (en) 2017-01-25 2017-01-25 Feature amount registration device, method and program

Country Status (1)

Country Link
JP (1) JP6674393B2 (en)

Also Published As

Publication number Publication date
JP6674393B2 (en) 2020-04-01

Similar Documents

Publication Publication Date Title
Melekhov et al. Dgc-net: Dense geometric correspondence network
Chen et al. Aspanformer: Detector-free image matching with adaptive span transformer
Zhou et al. To learn or not to learn: Visual localization from essential matrices
He et al. Local descriptors optimized for average precision
Valentin et al. Learning to navigate the energy landscape
Cheng et al. Meta-learning-based incremental few-shot object detection
Zamir et al. Image geo-localization based on multiplenearest neighbor feature matching usinggeneralized graphs
CN107481279B (en) Monocular video depth map calculation method
Wang et al. Transferring rich feature hierarchies for robust visual tracking
US9916345B1 (en) Searching three-dimensional (3D) object data models
Dey et al. Learning cross-modal deep embeddings for multi-object image retrieval using text and sketch
Chelani et al. How privacy-preserving are line clouds? recovering scene details from 3d lines
Pham et al. SHREC’18: Rgb-d object-to-cad retrieval
JP2023501574A (en) Systems and methods for virtual and augmented reality
Mao et al. 3dg-stfm: 3d geometric guided student-teacher feature matching
WO2013089260A1 (en) Image processing system, and image processing method
Hoshen et al. Identifying analogies across domains
JP2021051589A5 (en)
Liang et al. Face sketch-to-photo synthesis from simple line drawing
Chen et al. AugTarget data augmentation for infrared small target detection
CN114586075A (en) Visual object instance descriptor for location identification
JP6674393B2 (en) Feature amount registration device, method and program
Yu et al. Improving feature-based visual localization by geometry-aided matching
Wu et al. Unseen object pose estimation via registration
Jeune et al. A unified framework for attention-based few-shot object detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200306

R150 Certificate of patent or registration of utility model

Ref document number: 6674393

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150