JP6674393B2 - Feature amount registration device, method and program - Google Patents

Feature amount registration device, method and program Download PDF

Info

Publication number
JP6674393B2
JP6674393B2 JP2017011051A JP2017011051A JP6674393B2 JP 6674393 B2 JP6674393 B2 JP 6674393B2 JP 2017011051 A JP2017011051 A JP 2017011051A JP 2017011051 A JP2017011051 A JP 2017011051A JP 6674393 B2 JP6674393 B2 JP 6674393B2
Authority
JP
Japan
Prior art keywords
feature
registered
registered feature
matching
similarity score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017011051A
Other languages
Japanese (ja)
Other versions
JP2018120395A (en
Inventor
康平 松▲崎▼
康平 松▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017011051A priority Critical patent/JP6674393B2/en
Publication of JP2018120395A publication Critical patent/JP2018120395A/en
Application granted granted Critical
Publication of JP6674393B2 publication Critical patent/JP6674393B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、ビュー変化がある場合であってもロバストな特徴量を得ることのできる特徴量登録装置、方法及びプログラムに関する。   The present invention relates to a feature amount registration device, method, and program that can obtain a robust feature amount even when there is a view change.

非特許文献1および2の様に、画像から抽出される局所特徴を用いて物体検索を行う技術がある。これらの技術では、予めデータベースに登録する画像から局所特徴を抽出し,任意のデータベース(以下、DBと略記する。)作成方法に従ってDBを構築する。実行時には、物体をカメラ等の撮影手段で撮影した画像をクエリ画像とし、局所特徴を抽出する。これらの特徴をDB内の特徴とマッチングすることによって、クエリ画像とDB画像と間の類似度を計算することで、物体検索結果を得る。   As in Non-Patent Documents 1 and 2, there is a technique for performing an object search using local features extracted from an image. In these techniques, local features are extracted from images registered in advance in a database, and a DB is constructed according to a method of creating an arbitrary database (hereinafter, abbreviated as DB). At the time of execution, an image obtained by photographing an object with a photographing means such as a camera is used as a query image to extract local features. By matching these features with features in the DB, the similarity between the query image and the DB image is calculated, and an object search result is obtained.

当該検索処理の高速化やメモリ使用量削減等のため、特徴点の持つ特徴ベクトルはVisual Word(ビジュアルワード。以下、VWと略記する。)と呼ばれる代表ベクトルに量子化される。その際には、一般的に特徴点の持つ特徴ベクトルの最近傍となるVWに量子化される。しかし、撮影された画像から抽出される特徴ベクトルは、登録時との撮影視点の差異や、撮影画像のぼけ、ぶれ等の様々な要因によって変化しうる。そのため、DBに登録された物体の同一位置から抽出された特徴ベクトルであっても、異なるVWに量子化されてしまうことがある。これを量子化誤りと呼ぶ。   In order to speed up the search process and reduce the amount of memory used, the feature vector of the feature point is quantized into a representative vector called a Visual Word (Visual Word; hereinafter, abbreviated as VW). At that time, the quantization is generally quantized to VW which is the nearest neighbor of the feature vector of the feature point. However, the feature vector extracted from the photographed image may change due to a difference in the photographing viewpoint from the time of registration and various factors such as blurring and blurring of the photographed image. Therefore, even a feature vector extracted from the same position of the object registered in the DB may be quantized to a different VW. This is called a quantization error.

この問題に対し、非特許文献1では、特徴点の特徴ベクトルをk近傍となる複数のVWに割り当て(Soft Assignment)た上でDBに登録することによって、量子化誤りの影響を緩和している。   To address this problem, in Non-Patent Document 1, the effect of quantization errors is reduced by assigning feature vectors of feature points to a plurality of VWs near k (Soft Assignment) and registering them in the DB. .

また、非特許文献2では、元々の特徴ベクトルをよりコンパクトなバイナリベクトルに変換し、VWと合わせてデータベースに格納している。そして、クエリ側とDB側で同一VWとなった特徴の持つバイナリベクトル間の距離を測定し、類似度スコアの重み付けに利用している。また、この距離を特徴マッチングの判断にも利用している。すなわち,距離が閾値以内である場合のみマッチングする、または、クエリ側の特徴にとってデータベース側の特徴がk近傍に位置する場合のみマッチングする、という判断である。さらに、特徴点の持つオリエンテーションやスケールを利用することによって,幾何的整合性の無いマッチをフィルタリングし,検索精度を改善している。   Also, in Non-Patent Document 2, an original feature vector is converted into a more compact binary vector, and stored together with VW in a database. Then, the distance between the binary vectors of the features having the same VW on the query side and the DB side is measured and used for weighting the similarity score. This distance is also used for determining feature matching. That is, it is determined that the matching is performed only when the distance is within the threshold value or that the matching is performed only when the feature on the database side is located near k with respect to the feature on the query side. Furthermore, by using the orientation and scale of the feature points, matches having no geometric consistency are filtered to improve search accuracy.

Philbin, James, et al. "Lost in quantization: Improving particular object retrieval in large scale image databases." Computer Vision and Pattern Recognition, 2008. CVPR 2008. IEEE Conference on. IEEE, 2008.Philbin, James, et al. "Lost in quantization: Improving particular object retrieval in large scale image databases." Computer Vision and Pattern Recognition, 2008. CVPR 2008. IEEE Conference on. IEEE, 2008. Jegou, Herve, Matthijs Douze, and Cordelia Schmid. "Hamming embedding and weak geometric consistency for large scale image search." Computer Vision-ECCV 2008. Springer Berlin Heidelberg, 2008. 304-317.Jegou, Herve, Matthijs Douze, and Cordelia Schmid. "Hamming embedding and weak geometric consistency for large scale image search." Computer Vision-ECCV 2008. Springer Berlin Heidelberg, 2008. 304-317.

しかしながら、上述した非特許文献1,2等の従来の技術では、クエリ側とDB側でのビューの変化に対する考慮がなされていなかった。すなわち、局所特徴にはビューが変化した際の特徴点検出のロバスト性および特徴量のロバスト性があるにも関わらず、それらに対する考慮がなされていなかった。   However, in the related arts such as Non-Patent Literatures 1 and 2 described above, no consideration has been given to changes in views on the query side and the DB side. In other words, although the local features have robustness of feature point detection and feature amount robustness when the view changes, no consideration has been given to them.

なおここで、ビューとはクエリ画像およびDB画像において物体を撮影する際のカメラ視点の位置及び姿勢、光源位置及び方向、ピント設定、カメラ移動(ブレ)状態その他といったような、物体を撮影して画像を得る際にその見た目を変化させる任意の条件をいうものとする。また、画像は実際の物体をカメラで物理的に撮影して得られるもの(実写)に限らず、コンピュータグラフィックス(以下、CGと略記する。)手法で合成される画像や、当該CG手法及び実写を組み合わせて得られる画像も含むものとする。   Here, a view is an image of an object such as the position and orientation of the camera viewpoint, the light source position and direction, the focus setting, the camera movement (blurring) state, and the like when the object is captured in the query image and the DB image. It refers to any condition that changes the appearance when an image is obtained. In addition, the image is not limited to an image obtained by physically photographing an actual object with a camera (actual photograph), but may be an image synthesized by a computer graphics (hereinafter abbreviated as CG) method, the CG method, and the like. It also includes an image obtained by combining actual photographs.

上記従来技術の課題に鑑み、本発明は、ビュー変化がある場合であってもロバストな特徴量を得ることのできる特徴量登録装置、方法及びプログラムを提供することを目的とする。   In view of the above-described problems of the related art, an object of the present invention is to provide a feature amount registration apparatus, method, and program capable of obtaining a robust feature amount even when there is a view change.

上記目的を達成するため、本発明は、入力画像より登録対象としての登録特徴集合を求める特徴量登録装置であって、前記入力画像及び/又は当該入力画像を加工して得られる1つ以上の加工画像より疑似クエリ特徴集合を生成する疑似クエリ特徴生成部と、登録特徴候補集合を生成する登録特徴候補生成部と、前記疑似クエリ特徴集合の各要素と前記登録特徴候補集合の各要素との間でマッチングを行う特徴マッチング部と、前記特徴マッチング部によるマッチング結果に基づき、前記登録特徴候補集合の各要素につき、前記疑似クエリ特徴集合の要素との間の類似度スコア和を求める類似度スコア計算部と、前記求めた類似度スコア和に基づいて選択される前記登録特徴候補集合の要素を用いて、前記登録特徴集合の要素を決定することで、前記登録特徴集合を求める登録特徴生成部と、を備えることを特徴とする。   In order to achieve the above object, the present invention is a feature amount registration apparatus for obtaining a registered feature set as a registration target from an input image, wherein the input image and / or one or more obtained by processing the input image are obtained. A pseudo-query feature generation unit that generates a pseudo-query feature set from the processed image, a registered feature candidate generation unit that generates a registered feature candidate set, and each element of the pseudo-query feature set and each element of the registered feature candidate set A similarity score for obtaining a sum of similarity scores between the elements of the pseudo-query feature set for each element of the registered feature candidate set based on a matching result obtained by the feature matching unit. Determining an element of the registered feature set using an element of the registered feature candidate set selected based on the calculated similarity score sum; Characterized by and a registered feature generation unit for obtaining the registration feature sets.

また、本発明は、入力画像より登録対象としての登録特徴集合を求める特徴登録方法であって、前記入力画像及び/又は当該入力画像を加工して得られる1つ以上の加工画像より疑似クエリ特徴集合を生成する疑似クエリ特徴生成段階と、登録特徴候補集合を生成する登録特徴候補生成段階と、前記疑似クエリ特徴集合の各要素と前記登録特徴候補集合の各要素との間でマッチングを行う特徴マッチング段階と、前記特徴マッチング段階によるマッチング結果に基づき、前記登録特徴候補集合の各要素につき、前記疑似クエリ特徴集合の要素との間の類似度スコア和を求める類似度スコア計算段階と、前記求めた類似度スコア和に基づいて選択される前記登録特徴候補集合の要素を用いて、前記登録特徴集合の要素を決定することで、前記登録特徴集合を求める登録特徴生成段階と、を備えることを特徴とする。さらに、本発明は、コンピュータを前記特徴量登録装置として機能させるプログラムであることを特徴とする。   The present invention is also a feature registration method for obtaining a registered feature set as a registration target from an input image, wherein a pseudo query feature is obtained from the input image and / or one or more processed images obtained by processing the input image. A pseudo query feature generating step for generating a set, a registered feature candidate generating step for generating a registered feature candidate set, and a feature for performing matching between each element of the pseudo query feature set and each element of the registered feature candidate set. A similarity score calculating step of calculating a sum of similarity scores between the elements of the pseudo query feature set for each element of the registered feature candidate set based on a matching result obtained by the feature matching step; By determining the elements of the registered feature set using the elements of the registered feature candidate set selected based on the sum of similarity scores, the registration is performed. Characterized in that it comprises a registration feature generation determining a feature set, the. Furthermore, the present invention is characterized in that it is a program that causes a computer to function as the feature amount registration device.

本発明によれば、ビュー変化がある場合であってもロバストな特徴量を得ることができる。   According to the present invention, a robust feature can be obtained even when there is a view change.

一実施形態に係る特徴量登録装置の機能ブロック図である。FIG. 2 is a functional block diagram of a feature amount registration device according to one embodiment. 一実施形態に係る特徴量登録装置の動作のフローチャートである。6 is a flowchart of an operation of the feature amount registration device according to one embodiment. 一実施形態に係る疑似クエリ特徴生成部の詳細を示す機能ブロック図である。FIG. 4 is a functional block diagram illustrating details of a pseudo query feature generation unit according to one embodiment. 画像同士に同一対象の幾何変換関係がある場合のディストラクタの関係(及びその逆としての同一対象同一箇所の関係)を説明するための図である。FIG. 7 is a diagram for explaining a relationship between distractors in a case where images have the same object geometric transformation relationship (and a relationship between the same object and the same portion as the reverse).

図1は、一実施形態に係る特徴量登録装置の機能ブロック図である。当該図示する通り、特徴量登録装置10は、疑似クエリ特徴生成部1、登録特徴候補生成部2、反復処理部3及び特徴量記憶部4を備え、反復処理部3はさらに特徴マッチング部31、類似度スコア計算部32及び登録特徴生成部33を備える。   FIG. 1 is a functional block diagram of a feature registering apparatus according to one embodiment. As shown in the drawing, the feature amount registration device 10 includes a pseudo query feature generation unit 1, a registered feature candidate generation unit 2, an iterative processing unit 3, and a feature amount storage unit 4, and the iterative processing unit 3 further includes a feature matching unit 31, A similarity score calculator 32 and a registered feature generator 33 are provided.

まず、特徴量登録装置10の全体動作は、画像を入力として読み込み、ビュー変化が発生していることが想定される当該画像に適した登録特徴集合を出力する、というものである。本発明によれば特に、クエリ側とDB側でビューの変化が想定される場合にも、特徴マッチングを介して得られる類似度スコアを最大化するような特徴集合として、登録特徴集合を出力することが可能である。   First, the overall operation of the feature amount registration apparatus 10 is to read an image as an input and output a registered feature set suitable for the image in which a view change is assumed to have occurred. According to the present invention, a registered feature set is output as a feature set that maximizes a similarity score obtained through feature matching even when a change in view is expected between the query side and the DB side. It is possible.

例えば、ビュー変化が具体的には画像の撮影の際のカメラの位置姿勢の変化である場合であれば、特徴量登録装置10によって得られる登録特徴集合は、画像を撮影する際のカメラの位置姿勢が色々と変動しても、当該変動範囲に渡って全体最適化されたものとなり、どのような位置姿勢において撮影された場合であってもロバストに特徴マッチングを可能とするものとなる。   For example, if the view change is specifically a change in the position and orientation of the camera at the time of capturing an image, the registered feature set obtained by the feature amount registration device 10 indicates the position of the camera at the time of capturing the image. Even if the posture changes in various ways, the overall optimization is performed over the fluctuation range, and the feature matching can be robustly performed regardless of the position and the posture when the image is taken.

さらに、本発明の一実施形態によれば、Distractor(ディストラクタ、不正解の選択肢)の存在を仮定した上での類似度スコアの最大化を目指すものとして、登録特徴集合を出力することが可能である。ここで、特徴検索問題において一般に、クエリ側の特徴にとっての不正解の選択肢、すなわちディストラクタは不可避な存在であるが、本発明においては、当該ディストラクタの存在を仮定したうえでの類似度スコアの最大化を目指すような登録特徴集合を出力することもできる。詳細は後述する。   Furthermore, according to an embodiment of the present invention, it is possible to output a registered feature set assuming that a similarity score is maximized on the assumption that a Distractor (distractor, an option of an incorrect answer) exists. It is. Here, in the feature search problem, generally, an incorrect answer option for the feature on the query side, that is, a distractor is unavoidable, but in the present invention, the similarity score on the assumption of the presence of the distractor is used. It is also possible to output a registered feature set that aims to maximize. Details will be described later.

なお、特徴量登録装置10が出力する登録特徴集合とは、当該画像の特徴集合としてDBへと登録するのに上記のような観点から適したものを意味し、用途として必ずしも登録(DBその他の何らかの媒体に恒久的又は一時的に記録されること)を必要とするものではない。   Note that the registered feature set output by the feature amount registration apparatus 10 means a feature set suitable for registering the feature set of the image in the DB from the above viewpoint, and is not necessarily registered as a use (DB or other (Permanently or temporarily recorded on any medium).

また、特徴量登録装置10のフレームワーク(主要な処理の流れ)は次の通りである。すなわち、求めるN個のDB特徴(登録特徴)の集合をX={x1, x2, …, xN}、任意のM個の疑似クエリ特徴の集合をQ={q1, q2, …, qM}、任意のL個のディストラクタの集合をD={d1, d2, …, dL}とし、任意の制約条件の下でQから最大の類似度スコアを得ることのできるXを生成するフレームワークである。(なお、前述の通り、実施形態によってはディストラクタ集合Dの利用は省略してもよい。) The framework (main processing flow) of the feature amount registration device 10 is as follows. That is, the set of N DB features (registered features) to be obtained is X = {x 1 , x 2 ,..., X N }, and the set of any M pseudo query features is Q = {q 1 , q 2 , …, Q M }, and let D = {d 1 , d 2 ,…, d L } be a set of any L distractors and obtain the maximum similarity score from Q under any constraints It is a framework for generating X that can be done. (Note that, as described above, the use of the distractor set D may be omitted in some embodiments.)

以上が全体概略であり、図1に示す機能ブロック間のデータ授受の流れに関して、各部の処理内容の概略は以下の通りである。   The above is the overall outline. Regarding the flow of data exchange between the functional blocks shown in FIG. 1, the outline of the processing contents of each unit is as follows.

疑似クエリ特徴生成部1は、特徴量登録装置10への入力としての画像を読み込み、疑似クエリ特徴集合Qを生成して、特徴マッチング部31へと出力する。実施形態によっては疑似クエリ特徴生成部1はさらに、線L21で示すように当該生成した疑似クエリ特徴集合Qを登録特徴候補生成部2へも出力するようにしてもよいし、線L31で示すように当該生成する際に得られるディストラクタ情報(後述)を反復処理部3へと出力するようにしてもよい。   The pseudo-query feature generation unit 1 reads an image as an input to the feature amount registration device 10, generates a pseudo-query feature set Q, and outputs it to the feature matching unit 31. In some embodiments, the pseudo-query feature generation unit 1 may further output the generated pseudo-query feature set Q to the registered feature candidate generation unit 2 as shown by a line L21, or as shown by a line L31. Alternatively, distractor information (described later) obtained at the time of generation may be output to the iterative processing unit 3.

登録特徴候補生成部2は、特徴量登録装置10からの最終的な出力としての登録特徴集合を得るのに候補として用いるための登録特徴候補集合を生成し、特徴マッチング部31へと出力する。登録特徴候補集合を当該生成するための入力は線L21,L22,L23で示すような各実施形態のいずれかが可能であり、線L21で示されるように疑似クエリ特徴生成部1から得られる疑似クエリ特徴集合を用いてもよいし、線L22で示されるように登録特徴生成部33から得られる登録特徴集合を用いてもよいし、線L23で示されるように特徴量記憶部4に予め記憶されている特徴集合を用いてもよい。   The registered feature candidate generation unit 2 generates a registered feature candidate set to be used as a candidate for obtaining a registered feature set as a final output from the feature amount registration device 10, and outputs the set to the feature matching unit 31. The input for generating the registered feature candidate set can be any of the embodiments as indicated by lines L21, L22, L23, and the pseudo feature obtained from the pseudo query feature generation unit 1 as indicated by the line L21. A query feature set may be used, a registered feature set obtained from the registered feature generating unit 33 may be used as shown by a line L22, or the feature amount may be stored in advance in the feature amount storage unit 4 as shown by a line L23. The feature set that has been set may be used.

反復処理部3は上記説明したフレームワークを実行するものであり、疑似クエリ特徴生成部1から得られる疑似クエリ特徴集合と、登録特徴候補生成部2から得られる登録特徴候補集合と、を入力とし、反復処理によって所定数N個の登録特徴集合を最終結果として出力する。詳細は図2を参照して後述するが、第一の反復処理として特徴マッチング部31及び類似度スコア計算部32において疑似クエリ特徴集合の各要素(qi)及び登録特徴候補集合の各要素(yj)を対象とした処理を行うことでマッチング結果及び類似度スコアが得られ、さらに当該得られたマッチング結果及び類似度スコアに基づく第二の反復処理を登録特徴生成部33において行うことでN個の登録特徴集合が得られる。第二の反復処理の各回においては図1に示すように得られているマッチング結果及び類似度スコアを更新すべき旨の指示が登録特徴生成部33より出力され、マッチング結果及び類似度スコアの更新が行われる。   The iterative processing unit 3 executes the framework described above, and receives a pseudo query feature set obtained from the pseudo query feature generation unit 1 and a registered feature candidate set obtained from the registered feature candidate generation unit 2 as inputs. Then, a predetermined number N of registered feature sets are output as a final result by an iterative process. Although details will be described later with reference to FIG. 2, each element (qi) of the pseudo-query feature set and each element (yj) of the registered feature candidate set in the feature matching unit 31 and the similarity score calculation unit 32 as a first iteration process. ), A matching result and a similarity score are obtained, and a second repetition process based on the obtained matching result and the similarity score is performed by the registered feature generation unit 33 to obtain N matching results. Is obtained. In each of the second iterations, an instruction to update the matching result and the similarity score obtained as shown in FIG. 1 is output from the registered feature generation unit 33, and the matching result and the similarity score are updated. Is performed.

反復処理部3の反復処理の各回における要素処理をそれぞれ実行するのが各部31,32,33である。特徴マッチング部31は、疑似クエリ特徴生成部1から得られる疑似クエリ特徴集合と、登録特徴候補生成部2から得られる登録特徴候補集合と、の間でマッチングを行い、マッチング結果を類似度スコア計算部32へと出力する。類似度スコア計算部32は当該得られたマッチング結果に基づいて類似度スコアを算出して登録特徴生成部33へと出力する。登録特徴生成部33では当該得られた類似度スコアに基づいて、最終出力としての登録特徴集合の要素を1つずつ、合計でN個決定する。前述の通り特徴マッチング部31及び類似度スコア計算部32が第一の反復処理を行い、登録特徴生成部33が第二の反復処理を行う。   Each of the units 31, 32, and 33 executes the element processing in each iteration of the iterative processing unit 3, respectively. The feature matching unit 31 performs matching between the pseudo query feature set obtained from the pseudo query feature generation unit 1 and the registered feature candidate set obtained from the registered feature candidate generation unit 2, and calculates a matching result as a similarity score calculation. Output to the unit 32. The similarity score calculation unit 32 calculates a similarity score based on the obtained matching result and outputs the similarity score to the registered feature generation unit 33. Based on the obtained similarity score, the registered feature generation unit 33 determines a total of N elements of the registered feature set as the final output, one by one. As described above, the feature matching unit 31 and the similarity score calculating unit 32 perform the first iterative process, and the registered feature generating unit 33 performs the second iterative process.

一実施形態では線L22に示すように、反復処理部3で得られた登録特徴集合をさらに登録特徴候補生成部2へと出力してもよい。この場合すなわち、特徴量登録装置10の全体で所定回数(A回とする)の繰り返し処理を行い、a回目(a=1,2, ..., A-1)に反復処理部3の登録特徴生成部33から出力された登録特徴集合をその次のa+1回目の登録特徴候補生成部2(及び特徴マッチング部31)への入力とすることで、最終的にA回目に登録特徴生成部33から得られる登録特徴を特徴量登録装置10の出力とする。従って図1において、当該繰り返しを行わない場合(A=1の場合)は線L22は省略される。   In one embodiment, as shown by the line L22, the registered feature set obtained by the iterative processing unit 3 may be further output to the registered feature candidate generating unit 2. In this case, the repetition processing is performed a predetermined number of times (A times) in the entire feature amount registration apparatus 10, and the repetition processing unit 3 registers the a-th time (a = 1, 2,..., A-1). By using the registered feature set output from the feature generating unit 33 as an input to the next (a + 1) th registered feature candidate generating unit 2 (and the feature matching unit 31), the registered feature generation is finally performed at the Ath time. The registered feature obtained from the unit 33 is used as an output of the feature amount registration device 10. Therefore, in FIG. 1, when the repetition is not performed (when A = 1), the line L22 is omitted.

実施形態によっては反復処理部3ではまた、線L31で示されるように疑似クエリ特徴生成部1から得られるディストラクタ情報を、または、線L32で示されるように特徴量記憶部4から得られるディストラクタ情報を、用いることでディストラクタを考慮した登録特徴集合を生成するようにしてもよい。   In some embodiments, the iterative processing unit 3 also receives the distractor information obtained from the pseudo query feature generation unit 1 as indicated by the line L31 or the distractor information obtained from the feature amount storage unit 4 as indicated by the line L32. By using tractor information, a registered feature set in consideration of a distractor may be generated.

特徴量記憶部4は、画像検索の際のいわゆる一般的なDBに相当するものであり、予めマニュアル作業等で得られたものとしての各物体が撮影された各画像の特徴量を記憶しておき、線L23で示すように一実施形態において登録特徴候補生成部2へと当該特徴量を参照に供する。特徴量記憶部4は当該記憶しておく各特徴量に関してさらに、同様に予めマニュアル作業等で得られたものとしてそのディストラクタ情報を記憶しておいてもよく、一実施形態において線L32に示すように当該ディストラクタ情報を反復処理部3の参照に供するようにしてもよい。   The feature amount storage unit 4 is equivalent to a so-called general DB at the time of image search, and stores a feature amount of each image in which each object is captured in advance as a result of a manual operation or the like. In one embodiment, as shown by the line L23, the feature amount is provided to the registered feature candidate generating unit 2 for reference. The feature amount storage unit 4 may further store the destructor information for each of the feature amounts to be stored, as well as those obtained in advance by manual work, etc., as shown in a line L32 in one embodiment. In this manner, the distractor information may be provided to the repetition processing unit 3 for reference.

図2は一実施形態に係る特徴量登録装置10の動作のフローチャートである。以下、図2の各ステップを説明しながら、図1の各部の処理内容の詳細を説明する。   FIG. 2 is a flowchart of the operation of the feature amount registration device 10 according to one embodiment. Hereinafter, the details of the processing of each unit in FIG. 1 will be described while describing each step in FIG. 2.

ステップS1では、疑似クエリ特徴生成部1が入力として得た画像より、M個の要素からなる疑似クエリ特徴集合Q={q1, q2, …, qM}を生成したうえで、ステップS2へと進む。 In step S1, a pseudo query feature set Q = {q 1 , q 2 ,..., Q M } composed of M elements is generated from the image obtained as an input by the pseudo query feature generation unit 1, and then, in step S2 Proceed to.

図3は疑似クエリ特徴生成部1の詳細を示す機能ブロック図であり、図示する通り疑似クエリ特徴生成部1は画像加工部11及び生成部12を備える。疑似クエリ特徴生成部1へ入力された画像P0(説明のため、画像P0とする)は生成部12及び画像加工部11へと入力される。画像加工部11では当該画像P0に所定種類b個の加工処理pr1,pr2, ..., prbをそれぞれ施したものとして加工画像P1,P2, ..., Pbを得て、生成部12へと出力する。   FIG. 3 is a functional block diagram showing details of the pseudo query feature generation unit 1. As shown, the pseudo query feature generation unit 1 includes an image processing unit 11 and a generation unit 12. The image P0 (to be described as an image P0 for explanation) input to the pseudo query feature generation unit 1 is input to the generation unit 12 and the image processing unit 11. The image processing unit 11 obtains processed images P1, P2,..., Pb as those obtained by subjecting the image P0 to b processing processes pr1, pr2,. Is output.

画像加工部11におけるb個の加工処理はそれぞれ、加工処理の種類及び当該種類の加工処理の強さ等のパラメータを与えることで所定のものを事前に定めておく。当該加工処理は、特徴量登録装置10が出力する登録特徴集合によってさらに画像検索などを実施する際に想定されるビュー変化を網羅するものとして、所定のものを事前に定めておけばよい。   For each of the b processings in the image processing unit 11, a predetermined processing is determined in advance by giving parameters such as the type of the processing and the strength of the type of processing. In the processing, a predetermined process may be determined in advance to cover a view change expected when performing an image search or the like based on a registered feature set output by the feature amount registration device 10.

例えば加工処理の種類としては、相似変換、アフィン変換、射影変換などの幾何的な変換を施すものが含まれていてよい。当該幾何変換処理においてはさらに、入力された画像P0に写る物体の3Dモデルを有している場合、当該モデルにテクスチャを張り付けた上でビューを変化させた画像を生成してもよい。すなわち、要素ポリゴンのそれぞれにおけるテクスチャ情報を含む物体の3Dモデルを所定データとして与えておき、既存技術であるCGモデルとして生成(レンダリングによる生成)してもよい。さらにビュー変化として、ノイズ、ブラー、オクルージョンなどが想定される場合には、例えばノイズ付与、平滑化、マスキングなどの任意の画像処理を加工処理として採用してよい。   For example, types of processing may include those that perform geometric transformation such as similarity transformation, affine transformation, and projective transformation. In the geometric transformation processing, when a 3D model of an object appearing in the input image P0 is further provided, an image in which a view is changed after attaching a texture to the model may be generated. That is, a 3D model of an object including texture information in each of the element polygons may be given as predetermined data and generated as a CG model (generation by rendering) which is an existing technology. Further, when noise, blur, occlusion, and the like are assumed as the view change, any image processing such as noise addition, smoothing, and masking may be employed as the processing.

また、加工処理のパラメータも、幾何変換であれば当該幾何変換を施すための変換行列として、ノイズ付与等であれば当該付与ノイズの強さ等として与えることができる。1つの加工画像を得る際に2つ以上の加工処理を組み合わせてもよい。   Also, the parameters of the processing can be given as a transformation matrix for performing the geometric transformation in the case of geometric transformation, and as the strength of the imparted noise in the case of adding noise. When obtaining one processed image, two or more processing processes may be combined.

生成部12では、入力画像P0と、画像加工部11から得られるその一連の加工画像P1,P2, ..., Pbと、より特徴量を抽出して、当該抽出された特徴量のすべてを疑似クエリ特徴集合Q={q1, q2, …, qM}として出力する。当該抽出する特徴量としては、周知のSIFT特徴量やSURF特徴量といった所定種類の局所特徴量(特徴点(キーポイント)の局所近傍で算出される特徴量)を採用することができる。 The generation unit 12 extracts a feature amount from the input image P0 and a series of processed images P1, P2, ..., Pb obtained from the image processing unit 11, and extracts all of the extracted feature amounts. Output as a pseudo-query feature set Q = {q 1 , q 2 ,..., Q M }. As the extracted feature amount, a predetermined type of local feature amount (a feature amount calculated near a local point of a feature point (key point)) such as a well-known SIFT feature amount or SURF feature amount can be adopted.

なお、生成部12では、入力画像P0は用いずその加工画像P1,P2, ..., Pbのみから特徴量を抽出することで疑似クエリ特徴集合Q={q1, q2, …, qM}を出力してもよい。同様に、1枚の入力画像P0を入力として用いて画像加工部11で加工することに代えて、同一物体を様々なビュー条件下において実際に撮影して得られた複数の画像が生成部12へと入力されるようにしてもよい。 In the generator 12, the input image P0 is the processed image P1, P2 without, ..., pseudo query feature set by extracting a feature from Pb only Q = {q 1, q 2 , ..., q M } may be output. Similarly, instead of processing one input image P0 as input using the image processing unit 11, a plurality of images obtained by actually photographing the same object under various viewing conditions are generated. May be input.

ステップS1において疑似クエリ特徴生成部1ではさらに、画像加工部11において幾何変換を含む加工を行った場合には、ディストラクタ情報(不正解情報)(又は幾何変換関係がある場合にこれと同等の情報として同一対象同一箇所情報)も出力することができる。本発明において、ディストラクタとは、1つのクエリ特徴(qi)にとって、正解DB特徴以外の全ての特徴を意味し、具体的には(1)クエリ画像(入力画像P0)とは無関係の画像(画像P0とは別の対象が撮影されている画像)から抽出される全特徴と、(2)クエリ画像と同一対象の撮影されている画像(すなわち加工画像P1,P2, ..., Pn)から抽出されたマッチング制約条件を満たさない全特徴と、の両方を合わせた集合D(qi)(各クエリ特徴qiについて定まる集合)として定義される。ここで、あるクエリ特徴にとって「正解」と言えるDB特徴は、同じ対象の同じ箇所を記述している局所特徴となるが、撮影条件(ビュー)の変化によって全く同一とはならない。そのため、十分に「似ている」特徴を正解とみなすが、当該「似ている」基準がマッチング制約条件である。マッチング制約条件の具体例については、特徴マッチング部31の説明において後述する。   In step S1, the pseudo query feature generation unit 1 further performs processing including geometric transformation in the image processing unit 11; distractor information (incorrect information) (or equivalent processing when there is a geometric transformation relationship). As the information, the same target / same place information) can also be output. In the present invention, the distractor means all features other than the correct DB feature for one query feature (qi). Specifically, (1) an image (1) irrelevant to the query image (input image P0) (2) All the features extracted from an image of a target different from the image P0) and (2) a captured image of the same target as the query image (ie, processed images P1, P2,..., Pn) Are defined as a set D (qi) (a set determined for each query feature qi) that combines all features that do not satisfy the matching constraint conditions extracted from. Here, the DB feature that can be said to be “correct” for a certain query feature is a local feature that describes the same part of the same object, but is not exactly the same due to a change in imaging conditions (view). Therefore, features that are sufficiently “similar” are considered to be correct, but the “similar” criteria are matching constraints. A specific example of the matching constraint condition will be described later in the description of the feature matching unit 31.

上記の(1)及び(2)の両方として各クエリ特徴qiについて定義されるディストラクタに関して、(1)は明白であり、図4を参照してディストラクタのうちの(2)の模式例を示す。図4では左側に示すクエリ画像P0に対して右側に示すように画像P0を幾何変換等したものとしてn=100枚の加工画像P1〜P100が生成されDB特徴(登録特徴候補)として利用される例が示されている。〇印で示すクエリ画像P0の位置p0(対象例として「家屋」の屋根の最先端の位置)から抽出された特徴qi0について、マッチング制約条件を満たすものは画像P1〜P100に関して同じく〇印で示す、画像P1における対応位置p1から抽出された特徴yj1と、画像P2における対応位置p2から抽出された特徴yj2と、画像P3における対応位置p3から抽出された特徴yj3と、…画像P100における対応位置p100から抽出された特徴yj100と、の100個である。従って、図4において△印で示される、加工画像P1〜P10から抽出される特徴のうちこれらマッチング制約条件を満たす100個の特徴以外の全ての特徴(例えば画像P1における位置p1eの特徴yj1eなど。なお、図4では△印として一部のディストラクタのみを例示し、符号もその一部のみに付している。)が、クエリ画像P0の特徴qi0のディストラクタとなる。   With respect to the destructor defined for each query feature qi as both (1) and (2) above, (1) is evident and a schematic example of (2) of the destructors with reference to FIG. Show. In FIG. 4, n = 100 processed images P1 to P100 are generated as a result of geometrically transforming the image P0 as shown on the right side with respect to the query image P0 on the left side and are used as DB features (registered feature candidates). An example is shown. With respect to the features qi0 extracted from the position p0 of the query image P0 indicated by 〇 (the position of the top of the roof of “house” as a target example), those that satisfy the matching constraints are also indicated by 〇 with respect to the images P1 to P100. A feature yj1 extracted from the corresponding position p1 in the image P1, a feature yj2 extracted from the corresponding position p2 in the image P2, a feature yj3 extracted from the corresponding position p3 in the image P3,..., A corresponding position p100 in the image P100. , And 100 features. Therefore, all the features extracted from the processed images P1 to P10 except for the 100 features satisfying the matching constraint condition (for example, the feature yj1e at the position p1e in the image P1), which are indicated by Δ in FIG. In FIG. 4, only a part of the destructor is illustrated as a mark, and only a part of the code is given.) Is the distractor of the feature qi0 of the query image P0.

なお、図4の例のように、画像加工部11で入力画像P0に対して幾何変換Hkにより加工画像Pk(k=1,2,...)を生成する場合は、画像P0の位置p0の特徴qi0と画像Pkの位置pkの特徴yk1とが対応箇所のものであるか否かの判定は、「||pk-Hk*p0||<TH」(ここで|| ||はユークリッド距離(絶対値)、THは閾値)を満たす場合に対応箇所であるもの(同一対象同一箇所の対応があるもの)と判定することができる。すなわち、画像P0の位置p0をホモグラフィ行列等で表現される幾何変換Hkで写像した位置Hk*p0が位置pkに十分に近いと判定される場合に、対応箇所と判定することができる。逆に当該十分に近い位置以外の任意箇所で抽出された特徴量は、画像P0の位置p0の特徴qi0に対するディストラクタとなる。従って、画像加工部11で幾何変換を含む変換を行って加工画像を得た場合はこのようにして、同一対象同一箇所の対応がないものを特定することでディストラクタ情報を出力することができる。   When the image processing unit 11 generates a processed image Pk (k = 1, 2,...) From the input image P0 by geometric transformation Hk as in the example of FIG. Whether the characteristic qi0 of the image Pk and the characteristic yk1 of the position pk of the image Pk correspond to each other is determined by “|| pk−Hk * p0 || <TH” (where |||| is the Euclidean distance If (absolute value) and TH are threshold values, it can be determined to be a corresponding location (the same target has the same location). That is, when it is determined that the position Hk * p0 where the position p0 of the image P0 is mapped by the geometric transformation Hk expressed by the homography matrix or the like is sufficiently close to the position pk, it can be determined to be the corresponding position. Conversely, the feature amount extracted at any position other than the sufficiently close position is a distractor for the feature qi0 at the position p0 of the image P0. Therefore, when a processed image is obtained by performing a transformation including a geometric transformation in the image processing unit 11, the distractor information can be output by specifying an object having no correspondence between the same object and the same portion in this manner. .

ステップS2では、登録特徴候補生成部2がK個の要素からなる登録特徴候補集合Y={y1, y2, …, yK}を生成してから、ステップS3へと進む。なお、登録特徴候補集合Yとは、この中からN個の要素を選択することによってN個の登録特徴集合X={x1, x2, …, xN}を得るようにするものであるので、要素数Kに関してK>Nとなるように生成する。 In step S2, the registration feature candidate set registered feature candidate generating unit 2 is composed of K components Y = {y 1, y 2 , ..., y K} from the generate, the process proceeds to step S3. Note that the registered feature candidate set Y is such that by selecting N elements from among them, N registered feature sets X = {x 1 , x 2 ,..., X N } are obtained. Therefore, generation is performed so that K> N with respect to the number K of elements.

ステップS2において当該生成する手法としては以下のような各実施形態が可能である。   In the step S2, the following embodiments are possible as a method of generating the information.

一実施形態では、図1に線L21として示されるように、ステップS1で生成されている疑似クエリ特徴集合Qをそのまま、登録特徴候補集合Yとして採用する、すなわち、Y=Qとして生成する。   In one embodiment, as shown by the line L21 in FIG. 1, the pseudo query feature set Q generated in step S1 is adopted as it is as the registered feature candidate set Y, that is, generated as Y = Q.

一実施形態では、図1に線L22として示されるように、登録特徴生成部33が生成した登録特徴集合を、登録特徴候補集合Yとして採用する。当該実施形態は、図2のフローチャートの全体を所定回数繰り返して、ステップS10で得られる登録特徴集合を所定回数だけ更新したものを最終的な出力としての登録特徴集合として採用することに相当する。   In one embodiment, as shown by a line L22 in FIG. 1, the registered feature set generated by the registered feature generating unit 33 is adopted as a registered feature candidate set Y. This embodiment is equivalent to repeating the entire flow chart of FIG. 2 a predetermined number of times and updating the registered feature set obtained in step S10 a predetermined number of times as a registered feature set as a final output.

一実施形態では、図1に線L23として示されるように、特徴量記憶部4から所定数K個の特徴量を抽出したものを、登録特徴候補集合Yとして採用する。当該抽出はランダムに行えばよいが、特徴量が特徴空間において偏らないように抽出することが好ましい。   In one embodiment, as shown by a line L23 in FIG. 1, a predetermined number K of feature quantities extracted from the feature quantity storage unit 4 is adopted as a registered feature candidate set Y. The extraction may be performed at random, but it is preferable to extract the feature amount so as not to be biased in the feature space.

なお、特徴量記憶部4はいわゆる一般のDBであるため、疑似クエリ特徴生成部1に入力される任意の画像(未知画像)の特徴量に対して、事前知識なしでディストラクタ情報を特徴量記憶部4の特徴量に定義することはできない。なお、図4を参照して前述の通り、幾何変換の関係がある場合は同一対象同一箇所の対応がないものとしてディストラクタ情報が定義される。(以下同様)ただし、当該事前知識がある場合は、特徴量記憶部4に記憶されている特徴量の少なくとも一部にディストラクタ情報を定義しておいてもよい。当該ディストラクタ情報は図1に線L32で示すように反復処理部3へと参照に供することができる。   Since the feature amount storage unit 4 is a so-called general DB, the feature amount of an arbitrary image (unknown image) input to the pseudo-query feature generation unit 1 is stored in the destructor information without prior knowledge. It cannot be defined as a feature value in the storage unit 4. As described above with reference to FIG. 4, when there is a relationship of geometric transformation, the distractor information is defined as having no correspondence between the same object and the same place. However, if there is such prior knowledge, the distractor information may be defined in at least a part of the feature amount stored in the feature amount storage unit 4. The distractor information can be provided to the iterative processing unit 3 as shown by a line L32 in FIG.

ステップS3では、以下の2重ループ処理S4〜S9によって類似度スコア計算部32が各登録特徴候補yjについて計算するその類似度スコア和score(yj)の初期値としてゼロを設定してから、ステップS4へ進む。(当該類似度スコア和score(yj)の値は、当該2重ループ処理においてステップS6でマッチング判定された場合に該当yjに関しての値が加算更新されることにより、当該2重ループ処理を抜けた時点(ステップS10に到達した時点)でその値が求まっている状態となる。)   In step S3, the similarity score calculation unit 32 sets zero as an initial value of the similarity score sum score (yj) calculated for each registered feature candidate yj by the following double loop processing S4 to S9, Proceed to S4. (If the value of the similarity score sum score (yj) is determined to be matching in step S6 in the double loop processing, the value for the corresponding yj is added and updated, thereby exiting the double loop processing. At this point (at the time when step S10 is reached), the value is obtained.)

ステップS4は、以下のステップS5〜S9をステップS1で生成した各疑似クエリ特徴qiについて繰り返し実施する旨を表すダミーステップであり、今回の処理対象のqiを設定したうえでステップS5へと進む。ステップS5は、以下のステップS6〜S8をステップS2で生成した登録特徴候補yjについて繰り返し実施する旨を表すダミーステップであり、今回の処理対象のyjを設定したうえでステップS6へと進む。   Step S4 is a dummy step indicating that the following steps S5 to S9 are repeatedly performed for each pseudo query feature qi generated in step S1, and the process proceeds to step S5 after setting the current processing target qi. Step S5 is a dummy step indicating that the following steps S6 to S8 are repeatedly performed for the registered feature candidate yj generated in step S2, and the process proceeds to step S6 after setting the current processing target yj.

ステップS6は、当該処理対象に設定されている疑似クエリ特徴qiと登録特徴候補yjとがマッチングするか否かの判定を特徴マッチング部31が行ったうえで、ステップS7へと進む。ステップS7では、直近のステップS6でマッチング判定が得られた場合に、類似度スコア計算部32が当該処理対象に設定されている登録特徴候補yiに関しての現状の類似度スコア和score(yi)の値を加算更新してから、ステップS8へと進む。(直近のステップS6でマッチング判定が得られなかった場合、ステップS7では加算更新は行わず、そのままステップS8へと進む。)   In step S6, the feature matching unit 31 determines whether or not the pseudo query feature qi set as the processing target matches the registered feature candidate yj, and then proceeds to step S7. In step S7, when a matching determination is obtained in the latest step S6, the similarity score calculation unit 32 calculates the current similarity score sum score (yi) for the registered feature candidate yi set as the processing target. After adding and updating the value, the process proceeds to step S8. (If a matching determination is not obtained in the latest step S6, addition and updating are not performed in step S7, and the process directly proceeds to step S8.)

なお、当該2重ループ内の上記ステップS6,S7の各処理の詳細は当該2重ループ処理の説明後に行う。   It should be noted that details of each of the processes in steps S6 and S7 in the double loop will be described after the description of the double loop process.

ステップS8では、全ての登録特徴候補yjについて以上のステップS5〜S7の処理が完了したか否かを判定し、完了していればステップS9へと進み、未完了であればステップS5に戻り、未処理の登録特徴候補yjを処理対象に設定して上記を繰り返す。ステップS9では、全ての疑似クエリ特徴qiについて以上のステップS4〜S8の処理が完了したか否かを判定し、完了していればステップS10へと進み、未完了であればステップS4に戻り、未処理の疑似クエリ特徴qiを処理対象に設定して上記を繰り返す。   In step S8, it is determined whether or not the processing in steps S5 to S7 has been completed for all the registered feature candidates yj.If the processing has been completed, the process proceeds to step S9.If not completed, the process returns to step S5. An unprocessed registered feature candidate yj is set as a processing target, and the above is repeated. In step S9, it is determined whether or not the processing in steps S4 to S8 has been completed for all the pseudo query features qi.If the processing has been completed, the process proceeds to step S10.If not completed, the process returns to step S4. The unprocessed pseudo query feature qi is set as a processing target and the above is repeated.

以上、ステップS4〜S9における各qi及び各yjに関する2重ループ処理を終えてステップS10に至った時点で、特徴マッチング部32による一連のマッチング結果と、類似度スコア計算部32による各yjに関しての最終的な類似度スコア和score(yj)と、が求まっている状態となっている。以下、当該マッチング処理及び類似度スコア計算の詳細を順に説明する。   As described above, at the time when the double loop processing for each qi and each yj in steps S4 to S9 is completed and the process reaches step S10, a series of matching results by the feature matching unit 32 and each yj by the similarity score calculation unit 32 The final similarity score sum score (yj) has been found. Hereinafter, details of the matching processing and the similarity score calculation will be described in order.

まず、ステップS6のマッチング処理に関して、特徴マッチング部31が、予め指定された制約条件(マッチング判定条件)に基づき、疑似クエリ特徴集合Qの各要素qiにつき、登録特徴候補集合Yの各要素yjの中からマッチングするものmatch(qi)を求める。すなわち、「{}」の記号で集合要素を列挙することで形式的に記載すれば、2重ループ処理を終えた時点で以下のようなマッチング結果が得られることとなる。これを結果リスト1と呼ぶ。
match(q1)={y11, y12, ...}, match(q2)={y21, y22, ...}, ...
match(qi)={yi1, yi2, ...}, ...., match(qN)={yN1, yN2, ... } …(結果リスト1)
First, with regard to the matching processing in step S6, the feature matching unit 31 determines, for each element qi of the pseudo query feature set Q, the element yj of the registered feature candidate set Y based on a constraint condition (matching determination condition) specified in advance. Find the match (qi) that matches from among them. In other words, if the set elements are formally described by listing them with the symbol “{}”, the following matching result will be obtained when the double loop processing is completed. This is called result list 1.
match (q 1 ) = {y 11 , y 12 , ...}, match (q 2 ) = {y 21 , y 22 , ...}, ...
match (q i ) = {y i1 , y i2 , ...}, ...., match (q N ) = {y N1 , y N2 , ...}… (result list 1)

ステップS6において当該マッチング判定するための制約条件は様々なものが可能であり、例えば以下のようなものが挙げられる。当該各手法のいずれか又は任意の組み合わせを制約条件としてよい。
(手法1)クエリ側の特徴(qi)とDB側の特徴(yj)が同一のVWに量子化される。
(手法2)ディストラクタが存在する特徴ベクトル空間において、クエリ側の特徴ベクトル(qi)にとってDB側の特徴ベクトル(yj)がk近傍に位置する。
(手法3)クエリ側の特徴ベクトル(qi)とDB側の特徴ベクトル間(yj)の距離が閾値以内である。
(手法4)クエリ側の特徴とDB側の特徴の持つオリンテーションの差分が閾値以内である。
(手法5)クエリ側の特徴とDB側の特徴の持つスケールの比が閾値以内である。
In step S6, various types of constraint conditions for the matching determination are possible, for example, the following. Any one or an arbitrary combination of the respective methods may be used as the constraint condition.
(Method 1) The feature (qi) on the query side and the feature (yj) on the DB side are quantized to the same VW.
(Method 2) In the feature vector space in which the distractor exists, the DB-side feature vector (yj) is located near k with respect to the query-side feature vector (qi).
(Method 3) The distance between the query-side feature vector (qi) and the DB-side feature vector (yj) is within a threshold.
(Method 4) The difference between the query-side features and the DB-side features of the orientation is within a threshold value.
(Method 5) The ratio between the scale of the query side and the scale of the DB side is within a threshold value.

なお、手法2においてk近傍とは、qiと、qiにとって類似度が上位のk位に含まれるyjとをマッチングする手法を意味する。すなわち、手法2ではクエリ側の特徴ベクトル(qi)との類似度が上位の側のk個がマッチング結果match(qi)として得られる。   Note that, in the second method, the vicinity of k means a method of matching qi with yj included in the k-th place having a higher similarity to qi. That is, in the method 2, the k-th higher-order similarity with the query-side feature vector (qi) is obtained as the matching result match (qi).

なお、登録特徴候補集合Yの中には、現在注目しているDB側の特徴(yj)と同じ位置から抽出された特徴yが複数含まれている可能性があるが、それらはk近傍探索時のランキングから除外するようにしてよい。具体的には以下の[1]〜[3]のようにすればよい。   Note that the registered feature candidate set Y may include a plurality of features y extracted from the same position as the feature (yj) of the DB currently focused on, It may be excluded from the ranking of time. Specifically, the following [1] to [3] may be performed.

[1]予め,yjと座標が一致する他のy(同一対象同一箇所の関係にあるもの)をリスト化しておく。例えば、図4の例において(画像P0を除く)画像P1〜P100から疑似クエリ特徴集合が抽出されている場合であれば、list(yj1)={yj2, yj3, ..., yj100}である。同様にlist(yj2)={yj1,yj3,yj4, ..., yj100}となる。list(yj3)等も同様に定義しておくことができる。
[2] qiと各yの特徴ベクトル間距離を測定し、小さい順にソートしたランキングを作成する。このとき、list(yj)の要素は,ランキングに含めない。(yj自身は含める。)すなわち、現在注目しているyjと互いに同一対象同一箇所の関係にある一連のy∈list(yj)は、ランキングから除外する。(換言すれば、現在注目しているyjと、list(yj)に属さないその他のyと、のみがqiとの間の類似度ランキング作成対象となる。)
[3] 上記のように求めたランキングの上位k件以内にyjが含まれていれば、制約条件を満たしたとみなし、qiとyjとをマッチングする。
[1] A list of other y's (coordinates of the same object and the same portion) whose coordinates match yj is made in advance. For example, if the pseudo query feature set is extracted from the images P1 to P100 (excluding the image P0) in the example of FIG. 4, list (yj1) = {yj2, yj3, ..., yj100}. . Similarly, list (yj2) = {yj1, yj3, yj4, ..., yj100}. list (yj3) and the like can be similarly defined.
[2] Measure the distance between the feature vectors of qi and each y, and create a ranking sorted in ascending order. At this time, the elements of list (yj) are not included in the ranking. (Includes yj itself.) That is, a series of y (list (yj) having the same subject and the same location as each of the currently focused yj is excluded from the ranking. (In other words, only the currently focused yj and the other y not belonging to list (yj) are subject to similarity ranking creation between qi.)
[3] If yj is included in the top k items in the ranking obtained as described above, it is regarded that the constraint condition is satisfied, and qi and yj are matched.

以上の[1]〜[3]の手順により、上位k件の中に真の正解が最大1つしか含まれない状況を再現することができる。これは、本発明において同じ画像を変換した大量の画像をマッチングの対象に含めることに起因した、例外的な処理に相当する。   Through the above procedures [1] to [3], it is possible to reproduce a situation where the top k cases contain only one true answer at most. This corresponds to an exceptional process caused by including a large number of images obtained by converting the same image in the matching target in the present invention.

なお、上記及び手法4,5において述べている「特徴のオリエンテーション差および/またはスケール比」とは、SIFT特徴量等として特徴ベクトルを求める際に求まるオリエンテーション及びスケールに関しての差及び比を意味する。   The “feature orientation difference and / or scale ratio” described above and in the methods 4 and 5 means a difference and a ratio regarding the orientation and scale obtained when a feature vector is obtained as a SIFT feature amount or the like.

また、ステップS7にて類似度スコア計算部32は、直近のステップS6でマッチング判定が得られた場合に当該登録特徴候補yjに関する類似度スコア和score(yj)を当該qiの寄与として加算更新することで、2重ループ処理を終えた時点で最終的な類似度スコア和score(yj)を得た状態となる。   Also, in step S7, the similarity score calculation unit 32 adds and updates the similarity score sum score (yj) for the registered feature candidate yj as a contribution of the qi when a matching determination is obtained in the latest step S6. As a result, a state is obtained in which the final similarity score sum score (yj) is obtained when the double loop processing is completed.

まず、当該求まる類似度スコア和score(yj)は、前述の各疑似クエリ特徴qiに関して求まっている結果リスト1を、各登録特徴候補yjから見たマッチング結果match(yj)として、以下のような結果リスト2に書き換えたうえで、当該結果リスト2に属するqiの類似度スコア和として求まることとなる。なお、結果リスト1と結果リスト2とは、内容としては等価である。
match(y1)={q11, q12, ...}, match(y2)={q21, q22, ...}, ...
match(yj)={qj1, qj2, ...}, ...., match(yK)={qK1, qK2, ... } …(結果リスト2)
First, the obtained similarity score sum score (yj) is obtained by using the result list 1 obtained for each pseudo query feature qi described above as a matching result match (yj) viewed from each registered feature candidate yj as follows. After rewriting the result list 2, the similarity score sum of qi belonging to the result list 2 is obtained. Note that the result list 1 and the result list 2 are equivalent in content.
match (y 1 ) = {q 11 , q 12 , ...}, match (y 2 ) = {q 21 , q 22 , ...}, ...
match (y j ) = {q j1 , q j2 , ...}, ...., match (y K ) = {q K1 , q K2 , ...}… (result list 2)

ループ処理内においては具体的に、類似度スコア和を求める処理では、予め指定された計算法に基づき、上記得られることとなる結果リスト2に属する要素qi(ステップS6でマッチング判定された要素qi)に関して加算することで、各登録特徴候補yjの類似度スコア和score(yj)(リストmatch(yj)内の各要素qと当該登録特徴候補yjとの類似度のスコア和)を計算することとなる。当該加算のための重みづけは様々なものが可能であり、例えば以下のようなものが挙げられる。 Specifically, in the processing for obtaining the similarity score sum in the loop processing, the element qi belonging to the result list 2 to be obtained based on the calculation method specified in advance (the element qi determined to be matched in step S6) ), The similarity score sum score (y j ) of each registered feature candidate y j (the sum of similarity scores between each element q in the list match (y j ) and the registered feature candidate y j ) Will be calculated. Various weights can be used for the addition, for example, the following.

(計算法1)重み付けの値として「1」(固定値)を用いる。すなわち、ステップS6にてyjとqiとがマッチング判定されるごとにスコア和score(yi)に「1」を加算することによって、ループ処理を終えた時点で以下のようなスコア和score(yj)が求まることとなる。すなわち、結果リスト2におけるmatch(yj)の要素数が大きいほど類似度スコア和score(yj)が大きいものとして得られる。
score(yj)=リストmatch(yj)に属する要素の個数。
(Calculation method 1) “1” (fixed value) is used as a weighting value. That is, by adding “1” to the score sum score (yi) each time yj and qi are determined to be matched in step S6, at the time when the loop processing is completed, the following score sum score (yj) Is determined. That is, as the similarity score sum is large number of elements match (yj) in the result list 2 score (y j) is obtained as large.
score (y j ) = number of elements belonging to list match (y j ).

(計算法2)重み付けの値として、既存手法であるtf-idf(Term Frequency - Inverse Document Frequency)を用いる。すなわち、リストmatch(yj)に属する特徴ベクトルqのtf-idf値をtfidf(q)と表記すると、以下の式で当該リスト内のtf-idf値の総和として類似度スコア和score(yj)が求まる。なお、値tf-idf(q)は特徴ベクトルqをVWに量子化したうえで、既存手法に従って求めることができる。 (Calculation method 2) As a weighting value, tf-idf (Term Frequency-Inverse Document Frequency) which is an existing method is used. That is, when the tf-idf value of the feature vector q belonging to the list match (y j ) is expressed as tfidf (q), the similarity score sum score (y j ) Is obtained. Note that the value tf-idf (q) can be obtained according to an existing method after quantizing the feature vector q into VW.

(計算法3)重み付けの値として式「kthd2-d2」を用いる。ここでdはクエリ側とリファレンス側の特徴ベクトル間の距離,kthdはクエリ側の特徴にとってk番目に近い特徴との特徴ベクトル間の距離である。すなわち、リストmatch(yj)に属する特徴ベクトルqに関して求まる「kthd2-d2」の値をf(q)と書くと、上記tf-idfの場合と同様に以下の式でリスト内総和として求まることとなる。 (Calculation method 3) The expression “kthd 2 -d 2 ” is used as a weighting value. Here, d is the distance between the query-side and reference-side feature vectors, and kthd is the distance between the feature vectors of the query-side feature and the k-th closest feature. That is, if the value of “kthd 2 -d 2 ” obtained for the feature vector q belonging to the list match (y j ) is written as f (q), as in the case of tf-idf above, Will be asked.

ここで、「kthd2-d2」は、以下に掲げる非特許文献3に開示のLocal Naive-Bayes Nearest-Neighborと呼ばれる画像のクラス分類手法を画像検索に適用した際のスコア関数である。kthd2-d2はVWに量子化した後でも特徴ベクトルを用いて計算してもよいし,非特許文献1のように、特徴ベクトルをコンパクトに変換したHamming embeddingと呼ばれるベクトル間の距離を用いてもよい。
[非特許文献3] McCann and D. G. Lowe, "Local naive bayes nearest neighbor for image classification," in Proc. of CVPR, 2012.
Here, “kthd 2 -d 2 ” is a score function when an image classification method called Local Naive-Bayes Nearest-Neighbor disclosed in Non-Patent Document 3 below is applied to image search. kthd 2 -d 2 may be calculated using a feature vector even after quantization to VW, or using a distance between vectors called Hamming embedding which is a compact conversion of the feature vector as in Non-Patent Document 1. You may.
[Non-Patent Document 3] McCann and DG Lowe, "Local naive bayes nearest neighbor for image classification," in Proc. Of CVPR, 2012.

なお、計算法3においては特徴マッチング部31の(手法2)で説明したのと同様に、手順[1]〜[3]によってランキングを作成したうえで、当該ランキングにおけるk番目に近い特徴ベクトルを求めるようにしてもよい。   In calculation method 3, as described in (method 2) of the feature matching unit 31, a ranking is created by steps [1] to [3], and a k-th feature vector in the ranking is calculated. You may ask for it.

以上、計算法1〜3に限らず、その他の任意の既存の画像検索のためのスコア関数(重み付け関数)を用いて類似度スコア和score(yj)を計算することができる。   As described above, the similarity score sum score (yj) can be calculated using not only the calculation methods 1 to 3 but also any other existing score function (weighting function) for image search.

ステップS10では、登録特徴生成部33が、以下のN回の繰り返しステップS11〜S14で最終結果(当該最終結果はステップS15で出力される)を得るための登録特徴集合の初期値として空集合(φ)を設定してから、ステップS11へと進む。ステップS11は、以下のステップS12〜S14をN回繰り返すことを表すためのダミーステップであり、そのままステップS12へと進む。   In step S10, the registered feature generating unit 33 sets an empty set (as an initial value of a registered feature set for obtaining a final result (the final result is output in step S15) in the following N repeated steps S11 to S14). After setting (φ), the process proceeds to step S11. Step S11 is a dummy step for indicating that the following steps S12 to S14 are repeated N times, and the process directly proceeds to step S12.

ステップS12では、登録特徴生成部33が以下の(手順1)、(手順2)により登録特徴集に新たな要素xn(n=1,2, ,,,, Nであり、nは当該繰り返しステップS12〜S14の現時点での繰り返し回数を表すものとする。)を追加してから、ステップS13へと進む。 In step S12, the registered feature generating unit 33 uses the following (procedure 1) and (procedure 2) to add a new element x n (n = 1, 2,,,, N) to the registered feature collection, and It represents the current number of repetitions of steps S12 to S14.), And then proceeds to step S13.

(手順1)各登録特徴候補yjの中から、最大の類似度スコアscore(yj)を持つ登録特徴候補ymaxを選択する。すなわち、式表記すればインデクスmaxは以下のように定まる。
max=argmax(score(yj))
(手順2)この登録特徴候補ymaxに紐づく疑似クエリ特徴集合match(ymax)の特徴ベクトルを平均化したものを追加する特徴ベクトルxnとする。
(Procedure 1) From among the registered feature candidates y j , a registered feature candidate y max having the maximum similarity score score (y j ) is selected. That is, the index max is determined as follows in the expression.
max = argmax (score (y j ))
(Procedure 2) A feature vector xn to be added is obtained by averaging the feature vectors of the pseudo query feature set match (y max ) associated with the registered feature candidate y max .

上記の手順2ではさらに同様にして、特徴ベクトルxnのみならず、オリエンテーションo、スケールs、および座標uの少なくとも1つをそれぞれ平均化した特徴を、登録特徴fnとしてもよい。例えばこれら全てを登録特徴とする場合はfn=(xn, on, sn, un)のように各量を列挙したものとして登録特徴が得られる。 In the same manner further in step 2 above, not only the feature vector x n only, orientation o, scale s, and respectively averaged wherein at least one of the coordinates u, may be registered feature f n. For example, when all of these and registration features registered feature is obtained as those listed f n = (x n, o n, s n, u n) the respective amounts as.

上記の手順2では次のような追加実施形態も可能である。すなわち、手順2における特徴の平均化によって、結果的に疑似クエリ特徴集合から得られる類似度スコアの和が小さくなる可能性がある。そのため、手順2において平均化された特徴を用いて特徴マッチング部31および類似度スコア計算部32の処理を再度行い、結果的に類似度スコアの和が小さくなっていた場合、平均化を行わないという判断を行ってもよい。   In the above procedure 2, the following additional embodiment is also possible. That is, by averaging the features in step 2, the sum of the similarity scores obtained from the pseudo query feature set may be reduced as a result. Therefore, the processes of the feature matching unit 31 and the similarity score calculating unit 32 are performed again using the features averaged in the procedure 2, and if the sum of the similarity scores is small as a result, the averaging is not performed. May be determined.

すなわち、当初の(手順1)において選択されたscore(ymax)と、(手順2)で平均化して求めたxnによるscore(xn)と、を比較して、「score(ymax)>score(xn)」となっている場合、平均化したxnを登録対象として採用しないようにしてよい。逆に類似度スコア和が大きくなる場合、以上の通り平均化を行ったxnを登録特徴集合の要素として採用すればよい。当該平均化された特徴を用いてscore(xn)を計算する際は、登録特徴候補集合Yにおいて、平均化される対象となった複数の特徴を平均化された1つの特徴に置き換えた暫定集合Y'を対象として、(すなわち、集合Yの代わりに暫定集合Y'を入力として用いて、)特徴マッチング部31及び類似度スコア計算部32の処理を行うようにすればよい。例えばxn=(y1+y2+y3)/3と3個の平均で登録特徴を得た場合、3個あったy1,y2,y3を1個のxnに置き換えるようにすればよい。なお、平均化を行わない判断を下した場合は、平均化せずにymaxをそのままxnとして登録すればよい。 That is, the score (y max) selected in the initial (Step 1), and score (x n) by x n obtained by averaging in (Step 2), by comparing the "score (y max) > Score ( xn ) ", the averaged xn may not be adopted as a registration target. Conversely, when the similarity score sum increases, xn averaged as described above may be employed as an element of the registered feature set. When calculating score (x n ) using the averaged features, a provisional feature in which a plurality of averaged features are replaced with one averaged feature in the registered feature candidate set Y The processing of the feature matching unit 31 and the similarity score calculation unit 32 may be performed on the set Y ′ (that is, using the provisional set Y ′ instead of the set Y as input). For example, when the registration features are obtained by averaging xn = (y1 + y2 + y3) / 3 and three, y3, y1, y2, and y3 may be replaced with one xn . If it is determined that averaging is not performed, ymax may be registered as xn without averaging.

ステップS13では、登録特徴生成部33が直近のステップS12の(手順1)で決定されたymaxに紐づく疑似クエリ特徴集合match(ymax)(ymaxに対する疑似クエリ特徴のマッチング結果リスト)の各要素を、全てのその他のyj(ymax自身も含む)に紐づく疑似クエリ特徴集合match(yj)={qj1, qj2, ...}から除外する更新を行うと共に、match(ymax)の各要素から与えられたスコア和への寄与分をその他の類似度スコア和score(yj)から減算する更新を行ったうえで、ステップS14へと進む。当該減算する更新とはすなわち、スコア和score(yi)を計算するためのmatch(yi)からmatch(ymax)に属する要素を除外した「match(yi) \match(ymax)」を用いて、スコア和score(yi)を計算しなおすことに相当する。「\」は差集合演算であり、以下でも同様である。 In step S13, the registration feature generation unit 33 of the immediately preceding step S12 in brute cord to y max determined in (Step 1) Pseudo query feature set match (y max) (matching result list pseudo query feature for y max) Updates are performed to exclude each element from the pseudo query feature set match (y j ) = {q j1 , q j2 , ...} associated with all other yj (including y max itself), and match ( After updating the subtraction of the contribution to the score sum given from each element of y max ) from the other similarity score sum score (y j ), the process proceeds to step S14. The update to be subtracted means using `` match (yi) \ match (y max ) '' excluding elements belonging to match (y max ) from match (yi) for calculating score sum score (yi) , Which is equivalent to recalculating the score sum score (yi). “\” Is a difference set operation, and the same applies to the following.

ステップS13による当該更新により、登録特徴候補集合Yを以下のように更新してステップS4〜S9の2重ループ処理を再度実施した場合に得られるマッチング結果及び類似度スコア和とほぼ同様のものとして更新されたマッチング結果及び類似度スコア和を、2重ループ処理を再度行うことなく高速に得ることができる。
Y=Y\match(ymax)
By the update in step S13, the registered feature candidate set Y is updated as follows, and the matching result and the similarity score sum obtained when the double loop processing of steps S4 to S9 is performed again are assumed to be substantially the same. The updated matching result and the similarity score sum can be obtained at high speed without performing the double loop processing again.
Y = Y\match (y max )

また、当該ステップS11〜S14の繰り返し回数がn回目であるとすると、n回目のステップS13で上記のように更新された疑似クエリ特徴集合match(yj)={qj1, qj2, ...}(すなわち更新された結果リスト2)及び更新された類似度スコア和score(yj)が、次のn+1回目のステップS12の判断で利用されることとなる。(なお、一度でもymaxとして選択されたもの(y[選択済]とする)は、そのスコア値score(y[選択済])が以降の繰り返し処理ではその値が更新されてゼロとなるため、また、そのマッチング結果としてのリストmatch(y[選択済])も空集合となるため、(手順1)の選択から除外されることとなる。) Assuming that the number of repetitions of steps S11 to S14 is the n-th, the pseudo query feature set match (y j ) = (q j1 , q j2 ,... Updated in the n-th step S13 as described above. .} (Ie, the updated result list 2) and the updated similarity score sum score (y j ) will be used in the next (n + 1) -th determination in step S12. (It is assumed selected as y max (y [Selected] at least once), the score value score (y [Selected]) because is zero are updated value in the iterative process since In addition, the list match (y [selected] ) as the matching result is also an empty set, and is therefore excluded from the selection in (Procedure 1).)

ステップS14では登録特徴生成部33が当該時点においてN個の要素からなる登録特徴集合が得られているか否かを判定し、得られていなければ新たな要素を追加すべくステップS11へと戻って上記を繰り返し、得られていればステップS15へと進む。ステップS15では登録特徴生成部33が以上の繰り返しステップS11〜S14で得られたN個の要素からなる登録特徴集合を最終結果として出力して、当該図2のフローは終了する。   In step S14, the registered feature generation unit 33 determines whether or not a registered feature set including N elements has been obtained at the time, and if not, returns to step S11 to add a new element. The above is repeated, and if it is obtained, the process proceeds to step S15. In step S15, the registered feature generation unit 33 outputs the registered feature set including the N elements obtained in the above-described repeated steps S11 to S14 as a final result, and the flow in FIG. 2 ends.

以上、本発明によれば、ビュー変化がある場合でもロバストな特徴量を得ることができる。また、ディストラクタが存在する特徴ベクトル空間において、多様なビューにおけるクエリ特徴とマッチする可能性の高い登録特徴集合を生成することができる。さらに、より高い類似度スコアを与える登録特徴を優先的に選択することにより、大規模なデータベースに対する画像検索の精度を改善することができる。以下、補足事項を述べる。   As described above, according to the present invention, a robust feature can be obtained even when there is a view change. In addition, in the feature vector space in which the distractor exists, a registered feature set that is highly likely to match query features in various views can be generated. Further, by preferentially selecting a registered feature that gives a higher similarity score, it is possible to improve the accuracy of image search for a large-scale database. The supplementary items are described below.

(1)図2のフロー全体を繰り返す実施形態(繰り返しの2回目以降では図1の線L22の入力が行われる実施形態)、すなわち、一度の処理で得られた登録特徴集合を、新たな登録特徴候補とみなして、終了条件を満たすまで処理を反復する実施形態は例えば次のようにすることができる。   (1) An embodiment in which the entire flow in FIG. 2 is repeated (an embodiment in which the input of the line L22 in FIG. 1 is performed in the second and subsequent iterations), that is, a registered feature set obtained by one process is newly registered. An embodiment in which the process is regarded as a feature candidate and the process is repeated until the end condition is satisfied can be, for example, as follows.

例えば、1回目の登録特徴候補を疑似クエリ特徴集合(M>N)に設定し、M'個(M>M'>N)の登録特徴集合を得る。それを新たな登録特徴候補とみなしてM''個(M'>M''>N)の登録特徴集合を得る、という処理を、N個の登録特徴を得るまで繰り返してもよい。あるいは、1回目の処理で得られたN個の登録特徴を新たな登録特徴候補とみなして処理を行い、結果的に得られる類似度スコアの和に変化が無くなるまで処理を繰り返してもよい。   For example, the first registered feature candidate is set to a pseudo query feature set (M> N), and M ′ (M> M ′> N) registered feature sets are obtained. The process of obtaining the M ″ (M ′> M ″> N) registered feature sets by regarding them as new registered feature candidates may be repeated until N registered features are obtained. Alternatively, the process may be performed by regarding the N registered features obtained in the first process as new registered feature candidates, and the process may be repeated until the sum of the resulting similarity scores no longer changes.

(2)本発明におけるマッチングの制約条件、類似度スコア計算方法、疑似クエリ特徴集合、ディストラクタは、実行時の検索処理に則しているほど本発明の効果が期待される。すなわち、マッチングの制約条件および類似度スコア計算方法は実行時に利用するマッチング方法および類似度スコア計算方法と内容的に一致し、疑似クエリ特徴集合はユーザが実際に撮影した画像から得られるものに類似し、ディストラクタ関係が与えられる要素集合の内容およびその要素数は、実際の検索データベースに類似していることが望ましい。   (2) The effects of the present invention are expected as the matching constraints, the similarity score calculation method, the pseudo query feature set, and the destructor in the present invention conform to the search processing at the time of execution. In other words, the matching constraint conditions and the similarity score calculation method match the matching method and the similarity score calculation method used at the time of execution, and the pseudo query feature set is similar to the one obtained from the image actually taken by the user. However, it is desirable that the content of the element set to which the destructor relation is given and the number of the elements be similar to the actual search database.

(3)本発明は、コンピュータを特徴量登録装置10として機能させるプログラムとしても提供可能である。当該コンピュータには、CPU(中央演算装置)、メモリ及び各種I/Fといった周知のハードウェア構成のものを採用することができ、CPUが特徴量登録装置10の各部の機能に対応する命令を実行することとなる。   (3) The present invention can also be provided as a program that causes a computer to function as the feature amount registration device 10. The computer may have a well-known hardware configuration such as a CPU (Central Processing Unit), a memory, and various I / Fs, and the CPU executes an instruction corresponding to a function of each unit of the feature amount registration device 10. Will be done.

10…特徴量登録装置、1…疑似クエリ特徴生成部、2…登録特徴候補生成部、31…特徴マッチング部、32…類似度スコア計算部、33…登録特徴生成部、4…特徴量記憶部   10: feature registration device, 1: pseudo query feature generation unit, 2: registered feature candidate generation unit, 31: feature matching unit, 32: similarity score calculation unit, 33: registered feature generation unit, 4: feature storage unit

Claims (13)

入力画像より登録対象としての登録特徴集合を求める特徴量登録装置であって、
前記入力画像及び/又は当該入力画像を加工して得られる1つ以上の加工画像より疑似クエリ特徴集合を生成する疑似クエリ特徴生成部と、
登録特徴候補集合を生成する登録特徴候補生成部と、
前記疑似クエリ特徴集合の各要素と前記登録特徴候補集合の各要素との間で当該要素同士の位置情報が含まれない局所特徴量同士の類似度に基づいてマッチングを行う特徴マッチング部と、
前記登録特徴候補集合の各要素につき、前記疑似クエリ特徴集合の要素との間の類似度スコア和を、前記特徴マッチング部によるマッチング結果でマッチング判定された個数が少なくとも反映されたものとして求める類似度スコア計算部と、
前記求めた類似度スコア和に基づいて選択される前記登録特徴候補集合の要素を用いて、前記登録特徴集合の要素を決定することで、前記登録特徴集合を求める登録特徴生成部と、を備えることを特徴とする特徴量登録装置。
A feature amount registration device for obtaining a registered feature set as a registration target from an input image,
A pseudo query feature generation unit that generates a pseudo query feature set from the input image and / or one or more processed images obtained by processing the input image;
A registered feature candidate generating unit that generates a registered feature candidate set;
A feature matching unit that performs matching between each element of the pseudo query feature set and each element of the registered feature candidate set based on the similarity between local feature amounts that do not include position information of the elements ,
For each element of the registered feature candidate set, a similarity score for obtaining a sum of similarity scores between the elements of the pseudo query feature set and at least the number of matches determined by the matching result by the feature matching unit is reflected A score calculator,
A registered feature generation unit for determining the registered feature set by determining an element of the registered feature set using an element of the registered feature candidate set selected based on the obtained similarity score sum. A feature registering apparatus characterized in that:
前記登録特徴候補集合の少なくとも一部の要素同士の間においては、互いに同一対象の同一箇所から抽出された特徴である旨を規定する同一対象同一箇所情報が予め与えられており、
前記特徴マッチング部及び/又は前記類似度スコア計算部では、前記同一対象同一箇所情報を用いて、前記マッチングする処理及び/又は前記類似度スコア和を求める処理をそれぞれ行うことを特徴とする請求項1に記載の特徴量登録装置。
Between at least some of the elements of the registered feature candidate set, the same target same location information defining that the feature is extracted from the same location of the same target is given in advance,
The said characteristic matching part and / or the said similarity score calculation part each perform the said matching process and / or the process which calculates | requires the said similarity score sum using the said same object same location information, respectively. 2. The feature amount registration device according to 1.
前記特徴マッチング部では、前記疑似クエリ特徴集合の各第一要素につき、前記登録特徴候補集合の各第二要素との間でマッチングするか否かの判定を、当該第一要素との類似度の順位が前記登録特徴候補集合内での上位の所定位以内にある場合に、当該マッチングするものとして判定し、
前記上位の所定位以内にあるか否かの判定を行うに際して、当該判定の対象である第二要素との間で前記同一対象同一箇所情報の関係がある前記登録特徴候補集合の当該判定の対象である第二要素以外の第二要素を、前記上位の所定位に属しうる対象から除外することを特徴とする請求項2に記載の特徴量登録装置。
The feature matching unit determines, for each first element of the pseudo query feature set, whether or not to match with each second element of the registered feature candidate set, by determining a similarity degree with the first element. When the ranking is within a predetermined upper rank in the registered feature candidate set, it is determined that the matching is performed,
When making a determination as to whether or not it is within the upper predetermined position , the determination target of the registered feature candidate set having a relationship of the same target same location information with a second element that is the target of the determination 3. The feature amount registration apparatus according to claim 2, wherein the second element other than the second element is excluded from the targets that can belong to the upper predetermined position . 4.
前記類似度スコア計算部では、所定種類の重み付け和によって前記類似度スコア和を求めることを特徴とする請求項2又は3に記載の特徴量登録装置。 Wherein the similarity score calculation unit, the feature quantity registration device according to claim 2 or 3, characterized in that obtaining the similarity score sum by a predetermined type of weighted sum. 前記登録特徴生成部では、前記求めた類似度スコア和が最大となる前記登録特徴候補集合の要素を前記選択することを特徴とする請求項1ないしのいずれかに記載の特徴量登録装置。 The feature registration device according to any one of claims 1 to 4 , wherein the registered feature generation unit selects the element of the registered feature candidate set that maximizes the obtained similarity score sum. 前記登録特徴生成部では、前記選択された登録特徴候補集合の要素に対して、前記特徴マッチング部によってマッチングされている各要素に基づいて、前記登録特徴集合の要素を決定することを特徴とする請求項1ないしのいずれかに記載の特徴量登録装置。 The registered feature generation unit determines an element of the registered feature set based on each element matched by the feature matching unit with respect to an element of the selected registered feature candidate set. feature quantity registration device according to any one of claims 1 to 5. 前記登録特徴生成部では、前記選択された登録特徴候補集合の要素に対して、前記特徴マッチング部によってマッチングされている各要素を平均したものとして、前記登録特徴集合の要素を決定することを特徴とする請求項1ないしのいずれかに記載の特徴量登録装置。 The registered feature generation unit determines the registered feature set element by averaging each element matched by the feature matching unit with respect to the selected registered feature candidate set element. The feature registering device according to any one of claims 1 to 6 , wherein 入力画像より登録対象としての登録特徴集合を求める特徴量登録装置であって、
前記入力画像及び/又は当該入力画像を加工して得られる1つ以上の加工画像より疑似クエリ特徴集合を生成する疑似クエリ特徴生成部と、
登録特徴候補集合を生成する登録特徴候補生成部と、
前記疑似クエリ特徴集合の各要素と前記登録特徴候補集合の各要素との間でマッチングを行う特徴マッチング部と、
前記特徴マッチング部によるマッチング結果に基づき、前記登録特徴候補集合の各要素につき、前記疑似クエリ特徴集合の要素との間の類似度スコア和を求める類似度スコア計算部と、
前記求めた類似度スコア和に基づいて選択される前記登録特徴候補集合の要素を用いて、前記登録特徴集合の要素を決定することで、前記登録特徴集合を求める登録特徴生成部と、を備え、
前記登録特徴生成部では、前記選択された登録特徴候補集合の要素に対して、前記特徴マッチング部によってマッチングされている各要素を平均したものを求め、当該平均した要素によって前記登録特徴候補集合を暫定更新した暫定更新集合を対象として前記特徴マッチング部及び前記類似度スコア計算部による処理を適用することで当該平均した要素について計算される類似度スコア和が、前記選択された登録特徴候補集合の要素における類似度スコア和よりも小さくなる場合、前記選択された登録特徴候補集合の要素をそのまま前記登録特徴集合の要素として採用し、当該小さくならない場合、前記平均した要素を前記登録特徴集合の要素として採用することを特徴とする特徴量登録装置。
A feature amount registration device for obtaining a registered feature set as a registration target from an input image,
A pseudo query feature generation unit that generates a pseudo query feature set from the input image and / or one or more processed images obtained by processing the input image;
A registered feature candidate generating unit that generates a registered feature candidate set;
A feature matching unit that performs matching between each element of the pseudo query feature set and each element of the registered feature candidate set,
A similarity score calculation unit that calculates a sum of similarity scores between elements of the pseudo query feature set for each element of the registered feature candidate set based on a matching result by the feature matching unit;
A registered feature generation unit that determines the registered feature set by determining an element of the registered feature set by using an element of the registered feature candidate set selected based on the obtained similarity score sum. ,
In the registered feature generation unit, for the elements of the selected registered feature candidate set, an average of each element matched by the feature matching unit is obtained, and the registered feature candidate set is determined by the averaged element. A similarity score sum calculated for the averaged element by applying the processing by the feature matching unit and the similarity score calculation unit to the provisionally updated set that has been provisionally updated, and the sum of similarity scores calculated for the selected registered feature candidate set If the element is smaller than the sum of the similarity scores of the elements, the element of the selected registered feature candidate set is adopted as the element of the registered feature set as it is, and if not smaller, the averaged element is the element of the registered feature set. A feature amount registration apparatus characterized in that the feature amount registration apparatus is adopted.
入力画像より登録対象としての登録特徴集合を求める特徴量登録装置であって、
前記入力画像及び/又は当該入力画像を加工して得られる1つ以上の加工画像より疑似クエリ特徴集合を生成する疑似クエリ特徴生成部と、
登録特徴候補集合を生成する登録特徴候補生成部と、
前記疑似クエリ特徴集合の各要素と前記登録特徴候補集合の各要素との間でマッチングを行う特徴マッチング部と、
前記特徴マッチング部によるマッチング結果に基づき、前記登録特徴候補集合の各要素につき、前記疑似クエリ特徴集合の要素との間の類似度スコア和を求める類似度スコア計算部と、
前記求めた類似度スコア和に基づいて選択される前記登録特徴候補集合の要素を用いて、前記登録特徴集合の要素を決定することで、前記登録特徴集合を求める登録特徴生成部と、を備え、
前記登録特徴生成部では、前記登録特徴集合の要素を1つずつ決定し、当該決定する都度、当該決定された要素に対応する前記疑似クエリ特徴集合の要素による寄与分を前記類似度スコア和から減算することで当該類似度スコア和を更新すると共に、当該更新された類似度スコア和に基づいて、且つ、前記決定された要素に対応する前記疑似クエリ特徴集合の要素は以降に前記登録特徴集合の要素を決定するための参照対象からは除外することで、前記登録特徴集合の要素の次の1つをさらに決定することを所定回数繰り返すことを特徴とする特徴量登録装置。
A feature amount registration device for obtaining a registered feature set as a registration target from an input image,
A pseudo query feature generation unit that generates a pseudo query feature set from the input image and / or one or more processed images obtained by processing the input image;
A registered feature candidate generating unit that generates a registered feature candidate set;
A feature matching unit that performs matching between each element of the pseudo query feature set and each element of the registered feature candidate set,
A similarity score calculation unit that calculates a sum of similarity scores between elements of the pseudo query feature set for each element of the registered feature candidate set based on a matching result by the feature matching unit;
A registered feature generation unit that determines the registered feature set by determining an element of the registered feature set by using an element of the registered feature candidate set selected based on the obtained similarity score sum. ,
In the registered feature generation unit, the elements of the registered feature set are determined one by one, and each time the determination is performed, the contribution by the element of the pseudo query feature set corresponding to the determined element is determined from the similarity score sum. The similarity score sum is updated by subtraction, and the elements of the pseudo query feature set corresponding to the determined elements based on the updated similarity score sum are subsequently registered feature sets. A feature registration apparatus characterized in that the determination of the next element of the registered feature set is repeated a predetermined number of times by excluding the element from the reference target for determining the element.
前記登録特徴候補生成部では、前記疑似クエリ特徴生成部で生成された疑似クエリ特徴集合を、または、前記登録特徴生成部が既に生成した登録特徴を、前記登録特徴候補集合として採用することを特徴とする請求項1ないしのいずれかに記載の特徴量登録装置。 The registered feature candidate generating unit adopts a pseudo query feature set generated by the pseudo query feature generating unit or a registered feature already generated by the registered feature generating unit as the registered feature candidate set. The feature registering device according to any one of claims 1 to 9 , wherein 前記加工画像の各々は、前記入力画像を幾何変換したものとして、及び/又は、前記入力画像に写っている物体のテクスチャを含む所定の3Dデータに基づくンダリングを行ったものとして、得られる画像であることを特徴とする請求項1ないし10のいずれかに記載の特徴量登録装置。 Wherein each of the processed image as obtained by geometric transformation of the input image, and / or, as having been subjected to the rendering based on a predetermined 3D data including texture of the object is reflected in the input image, the resulting image The feature registration device according to any one of claims 1 to 10 , wherein 入力画像より登録対象としての登録特徴集合を求める特徴量登録方法であって、
前記入力画像及び/又は当該入力画像を加工して得られる1つ以上の加工画像より疑似クエリ特徴集合を生成する疑似クエリ特徴生成段階と、
登録特徴候補集合を生成する登録特徴候補生成段階と、
前記疑似クエリ特徴集合の各要素と前記登録特徴候補集合の各要素との間で当該要素同士の位置情報が含まれない局所特徴量同士の類似度に基づいてマッチングを行う特徴マッチング段階と、
前記登録特徴候補集合の各要素につき、前記疑似クエリ特徴集合の要素との間の類似度スコア和を、前記特徴マッチング段階によるマッチング結果でマッチング判定された個数が少なくとも反映されたものとして求める類似度スコア計算段階と、
前記求めた類似度スコア和に基づいて選択される前記登録特徴候補集合の要素を用いて、前記登録特徴集合の要素を決定することで、前記登録特徴集合を求める登録特徴生成段階と、を備えることを特徴とする特徴量登録方法。
A feature amount registration method for obtaining a registered feature set as a registration target from an input image,
A pseudo query feature generation step of generating a pseudo query feature set from the input image and / or one or more processed images obtained by processing the input image;
A registered feature candidate generating step of generating a registered feature candidate set;
A feature matching step of performing a matching between each element of the pseudo query feature set and each element of the registered feature candidate set based on the similarity between local feature amounts not including positional information of the elements ,
For each element of the registered feature candidate set, a similarity score for obtaining a sum of similarity scores between the elements of the pseudo query feature set and at least the number of matches determined by the matching result in the feature matching step is reflected Score calculation stage,
Using the elements of the registered feature candidate set selected based on the obtained similarity score sum to determine the registered feature set elements, thereby obtaining the registered feature set. A feature registration method.
コンピュータを請求項1ないし11のいずれかに記載の特徴量登録装置として機能させることを特徴とするプログラム。 A program for causing a computer to function as the feature amount registration device according to any one of claims 1 to 11 .
JP2017011051A 2017-01-25 2017-01-25 Feature amount registration device, method and program Active JP6674393B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017011051A JP6674393B2 (en) 2017-01-25 2017-01-25 Feature amount registration device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017011051A JP6674393B2 (en) 2017-01-25 2017-01-25 Feature amount registration device, method and program

Publications (2)

Publication Number Publication Date
JP2018120395A JP2018120395A (en) 2018-08-02
JP6674393B2 true JP6674393B2 (en) 2020-04-01

Family

ID=63043840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017011051A Active JP6674393B2 (en) 2017-01-25 2017-01-25 Feature amount registration device, method and program

Country Status (1)

Country Link
JP (1) JP6674393B2 (en)

Also Published As

Publication number Publication date
JP2018120395A (en) 2018-08-02

Similar Documents

Publication Publication Date Title
CN111795704B (en) Method and device for constructing visual point cloud map
Melekhov et al. Dgc-net: Dense geometric correspondence network
CN113012212B (en) Depth information fusion-based indoor scene three-dimensional point cloud reconstruction method and system
CN107481279B (en) Monocular video depth map calculation method
US8712156B2 (en) Comparison of visual information
WO2019178702A9 (en) Systems and methods for polygon object annotation and a method of training an object annotation system
Truong et al. Pdc-net+: Enhanced probabilistic dense correspondence network
CN109493417B (en) Three-dimensional object reconstruction method, device, equipment and storage medium
JP6320649B1 (en) Machine learning device and image recognition device
Irschara et al. Towards wiki-based dense city modeling
CN109493297B (en) Low-quality face image enhancement method, system, equipment and storage medium
US11714921B2 (en) Image processing method with ash code on local feature vectors, image processing device and storage medium
CN109842811B (en) Method and device for implanting push information into video and electronic equipment
Dey et al. Learning cross-modal deep embeddings for multi-object image retrieval using text and sketch
Zhou et al. Attention transfer network for nature image matting
CN116189265A (en) Sketch face recognition method, device and equipment based on lightweight semantic transducer model
JP2017151797A (en) Geometry verification device, program and method
JPWO2013089260A1 (en) Image processing system and image processing method
Hoshen et al. Identifying analogies across domains
JP6403201B2 (en) Image feature registration apparatus, method, and program
CN115661218B (en) Virtual super-point-based laser point cloud registration method and system
JP6674393B2 (en) Feature amount registration device, method and program
CN112508776B (en) Action migration method and device and electronic equipment
CN115409896A (en) Pose prediction method, pose prediction device, electronic device and medium
CN111695526B (en) Network model generation method, pedestrian re-recognition method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200306

R150 Certificate of patent or registration of utility model

Ref document number: 6674393

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150