JP6601965B2 - Program, apparatus and method for quantizing using search tree - Google Patents
Program, apparatus and method for quantizing using search tree Download PDFInfo
- Publication number
- JP6601965B2 JP6601965B2 JP2016164371A JP2016164371A JP6601965B2 JP 6601965 B2 JP6601965 B2 JP 6601965B2 JP 2016164371 A JP2016164371 A JP 2016164371A JP 2016164371 A JP2016164371 A JP 2016164371A JP 6601965 B2 JP6601965 B2 JP 6601965B2
- Authority
- JP
- Japan
- Prior art keywords
- node
- distribution
- mixed
- search tree
- nodes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Description
本発明は、入力データに対して、量子化対象データを特定する技術に関する。特に、リファレンスコンテンツ(検索対象のコンテンツ)の集合から、クエリコンテンツ(検索キーとなるコンテンツ)に類似したリファレンスコンテンツを検索する技術に適用することができる。 The present invention relates to a technique for specifying quantization target data for input data. In particular, the present invention can be applied to a technique for searching for reference content similar to query content (content serving as a search key) from a set of reference content (content to be searched).
近年、局所特徴点に基づいた画像認識や検索技術が注目されている(例えば特許文献1参照)。物体認識に用いる特徴ベクトルの抽出アルゴリズムとしては、回転やスケールの変化にロバストな、例えばSIFT(Scale-Invariant Feature Transform)(例えば非特許文献1参照)やSURF(Speeded Up Robust Features)が用いられる。例えば、SIFTの場合、1枚の画像からは128次元の特徴ベクトルの集合が抽出される。SIFTとは、スケールスペースを用いて特徴的な局所領域を解析し、そのスケール変化及び回転に不変となる特徴ベクトルを記述する技術である。一方で、SURFの場合、SIFTよりも高速処理が可能であって、1枚の画像から64次元の特徴ベクトルの集合が抽出される。SIFTは、処理コストが高く且つリアルタイムマッチングが困難であるのに対し、SURFは、積分画像を利用することによって処理を高速化している。 In recent years, image recognition and search techniques based on local feature points have attracted attention (for example, see Patent Document 1). As a feature vector extraction algorithm used for object recognition, for example, SIFT (Scale-Invariant Feature Transform) (see, for example, Non-Patent Document 1) or SURF (Speeded Up Robust Features), which is robust to changes in rotation and scale, is used. For example, in the case of SIFT, a set of 128-dimensional feature vectors is extracted from one image. SIFT is a technique for analyzing a characteristic local region using a scale space and describing a feature vector that is invariant to scale change and rotation. On the other hand, in the case of SURF, higher-speed processing is possible than SIFT, and a set of 64-dimensional feature vectors is extracted from one image. While SIFT has a high processing cost and is difficult to perform real-time matching, SURF uses an integral image to speed up the processing.
また、スマートフォンやタブレットのようなモバイル端末が普及する中で、コンテンツ検索処理に対して、更なる省メモリ化及び高速マッチング化が要求されてきている。特に、拡張現実感(AR(Augmented Reality))の用途における画像認識の技術分野によれば、リアルタイムに処理するべく、SIFTやSURFよりも更に高速にコンテンツを検索することが要求される。そのために、バイナリ特徴ベクトル抽出アルゴリズムであるORB(例えば非特許文献2参照)やFREAK(例えば非特許文献3参照)が注目されている。これは、SIFTやSURFよりも特徴ベクトルを高速に抽出でき、更に抽出される特徴ベクトルもコンパクトにすることができる。 In addition, as mobile terminals such as smartphones and tablets have become widespread, further memory saving and faster matching have been required for content search processing. In particular, according to the technical field of image recognition in the use of augmented reality (AR), it is required to search for content at a higher speed than SIFT or SURF in order to perform real-time processing. For this purpose, attention is paid to ORB (for example, see Non-Patent Document 2) and FREEAK (for example, Non-Patent Document 3) which are binary feature vector extraction algorithms. This makes it possible to extract feature vectors at a higher speed than SIFT and SURF, and to make the extracted feature vectors more compact.
局所特徴点に基づいた画像認識では、特徴点同士のマッチングの処理コストが高いため、BoVW(Bag-of-Visual Words)と称されるフレームワークが広く利用されている(例えば非特許文献1、4参照)。BoVWでは、予め大量の訓練ベクトルの集合から、VW(Visual Words)と称される代表的なベクトルの集合を、k-means等のクラスタリングアルゴリズムを用いて生成する。そして、各特徴ベクトルは、最も類似するVWに量子化される。同じVWに量子化された特徴ベクトルはマッチしたと判断され、異なるVWに量子化された特徴ベクトルはマッチしないと判断される。これによって、データベース中の特徴ベクトルの数に基づかないマッチングが可能となる。
In image recognition based on local feature points, since the processing cost of matching between feature points is high, a framework called BoVW (Bag-of-Visual Words) is widely used (for example, Non-Patent
また、訓練ベクトルを混合ベルヌーイ分布でモデル化し、フィッシャーベクトルを導出することによって、コンテンツを1つの特徴ベクトルで表現して検索する技術もある(例えば特許文献2参照)。この技術によれば、フィッシャーベクトルによって画像間の類似度を算出することはできるが、特徴点のマッチング結果を取得することはできない。 In addition, there is a technique in which content is represented by one feature vector and searched by modeling a training vector with a mixed Bernoulli distribution and deriving a Fisher vector (see, for example, Patent Document 2). According to this technique, the similarity between images can be calculated by the Fisher vector, but the matching result of the feature points cannot be acquired.
図1は、量子化処理を表す説明図である。 FIG. 1 is an explanatory diagram illustrating a quantization process.
図1によれば、クエリコンテンツ及びリファレンスコンテンツから導出されたバイナリ特徴ベクトルと、訓練コンテンツから導出されたコードブック(量子化対象データ、代表ベクトル)とのマッチングを表している。コードブックは、訓練コンテンツから予め作成されたものであり、量子化対象データとして複数のVW(代表ベクトル)の集合からなる。VWもバイナリ特徴ベクトルで表現されている。クエリコンテンツのバイナリ特徴ベクトルと、リファレンスコンテンツのバイナリ特徴ベクトルとはそれぞれ、コードブックの中で、ハミング距離が最も近いVWに紐付けられる。そして、同一のVWに紐付けられたバイナリ特徴ベクトル同士は、マッチングしたと認識される。 FIG. 1 shows matching between a binary feature vector derived from query content and reference content and a code book (quantization target data, representative vector) derived from training content. The code book is created in advance from training content, and consists of a set of a plurality of VWs (representative vectors) as quantization target data. VW is also expressed by a binary feature vector. The binary feature vector of the query content and the binary feature vector of the reference content are each linked to the VW having the shortest Hamming distance in the code book. The binary feature vectors associated with the same VW are recognized as matched.
非特許文献4に記載の技術によれば、BoVWのコードブックの生成について、従来の非バイナリ特徴と同様に、k-meansアルゴリズムを用いている。このk-meansアルゴリズムは、特徴ベクトル分布として暗に混合ガウス分布を仮定している。
しかしながら、バイナリ特徴ベクトルは、0/1の値しか取らない。バイナリ特徴ベクトルの分布を考慮せずに生成されたコードブックは、量子化誤差が大きく、最終的に特徴点同士のマッチング精度が低下するという問題がある。
According to the technique described in Non-Patent
However, binary feature vectors only take values of 0/1. Codebooks generated without considering the distribution of binary feature vectors have a problem that the quantization error is large, and the matching accuracy between feature points ultimately decreases.
また、特許文献2に記載の技術によれば、訓練コンテンツのバイナリ特徴ベクトルをモデル化しているが、コンテンツを1つの特徴ベクトルで表現している。そのために、局所特徴点間のマッチングの結果を得られないという問題がある。
高精度な検索結果を得るためには、クエリコンテンツとリファレンスコンテンツとの間の幾何的な整合性は、一般的に、局所特徴点間のマッチングの結果を用いて検証されている(例えば非特許文献5参照)。しかしながら、特許文献2に記載の技術によれば、このような幾何的な整合性を検証することはできない。
Further, according to the technique described in
In order to obtain a high-precision search result, the geometric consistency between the query content and the reference content is generally verified using the result of matching between local feature points (for example, non-patented). Reference 5). However, according to the technique described in
ここで、本願の発明者らは、モデル化された複数の量子化対象データ(例えばコードブック内のBoVW)を選定した上で、入力データに対して、できる限り最適な量子化対象データを特定することができないか?と考えた。特に、入力データと量子化対象データとの間の類似度が高いものを単にマッチングさせることなく、量子化対象データである混合分布に応じて、できる限り最適な量子化対象データにマッチングさせることができないか?と考えた。 Here, the inventors of the present application select a plurality of modeled data to be quantized (for example, BoVW in a code book), and specify the most suitable data to be quantized for input data as much as possible. Can't you? I thought. In particular, it is possible to match the optimal data to be quantized as much as possible according to the mixture distribution that is the data to be quantized, without simply matching the data having high similarity between the input data and the data to be quantized. Can't you? I thought.
そこで、本発明は、量子化対象データである混合分布に応じて、入力データに対して最適な量子化対象データをマッチングさせることができるプログラム、装置及び方法を提供することを目的とする。 Therefore, an object of the present invention is to provide a program, an apparatus, and a method that can match optimal quantization target data to input data according to a mixture distribution that is quantization target data.
本発明によれば、入力データxに対して、量子化対象となる複数のノードi(=1〜N)の中から1つ以上のノードiを特定するようにコンピュータを機能させるプログラムにおいて、
ルートノードから順に、各ノードiに混合分布の混合要素Piが紐付けられた探索木を記憶した探索木記憶手段と、
入力データxについて、探索木のルートノードから順に、各ノードiの混合分布P(x)に基づく尤度Pi(x)が大きい方のノード側を探索し、尤度Pi(x)に基づく事後確率γi(x)が所定閾値以上又は上位所定件数のノードiを特定する量子化手段と
してコンピュータを機能させることを特徴とする。
According to the present invention, in a program that causes a computer to function to identify one or more nodes i from among a plurality of nodes i (= 1 to N) to be quantized with respect to input data x,
From the root node sequentially, and the search tree storing means mixing elements P i in the mixture distribution to each node i and stored by the search tree tied,
For the input data x, in order from the root node of the search tree, the node having the larger likelihood P i (x) based on the mixture distribution P (x) of each node i is searched, and the likelihood P i (x) is obtained. The computer is caused to function as a quantizing means for specifying nodes i having a posterior probability γ i (x) based on a predetermined threshold value or higher or a predetermined upper number.
本発明のプログラムにおける他の実施形態によれば、
混合分布P(x)は、ノードiの混合比wiに基づくP(x)=Σi=1 NwiPi(x)であり、
事後確率γi(x)は、γi(x)=wiPi(x)/(Σi=1 NwiPi(x))である
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
The mixture distribution P (x) is P (x) = Σ i = 1 N w i P i (x) based on the mixture ratio w i of the node i,
It is also preferable to make the computer function such that the posterior probability γ i (x) is γ i (x) = w i P i (x) / (Σ i = 1 N w i P i (x)).
本発明のプログラムにおける他の実施形態によれば、
量子化手段は、探索木を深さ優先で探索するものであって、
現に未探索ノードiにおける尤度Pi(x)を、優先度付きキューに記憶し、
優先度付きキューに記憶された尤度Pi(x)が最も高い未探索ノードから順に、再帰的に探索する
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
The quantization means searches the search tree with depth priority,
The likelihood P i (x) in the unsearched node i is actually stored in the priority queue,
It is also preferable to make the computer function so as to search recursively in order from the unsearched node having the highest likelihood P i (x) stored in the priority queue.
本発明のプログラムにおける他の実施形態によれば、
探索木は、ルートノードに対し、ランダムに選択されたK個(K≧1)の混合要素P1〜PKを子ノードとして接続し、選択されなかった混合要素Piを、P1〜PKに対応したノードに更に紐付けることを再帰的に繰り返すことによって、探索木を作成する探索木作成手段と
して更にコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
The search tree connects K mixed elements P 1 to P K selected at random (K ≧ 1) as child nodes to the root node, and the unselected mixed elements P i are connected to P 1 to P It is also preferable to further cause the computer to function as search tree creation means for creating a search tree by recursively repeating the association with the node corresponding to K.
本発明のプログラムにおける他の実施形態によれば、
探索木作成手段は、選択されなかった混合要素Piを、P1〜PKに対応したノードに紐付ける際に、PiとPj∈P1,・・・,PKの間の非類似度尺度として、KL(Kullback Leibler)ダイバージェンス又はJS(Jensen Shannon)ダイバージェンスを用いる
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
Search tree generating means, a mixing element P i that have not been selected, when attaching the cord to the node corresponding to P 1 to P K, P i and P j ∈P 1, ···, non between P K It is also preferable to make the computer function so as to use KL (Kullback Leibler) divergence or JS (Jensen Shannon) divergence as the similarity measure.
本発明のプログラムにおける他の実施形態によれば、
混合分布P(x)は、混合ベルヌーイ分布、混合ガウス分布、混合多項分布、混合ディリクレ分布、又は、混合ラプラス分布である
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
It is also preferable to cause the computer to function so that the mixed distribution P (x) is a mixed Bernoulli distribution, a mixed Gaussian distribution, a mixed multinomial distribution, a mixed Dirichlet distribution, or a mixed Laplace distribution.
本発明のプログラムにおける他の実施形態によれば、
入力された訓練コンテンツ、リファレンスコンテンツ及びクエリコンテンツそれぞれについて、バイナリ特徴ベクトルの集合を抽出するバイナリ特徴ベクトル抽出手段と、
訓練コンテンツのバイナリ特徴ベクトルの集合について、混合分布P(x)に関する混合比wiを含むモデルパラメータλを算出するモデル推定手段と、
モデルパラメータλを記憶するモデルパラメータ記憶手段と
してコンピュータを機能させ、
量子化手段は、リファレンスコンテンツ又はクエリコンテンツのバイナリ特徴ベクトルについて、モデルパラメータλを用いてノードiを特定し、
リファレンスコンテンツの各バイナリ特徴ベクトルについて、量子化手段で特定された1つ以上のノードの識別子iに対応する転置インデックスのリストにバイナリ特徴ベクトルの情報を記憶する転置インデックス記憶手段と、
クエリコンテンツの各バイナリ特徴ベクトルについて、量子化手段で特定された1つ以上のノードの識別子iに対応する転置インデックスのリストを探索し、リストに記憶されているバイナリ特徴ベクトルに対応したリファレンスコンテンツに対しスコアを累積し、累積されたスコアを類似度としてリファレンスコンテンツを検索する検索手段と
して更にコンピュータを機能させ、クエリコンテンツに類似したリファレンスコンテンツを検索することも好ましい。
According to another embodiment of the program of the present invention,
Binary feature vector extraction means for extracting a set of binary feature vectors for each of the input training content, reference content and query content;
Model estimation means for calculating a model parameter λ including a mixture ratio w i for the mixture distribution P (x) for a set of binary feature vectors of training content;
Causing the computer to function as model parameter storage means for storing the model parameter λ,
The quantization means specifies the node i using the model parameter λ for the binary feature vector of the reference content or the query content,
For each binary feature vector of the reference content, transposed index storage means for storing information of the binary feature vector in a list of transposed indexes corresponding to the identifier i of one or more nodes specified by the quantizing means;
For each binary feature vector of the query content, a list of transposed indexes corresponding to the identifier i of one or more nodes specified by the quantization means is searched, and the reference content corresponding to the binary feature vector stored in the list is searched. It is also preferable to search the reference content similar to the query content by accumulating the score, and further causing the computer to function as search means for searching the reference content using the accumulated score as the similarity.
本発明のプログラムにおける他の実施形態によれば、
混合分布P(x)が、混合ベルヌーイ分布である場合、
モデルパラメータλは、ノードiの混合ベルヌーイ分布に関する混合比wiと、ノードiの混合ベルヌーイ分布のd(1≦d≦D)番目のパラメータμidとであり、
量子化手段は、混合比wiとパラメータμidとを用いて、各ノードiに対応する混合分布Piを特定する
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
When the mixed distribution P (x) is a mixed Bernoulli distribution,
The model parameter λ is the mixture ratio w i for the mixed Bernoulli distribution at node i and the d (1 ≦ d ≦ D) th parameter μ id of the mixed Bernoulli distribution at node i,
It is also preferable that the quantization means causes the computer to function so as to specify the mixture distribution P i corresponding to each node i using the mixture ratio w i and the parameter μ id .
本発明のプログラムにおける他の実施形態によれば、
モデル推定手段は、訓練コンテンツのバイナリ特徴ベクトルの集合x1〜xTから、
E(Expectation)ステップについて、バイナリ特徴ベクトルxi毎に潜在変数iの事後確率γt(i)=wiPi(x)/(Σi=1 NwiPi(x))を推定し、
M(Maximization)ステップについて、事後確率γt(i)を用いて、混合比wi及びパラメータμiを更新し、
これらEステップ及びMステップを、収束するまで又は一定回数繰り返すことによって、混合比wi及びパラメータμidのパラメータ群λを算出する
λ=(w1、・・・、wN及びμ11、・・・、μND)
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
The model estimation means uses a set of binary feature vectors x 1 to x T of training content,
For the E (Expectation) step, estimate the posterior probability γ t (i) = w i P i (x) / (Σ i = 1 N w i P i (x)) of the latent variable i for each binary feature vector x i And
For the M (Maximization) step, update the mixture ratio w i and parameter μ i using the posterior probability γ t (i),
The parameter group λ of the mixture ratio w i and the parameter μ id is calculated by repeating these E step and M step until convergence or a certain number of times. Λ = (w 1 ,..., W N and μ 11 ,. .., μ ND )
It is also preferable to make the computer function.
本発明によれば、入力データxに対して、量子化対象となる複数のノードi(=1〜N)の中から1つ以上のノードiを特定する量子化装置において、
ルートノードから順に、各ノードiに混合分布の混合要素Piが紐付けられた探索木を記憶した探索木記憶手段と、
入力データxについて、探索木のルートノードから順に、各ノードiの混合分布P(x)に基づく尤度Pi(x)が大きい方のノード側を探索し、尤度Pi(x)に基づく事後確率γi(x)が所定閾値以上又は上位所定件数のノードiを特定する量子化手段と
を有することを特徴とする。
According to the present invention, in the quantizing device for identifying one or more nodes i among a plurality of nodes i (= 1 to N) to be quantized with respect to input data x,
From the root node sequentially, and the search tree storing means mixing elements P i in the mixture distribution to each node i and stored by the search tree tied,
For the input data x, in order from the root node of the search tree, the node having the larger likelihood P i (x) based on the mixture distribution P (x) of each node i is searched, and the likelihood P i (x) is obtained. And a quantizing unit that identifies nodes i having a posterior probability γ i (x) based on a predetermined threshold or higher or a predetermined upper number.
本発明によれば、入力データxに対して、量子化対象となる複数のノードi(=1〜N)の中から1つ以上のノードiを特定する装置の量子化方法において、
装置は、ルートノードから順に、各ノードiに混合分布の混合要素Piが紐付けられた探索木を記憶した探索木記憶部を有し、
装置は、入力データxについて、探索木のルートノードから順に、各ノードiの混合分布P(x)に基づく尤度Pi(x)が大きい方のノード側を探索し、尤度Pi(x)に基づく事後確率γi(x)が所定閾値以上又は上位所定件数のノードiを特定する
ことを特徴とする。
According to the present invention, in the quantization method of an apparatus for identifying one or more nodes i from among a plurality of nodes i (= 1 to N) to be quantized with respect to input data x,
The apparatus includes a search tree storage unit that stores a search tree in which mixed elements P i of a mixed distribution are linked to each node i in order from the root node,
For the input data x, in order from the root node of the search tree, the apparatus searches the node side with the higher likelihood P i (x) based on the mixture distribution P (x) of each node i, and the likelihood P i ( The a posteriori probability γ i (x) based on x) is specified to be a predetermined threshold value or higher or a predetermined number of nodes i.
本発明のプログラム、装置及び方法によれば、量子化対象データである混合分布に応じて、入力データに対して最適な量子化対象データをマッチングさせることができる。 According to the program, apparatus, and method of the present invention, optimal quantization target data can be matched to input data according to the mixture distribution that is quantization target data.
以下、本発明の実施の形態について、図面を用いて詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
本発明の本質的な部分は、入力データに対する「量子化機能」にある。量子化機能とは、入力データxに対して、複数の量子化対象データの中から1つ以上の量子化対象データを特定するものである。ここで、本発明によれば、コードブックの量子化対象データは、混合分布の混合要素Piが紐付けられた探索木として記憶されている。探索木は、訓練コンテンツのバイナリ特徴ベクトルの分布をモデル化した混合分布(例えば混合ベルヌーイ分布)に基づいて、コードブックの量子化対象データ(例えばVW)を木構造に構成したものである。この木構造を用いて量子化することで、入力データを全ての量子化対象データと比較する必要がなくなるため、高速に量子化することができる。 An essential part of the present invention is the “quantization function” for the input data. The quantization function is to specify one or more quantization target data from among a plurality of quantization target data for input data x. Here, according to the present invention, the quantization target data of the code book is stored as a search tree in which the mixed elements P i of the mixed distribution are linked. The search tree is a codebook quantization target data (for example, VW) configured in a tree structure based on a mixed distribution (for example, mixed Bernoulli distribution) that models the distribution of binary feature vectors of training content. By quantizing using this tree structure, it is not necessary to compare the input data with all the data to be quantized, so that it can be quantized at high speed.
本発明の量子化機能によれば、入力データxについて、探索木のルートノードから順に、各量子化対象データ(ノード)iの混合分布P(x)に基づく尤度Pi(x)が大きい方のノード側を探索し、尤度Pi(x)に基づく事後確率γi(x)が所定閾値以上又は上位所定件数の量子化対象データiを特定する。入力データxを、特定された量子化対象データiに紐付けることができる。 According to the quantization function of the present invention, for input data x, the likelihood P i (x) based on the mixture distribution P (x) of each quantization target data (node) i is large in order from the root node of the search tree. The other node side is searched, and the quantization target data i whose posterior probability γ i (x) based on the likelihood P i (x) is equal to or higher than a predetermined threshold or the upper predetermined number is specified. The input data x can be linked to the specified quantization target data i.
図2は、本発明におけるコンテンツの検索装置の機能構成図である。 FIG. 2 is a functional configuration diagram of the content search apparatus according to the present invention.
図2によれば、検索装置1は、バイナリ特徴ベクトル抽出部11と、モデル推定部12と、モデルパラメータ記憶部13と、探索木作成部14と、探索木記憶部15と、量子化部16と、転置インデックス記憶部17と、検索部18とを有する。これら機能構成部は、装置に搭載されたコンピュータを機能させるプログラムを実行することによって実現される。また、これら機能構成部の処理の流れは、装置の量子化方法としても理解できる。
According to FIG. 2, the
図2によれば、検索装置1には、訓練コンテンツ、リファレンスコンテンツ及びクエリコンテンツが入力される。ここで、コンテンツは、例えば画像であってもよい。その場合、検索装置1は、多数の訓練画像からモデルパラメータ及び探索木を作成し、クエリ画像に類似するリファレンス画像を検索することができる。
According to FIG. 2, training content, reference content, and query content are input to the
図2によれば、前述した機能構成部は、各フェーズに応じて機能する。フェーズとしては、3つのフェーズがある。
<訓練フェーズ>
バイナリ特徴ベクトル抽出部11、モデル推定部12、
モデルパラメータ記憶部13、探索木作成部14、探索木記憶部15
<インデックス構築フェーズ>
バイナリ特徴ベクトル抽出部11、量子化部16、転置インデックス記憶部17
<検索フェーズ>
バイナリ特徴ベクトル抽出部11、量子化部16、検索部18
According to FIG. 2, the above-described functional configuration unit functions in accordance with each phase. There are three phases.
<Training phase>
A binary feature
Model
<Index construction phase>
Binary feature
<Search phase>
Binary feature
<訓練フェーズ>
訓練フェーズによれば、検索装置1は、多数の訓練コンテンツを入力し、訓練コンテンツ毎にバイナリ特徴ベクトルの集合を抽出する。そして、バイナリ特徴ベクトルの集合を用いて混合分布のモデルパラメータを推定すると共に、モデルパラメータを用いて量子化処理の際に参照される探索木を生成する。
<Training phase>
According to the training phase, the
<インデックス構築フェーズ>
インデックス構築フェーズによれば、検索装置1は、多数のリファレンスコンテンツ(検索対象のコンテンツ)を入力し、リファレンスコンテンツ毎にバイナリ特徴ベクトルの集合を抽出する。そして、バイナリ特徴ベクトル毎に、モデルパラメータ及び探索木を用いて量子化処理を実行する。その結果、特定された量子化対象データは、検索用の転置インデックスとして記憶される。
<Index construction phase>
According to the index construction phase, the
<検索フェーズ>
検索フェーズによれば、検索装置1は、クエリコンテンツ(検索キーのコンテンツ)を入力し、クエリコンテンツからバイナリ特徴ベクトルの集合を抽出する。次に、バイナリ特徴ベクトル毎に、モデルパラメータ及び探索木を用いて量子化処理を実行する。その結果、特定された量子化対象データから、転置インデックスを参照して、最も類似するリファレンスコンテンツを検索する。
尚、本発明の本質的な機能構成は、「検索フェーズ」にあって、入力データxに対して、量子化対象となる複数のノードi(=1〜N)の中から1つ以上のノードiを特定することにある。
<Search phase>
According to the search phase, the
The essential functional configuration of the present invention is in the “search phase”, and for the input data x, one or more nodes among a plurality of nodes i (= 1 to N) to be quantized. To identify i.
以下では、検索装置1の機能構成部毎に、詳述する。
Below, it explains in full detail for every function structure part of the
[バイナリ特徴ベクトル抽出部11]<訓練・インデックス構築・検索フェーズ>
バイナリ特徴ベクトル抽出部11は、入力された訓練コンテンツ、リファレンスコンテンツ及びクエリコンテンツそれぞれについて、バイナリ特徴ベクトルの集合を抽出する。
訓練フェーズの場合、抽出されたバイナリ特徴ベクトルの集合は、モデル推定部12へ出力される。
インデックス構築フェーズ及び検索フェーズの場合、抽出されたバイナリ特徴ベクトルの集合は、量子化部16へ出力される。
[Binary Feature Vector Extraction Unit 11] <Training / Index Construction / Search Phase>
The binary feature
In the training phase, the set of extracted binary feature vectors is output to the
In the index construction phase and the search phase, the set of extracted binary feature vectors is output to the
バイナリ特徴ベクトル抽出部11は、任意のバイナリ特徴ベクトル抽出アルゴリズムによってバイナリ局所特徴の集合を抽出する。本発明によれば、バイナリ特徴ベクトルの抽出アルゴリズムとして、ORB(Oriented FAST and Rotated BRIEF)を用いることが好ましい。ORBの場合、1つのコンテンツから256ビットのバイナリ特徴ベクトルの集合が抽出される。
ORBは、高速にマッチングを実行するべく、BRIEF(Binary Robust Independent Elementary Features)に回転不変性を導入し、バイナリコードによる特徴記述をしたものである。ORBによれば、SIFTやSURFと比較して、同等以上の精度を保持すると共に、数百倍の高速化を実現することができる。
勿論、ORBに限られず、FREAK(Fast Retina Keypoint)、BRISK、AKAZEと称される任意のバイナリ特徴ベクトルを用いることもできる。
The binary feature
ORB introduces rotation invariance into BRIEF (Binary Robust Independent Elementary Features) and performs feature description by binary code in order to execute matching at high speed. According to the ORB, it is possible to maintain an accuracy equal to or higher than that of SIFT or SURF and realize a speed increase of several hundred times.
Of course, it is not limited to the ORB, and any binary feature vector called FRAK (Fast Retina Keypoint), BRISK, or AKAZE can also be used.
<ORBについて>
ORBは、「特徴点検出処理」と「特徴ベクトル記述処理」との2つのステップから構成される。
<About ORB>
The ORB is composed of two steps of “feature point detection processing” and “feature vector description processing”.
(特徴点検出処理)
ORBにおける特徴点検出処理によれば、高速にキーポイントを検出するためにFAST(Features from Accelerated Segment Test)を用いる。また、FASTでは、スケール変化に対してロバストではないため、画像を複数のサイズに変換し、それぞれのサイズの画像から特徴点を抽出する。
(Feature point detection processing)
According to the feature point detection process in the ORB, FAST (Features from Accelerated Segment Test) is used to detect key points at high speed. In addition, since FAST is not robust to scale changes, an image is converted into a plurality of sizes, and feature points are extracted from images of each size.
また、既存のFASTには、回転不変性を得るためのキーポイントのオリエンテーション算出のアルゴリズムがない。そのために、ORBでは、回転不変性を得るべくOriented FASTを採用している。オリエンテーションを基準として特徴記述をすることによって、入力画像が回転していても、同一なキーポイントは同一な特徴量となって検出することができる。そのために、キーポイントの中心とパッチの輝度の重心の方向ベクトルを用いる。 Further, the existing FAST does not have an algorithm for calculating the key point orientation for obtaining rotation invariance. Therefore, ORB adopts Oriented FAST in order to obtain rotational invariance. By describing the features based on the orientation, even if the input image is rotated, the same key point can be detected as the same feature amount. For this purpose, the direction vector of the center of the key point and the center of gravity of the luminance of the patch is used.
(特徴ベクトル記述処理)
次に、ORBにおける特徴ベクトル記述処理によれば、検出された特徴点毎に、BRIEF特徴ベクトル記述子によってバイナリ特徴ベクトルが抽出される。これらは、特徴点周辺の2箇所のピクセルの輝度の大小関係から求められる。
(Feature vector description processing)
Next, according to the feature vector description processing in the ORB, a binary feature vector is extracted for each detected feature point using the BRIEF feature vector descriptor. These are obtained from the magnitude relationship of the luminance of two pixels around the feature point.
BRIEFは、バイナリコードによってキーポイントの特徴量記述を実行することができる。SIFTやSURFによれば、特徴量記述に高次元の実数を用いていた。しかしながら、高次元の実数を用いた場合、メモリ容量の増加と類似度計算の増加と問題となる。そこで、ORBに基づくBRIEFを用いることによって、バイナリコードによって特徴記述することで省メモリ化し、類似度計算にハミング距離を用いることで処理コストの抑制を実現する。 BRIEF can execute keypoint feature description by binary code. According to SIFT and SURF, high-dimensional real numbers are used for feature description. However, when a high-dimensional real number is used, there is an increase in memory capacity and similarity calculation. Therefore, by using BREF based on ORB, it is possible to save memory by describing features by binary code, and it is possible to reduce processing costs by using a Hamming distance for similarity calculation.
BRIEFによれば、パッチ内においてランダムに選択された2点の輝度差の符号からバイナリコードを生成する。選択するピクセルは、キーポイント位置を中心としたガウス分布に従ってランダムに選択する。ここで、ORBは、更に高精度にマッチングをさせるために、学習を用いてピクセルを選択している。選択するピクセル位置は、ペアのビット分散が大きく且つN組のペアの相関が低い場合に、特徴記述能力が高いバイナリコードとして、特徴記述に使用する。N組のペアは、Greedyアルゴリズムを用いて絞り込む。 According to BRIEF, a binary code is generated from the sign of the luminance difference between two points randomly selected in the patch. The pixels to be selected are randomly selected according to a Gaussian distribution centered on the key point position. Here, the ORB selects pixels using learning in order to perform matching with higher accuracy. The selected pixel position is used for feature description as a binary code having high feature description capability when the bit variance of the pair is large and the correlation of N pairs is low. N pairs are narrowed down using the Greedy algorithm.
[モデル推定部12]<訓練フェーズ>
モデル推定部12は、訓練コンテンツのバイナリ特徴ベクトルの集合について、混合分布P(x)に関する混合比wiを含むモデルパラメータλを算出する。
混合分布P(x)は、混合ベルヌーイ分布であることが好ましいが、混合ガウス分布、混合多項分布、混合ディリクレ分布、又は、混合ラプラス分布であってもよい。
[Model estimation unit 12] <Training phase>
The
The mixed distribution P (x) is preferably a mixed Bernoulli distribution, but may be a mixed Gaussian distribution, a mixed multinomial distribution, a mixed Dirichlet distribution, or a mixed Laplace distribution.
以下では、混合分布P(x)は、混合(多変量)ベルヌーイ分布であるとして説明する。 In the following description, it is assumed that the mixed distribution P (x) is a mixed (multivariate) Bernoulli distribution.
混合分布P(x)が、混合ベルヌーイ分布である場合、モデルパラメータλは、ノードi(i番目)の混合ベルヌーイ分布に関する混合比wiと、ノードiの混合ベルヌーイ分布のd(1≦d≦D)番目のパラメータμidとなる。モデル推定部12は、これらモデルパラメータλを算出する。
λ(w1、・・・、wN及びμ11、・・・、μND)
When the mixed distribution P (x) is a mixed Bernoulli distribution, the model parameter λ includes the mixing ratio w i for the mixed Bernoulli distribution at the node i (i-th) and d (1 ≦ d ≦ 1) of the mixed Bernoulli distribution at the node i. D) The second parameter μid. The
λ (w 1 ,..., w N and μ 11 ,..., μ ND )
<混合ベルヌーイ分布に基づくパラメータwi及びμidの算出>
本発明によれば、バイナリ特徴ベクトルの集合を「混合ベルヌーイ分布」でモデル化したモデルパラメータλを推定する。ベルヌーイ分布とは、確率pで1を、確率q=1-pで0をとる離散確率分布をいう。Xをベルヌーイ分布に従う確率変数とすれば、確率変数Xの平均はp、分散はpq=p(1-p)となる。「混合ベルヌーイ分布」は、バイナリ特徴ベクトルxtが生成される確率p(xt|λ)を表現する。
According to the present invention, a model parameter λ obtained by modeling a set of binary feature vectors with a “mixed Bernoulli distribution” is estimated. The Bernoulli distribution is a discrete probability distribution with a probability p of 1 and a probability q = 1−p of 0. If X is a random variable according to Bernoulli distribution, the mean of the random variable X is p, and the variance is pq = p (1-p). The “mixed Bernoulli distribution” expresses a probability p (x t | λ) that a binary feature vector x t is generated.
混合分布であるため、p1からpNまでの異なる混合ベルヌーイ分布が、それぞれ混合比wiで選択され、xtが生成される。i番目の混合ベルヌーイ分布から、バイナリ特徴ベクトルxtが生成される確率は、以下の式で表現される。
μid:i番目の混合ベルヌーイ分布のd番目のパラメータ
xt,d:バイナリ特徴ベクトルxtのd番目のビット
D:バイナリ特徴ベクトルのビット長
pi(xt|λ):バイナリ特徴ベクトルxtがi番目の混合ベルヌーイ分布から生成
された際に、d番目のビットが1となる確率
Since they are mixed distributions, different mixed Bernoulli distributions from p 1 to p N are selected with the respective mixing ratios w i to generate x t . The probability that the binary feature vector x t is generated from the i-th mixed Bernoulli distribution is expressed by the following equation.
μ id : d-th parameter of i-th mixed Bernoulli distribution
x t, d : d-th bit of binary feature vector x t
D: Bit length of binary feature vector
p i (x t | λ): Binary feature vector x t is generated from the i-th mixed Bernoulli distribution
The probability that the dth bit will be 1
これらのパラメータは、具体的には、訓練コンテンツのバイナリ特徴ベクトルの集合x1〜xTから、EM(Expectation-Maximization)アルゴリズムの繰り返し処理によって推定する。EMアルゴリズムとは、統計学について、確率モデルのパラメータを最尤法に基づいて推定方法であって、観測不可能な潜在変数に確率モデルが依存する場合に用いられるものである。 Specifically, these parameters are estimated from a set of binary feature vectors x 1 to x T of the training content by an iterative process of an EM (Expectation-Maximization) algorithm. The EM algorithm is an estimation method for statistical parameters based on the maximum likelihood method, and is used when the probability model depends on a latent variable that cannot be observed.
E(Expectation、事後確率)ステップでは、バイナリ特徴ベクトルxi毎に、潜在変数ztiの分布に基づいて、モデルの尤度の事後確率γt(i)を推定する。
事後確率
In the E (Expectation) step, the likelihood posterior probability γ t (i) of the model likelihood is estimated for each binary feature vector x i based on the distribution of the latent variable z ti .
Posterior probability
M(Maximization、最大化)ステップでは、Eステップで算出された尤度の事後確率γt(i)を最大化するべく、混合比wi及びパラメータμiを更新する。Mステップで算出されたパラメータは、次のEステップにおける潜在変数の分布を決定するために用いられる。
これらEステップ及びMステップを、収束するまで繰り返すことによって、対数尤度を最大化する混合比wi及びパラメータμiのパラメータ群λを算出する
λ(w1、・・・、wN及びμ11、・・・、μND)
By repeating these E step and M step until convergence, the parameter group λ of the mixture ratio w i and the parameter μ i that maximizes the log likelihood is calculated λ (w 1 ,..., W N and μ 11・ ・ ・ ・ ・ ・ μ ND )
[モデルパラメータ記憶部13]<訓練フェーズ>
モデルパラメータ記憶部13は、混合分布P(x)のモデルパラメータλを記憶する。モデルパラメータ記憶部13は、量子化部16から参照される。
[Model parameter storage unit 13] <Training phase>
The model
[探索木作成部14]<訓練フェーズ>
探索木作成部14は、ルートノードから順に、複数のノード(量子化対象データ、VWの代表ベクトル)が木構造に紐付けられた探索木を作成する。
[Search tree creation unit 14] <Training phase>
The search
図3は、本発明の量子化部によって参照される探索木の構成図である。 FIG. 3 is a configuration diagram of a search tree referred to by the quantization unit of the present invention.
本発明の探索木は、ルートノードから順に、各ノードiに混合分布の混合要素Piが紐付けられたものである。ノード番号は、混合要素Piのi番目を表す。 The search tree of the present invention is such that a mixed element P i of a mixed distribution is linked to each node i in order from the root node. The node number represents the i-th of the mixed element P i .
探索木作成部14には、モデル推定部12によって推定された混合ベルヌーイ分布の集合Bが入力される。Bの要素Biは、パラメータwi及びμi1〜μiDから構成される。また、木を作成するためのパラメータとして、以下のように設定される。
全ノード数B
葉ノード最大数SL
枝数K
A set B of mixed Bernoulli distributions estimated by the
Total number of nodes B
Maximum number of leaf nodes SL
Number of branches K
探索木作成部14は、ルートノードに対し、ランダムに選択されたK個(K≧1)の混合要素P1〜PKを子ノードとして接続し、選択されなかった混合要素Piを、P1〜PKに対応したノードに更に紐付けることを再帰的に繰り返すことによって、探索木を作成する。
The search
探索木の作成ステップは、例えば以下のようなアルゴリズムで表される。
if Bの要素数≦SL then
Bを保持する葉ノードを作成
else
BからランダムにK個の要素を選択し、P1,〜,PKとする
Bの残りの要素を、最も近いPiに割り当て、クラスタC1,〜,CKを作成
for each クラスタCi do
Piを用いて中間ノードを作成し、Ciについて再帰的に実行
end for
end if
The search tree creation step is expressed by the following algorithm, for example.
number of elements in if B ≤ SL then
Create leaf node holding B
else
Select K elements at random from B and make them P 1 , ~, P K
Assign the remaining elements of B to the nearest Pi and create clusters C 1 , ~, C K
for each cluster C i do
Create intermediate node using P i and execute recursively on C i
end for
end if
図4は、本発明の探索木の作成ステップを表す第1の説明図である。
図5は、本発明の探索木の作成ステップを表す第2の説明図である。
FIG. 4 is a first explanatory diagram showing the search tree creation step of the present invention.
FIG. 5 is a second explanatory diagram showing the search tree creation step of the present invention.
図3〜図5の探索木は、全ノード数B=12、葉ノード最大数SL=4、枝数K=2として表したものである。
(S1)図4(a)によれば、全ノード数Bは、12>SLであるために、ルートノードは葉ノードとはならず、子ノードを持つ。
(S2)図4(b)によれば、子ノードは、全ノードBの中から、ランダムにk=2個が選択される。ここでは、i=3番目とi=7番目のノードが選択され、P1、P2のノードが作成される。
(S3)図4(c)によれば、次に、Bの残り10個のノードを、混合要素P1又はP2のいずれか近い方に割り当てる。この割当によって、C1及びC2の新たな集合が作成される。この集合に対し、再帰的にアルゴリズムを適用する。
(S4)図5(a)によれば、C1のノード数は7>SLであるために、C1は葉ノードとはならない。この集合C1対して、再帰的にアルゴリズムを適用する。一方で、C2のノード数は3≦SLであるために、C2は葉ノードとなる。
(S5)図5(b)によれば、最終的に、葉ノード数≦SLとなる探索木が作成される。
The search trees in FIGS. 3 to 5 are represented as the total node number B = 12, the leaf node maximum number SL = 4, and the branch number K = 2.
(S1) According to FIG. 4A, since the total node number B is 12> SL, the root node does not become a leaf node but has a child node.
(S2) According to FIG. 4B, k = 2 children nodes are randomly selected from all nodes B. Here, the nodes i = 3 and i = 7 are selected, and the nodes P 1 and P 2 are created.
(S3) according to FIG. 4 (c), the then remaining 10 nodes of B, allocated to nearer one of the mixing elements P 1 or P 2. This assignment creates a new set of C 1 and C 2 . The algorithm is recursively applied to this set.
(S4) According to FIG. 5A, since the number of nodes of C 1 is 7> SL, C 1 is not a leaf node. This set C 1 for, applying a recursively algorithm. On the other hand, since the number of nodes of C 2 is 3 ≦ SL, C 2 is a leaf node.
(S5) According to FIG. 5 (b), finally, a search tree with the number of leaf nodes ≦ SL is created.
また、探索木作成部14は、Bの要素をPiに割り当てる際に、混合ベルヌーイ分布間の類似度を計算する必要がある。探索木作成部14は、選択されなかった混合要素Piを、P1〜PKに対応したノードに紐付ける際に、PiとPj∈P1,・・・,PKの間の非類似度尺度として、KL(Kullback Leibler)ダイバージェンス又はJS(Jensen Shannon)ダイバージェンスを用いることも好ましい。
KLダイバージェンスとは、相対エントロピーとも称され、分布と分布と間の差の大きさを導出するものである。
JSダイバージェンスとは、KLダイバージェンスに対象性を持たせたものである。
Further, the search
KL divergence is also referred to as relative entropy, and derives the magnitude of the difference between distributions.
The JS divergence is a KL divergence with a target.
混合ベルヌーイ分布piのpjに対するKLダイバージェンスは、以下のように定義される。
[探索木記憶部15]<訓練フェーズ>
探索木記憶部15は、ルートノードから順に、各ノードiに混合分布の混合要素Piが紐付けられた探索木を記憶する。探索木記憶部15は、量子化部16から参照される。
[Search tree storage unit 15] <Training phase>
The search
[量子化部16]<インデックス構築・検索フェーズ>
量子化部16は、リファレンスコンテンツ又はクエリコンテンツのバイナリ特徴ベクトルについて、モデルパラメータλと探索木とを参照して、量子化対象となるノードiを特定する。
本発明の本質的機能は、検索フェーズにおける量子化部16であって、入力データxに対して、量子化対象となる複数のノードi(=1〜N)の中から1つ以上のノードiを特定したものである。
[Quantization unit 16] <Index construction / search phase>
The
The essential function of the present invention is the
量子化部16は、入力データxについて、探索木のルートノードから順に、各ノードiの混合分布P(x)に基づく尤度Pi(x)が大きい方のノード側を探索し、尤度Pi(x)に基づく事後確率γi(x)が所定閾値以上又は上位所定件数のノードiを特定する。
混合分布P(x)は、ノードiの混合比wiに基づくP(x)=Σi=1 NwiPi(x)である。
事後確率γi(x)は、γi(x)=wiPi(x)/(Σi=1 NwiPi(x))である。
尚、混合ベルヌーイ分布の場合、モデルパラメータλ(混合比wi、パラメータμid)を用いて、各ノードiに対応する混合分布Piを特定する。
The
The mixture distribution P (x) is P (x) = Σ i = 1 N w i P i (x) based on the mixture ratio w i of the node i.
The posterior probability γ i (x) is γ i (x) = w i P i (x) / (Σ i = 1 N w i P i (x)).
In the case of the mixed Bernoulli distribution, the mixed distribution P i corresponding to each node i is specified using the model parameter λ (mixing ratio w i , parameter μ id ).
量子化部16は、探索木を深さ優先で探索するものである。ここで、現に未探索ノードiにおける尤度Pi(x)を、優先度付きキューに記憶する。そして、優先度付きキューに記憶された尤度Pi(x)が最も高い未探索ノードから順に、再帰的に探索する。
The
入力データxがi番目の混合ベルヌーイ分布から生成された事後確率Pi(x)は、以下のように定義される。
従来技術によれば、事後確率が高くなる混合ベルヌーイ分布の混合要素を算出するために、全ての混合要素に対する事後分布を算出する必要があった。これに対し、本発明によれば、探索木を用いて必要以上に探索処理を実行せず、量子化処理に高いリアルタイム性を実現することができる。 According to the prior art, in order to calculate a mixed element of a mixed Bernoulli distribution with a high posterior probability, it is necessary to calculate a posterior distribution for all the mixed elements. On the other hand, according to the present invention, search processing is not performed more than necessary using a search tree, and high real-time performance can be realized in quantization processing.
ここで、pi(x)は、以下のように定義される。
。
Here, p i (x) is defined as follows.
.
図6は、探索木における第1の探索ステップを表す第1の説明図である。
最初に、入力データxについて、ルートノードに接続されたノードi=3及びi=7について、i=3の混合要素の尤度P3(x)と、i=7の混合要素の尤度P7(x)とを比較する。
P3(x)=0.050、P7(x)=0.042
ここでは、尤度が大きい方のノードi=3を辿る。このとき、優先度付きキュー(priority queue)に、以下のように記録される。
未探索ノードの優先度付きキュー
->[i=7のP7(x)=0.042]
検索結果の優先度付きキュー
->[i=3のP3(x)=0.050][i=7のP7(x)=0.042]
FIG. 6 is a first explanatory diagram showing a first search step in the search tree.
First, for input data x, for nodes i = 3 and i = 7 connected to the root node, i = 3 mixed element likelihood P 3 (x) and i = 7 mixed element likelihood P 7 Compare with (x).
P 3 (x) = 0.050, P 7 (x) = 0.42
Here, the node i = 3 having the highest likelihood is traced. At this time, it is recorded in the priority queue as follows.
Prioritized queue of unsearched nodes
-> [P 7 of i = 7 (x) = 0.042 ]
Priority queue for search results
-> [P 3 (x) = 0.050 for i = 3] [P 7 (x) = 0.42 for i = 7]
「未探索ノードの優先度付きキュー」には、辿らなかったノード(尤度が最も大きい方のノード以外のノード)の尤度を記録する。深さ探索によって葉ノードまで到達した場合、未探索ノードの優先度付きキューに記録された、最も尤度が大きいノードから順に、再帰的に深さ探索を実行する。
「検索結果の優先度付きキュー」には、辿った全てのノードについて大きい順に尤度を記録する。
In the “queue with priorities of unsearched nodes”, the likelihood of a node that has not been traced (a node other than the node with the highest likelihood) is recorded. When the leaf node is reached by the depth search, the depth search is recursively performed in order from the node with the highest likelihood recorded in the priority queue of the unsearched node.
In the “queue with priority of search results”, the likelihoods are recorded in descending order for all the traced nodes.
図7は、探索木における第2の探索ステップを表す第2の説明図である。
次に、入力データxについて、ノードi=3に接続されたノードi=5及びi=11について、i=5の混合要素の尤度P5(x)と、i=11の混合要素の尤度P11(x)とを比較する。
P5(x)=0.037、P7(x)=0.061
ここでは、尤度が大きい方のノードi=7を辿る。このとき、優先度付きキューに、尤度の大きい順に、以下のように記録される。
未探索ノードの優先度付きキュー
->[i=7の尤度P7(x)=0.042][i=5の尤度P5(x)=0.037]
検索結果の優先度付きキュー
->[i=11のP11(x)=0.061][i=3のP3(x)=0.050]
[i=7の尤度P7(x)=0.042][i=5の尤度P5(x)=0.037]
FIG. 7 is a second explanatory diagram illustrating the second search step in the search tree.
Next, for input data x, for nodes i = 5 and i = 11 connected to node i = 3, i = 5 mixed element likelihood P 5 (x) and i = 11 mixed element likelihood. Compare the degree P 11 (x).
P 5 (x) = 0.037, P 7 (x) = 0.061
Here, the node i = 7 having the highest likelihood is traced. At this time, it is recorded in the priority queue as follows in descending order of likelihood.
Prioritized queue of unsearched nodes
-> [Likelihood P 7 (x) = 0.042 for i = 7] [likelihood P 5 (x) = 0.037 for i = 5]
Priority queue for search results
-> [P 11 (x) = 0.61 for i = 11] [P 3 (x) = 0.050 for i = 3]
[Likelihood P 7 (x) = 0.042 for i = 7] [likelihood P 5 (x) = 0.037 for i = 5]
図8は、探索木における第3の探索ステップを表す第3の説明図である。
次に、入力データxについて、ノードi=11に接続されたノードi=9及びi=10について、i=9の混合要素の尤度P9(x)と、i=10の混合要素の尤度P10(x)とを比較する。
P9(x)=0.070、P10(x)=0.051
ここでは、尤度が大きい方のノードi=9を辿る。このとき、優先度付きキューに、尤度の大きい順に、以下のように記録される。
未探索ノードの優先度付きキュー
->[i=7の尤度P7(x)=0.042][i=5の尤度P5(x)=0.037]
検索結果の優先度付きキュー
->[i=9のP9(x)=0.070][i=11のP11(x)=0.061]
[i=10のP10(x)=0.051][i=3のP3(x)=0.050]
[i=7の尤度P7(x)=0.042][i=5の尤度P5(x)=0.037]
FIG. 8 is a third explanatory diagram illustrating a third search step in the search tree.
Next, for input data x, for nodes i = 9 and i = 10 connected to node i = 11, the likelihood P 9 (x) of the mixed element of i = 9 and the likelihood of the mixed element of i = 10 Compare the degree P 10 (x).
P 9 (x) = 0.070, P 10 (x) = 0.051
Here, the node i = 9 having the highest likelihood is traced. At this time, it is recorded in the priority queue as follows in descending order of likelihood.
Prioritized queue of unsearched nodes
-> [Likelihood P 7 (x) = 0.042 for i = 7] [likelihood P 5 (x) = 0.037 for i = 5]
Priority queue for search results
-> [P 9 (x) = 0.070 for i = 9] [P 11 (x) = 0.61 for i = 11]
[P 10 (x) = 0.51 for i = 10] [P 3 (x) = 0.050 for i = 3]
[Likelihood P 7 (x) = 0.042 for i = 7] [likelihood P 5 (x) = 0.037 for i = 5]
図9は、探索木における第4の探索ステップを表す第4の説明図である。
深さ探索によってノードi=9及びi=10の末端まで探索が終了している。この場合、未探索ノードの優先度付きキューの中で、最も尤度が高いノードについて再帰的に深さ探索を実行する。
次に、入力データxについて、ノードi=7の混合要素の尤度P7(x)を探索する。このとき、優先度付きキューに、尤度の大きい順に、以下のように記録される。
未探索ノードの優先度付きキュー
->[i=5の尤度P5(x)=0.037]
検索結果の優先度付きキュー
->[i=9のP9(x)=0.070][i=11のP11(x)=0.061]
[i=10のP10(x)=0.051][i=3のP3(x)=0.050]
[i=7の尤度P7(x)=0.042][i=5の尤度P5(x)=0.037]
FIG. 9 is a fourth explanatory diagram illustrating a fourth search step in the search tree.
The search is completed to the end of nodes i = 9 and i = 10 by the depth search. In this case, the depth search is recursively performed on the node with the highest likelihood in the queue with priorities of the unsearched nodes.
Next, the likelihood P 7 (x) of the mixed element of the node i = 7 is searched for the input data x. At this time, it is recorded in the priority queue as follows in descending order of likelihood.
Prioritized queue of unsearched nodes
-> [Likelihood P 5 (x) = 0.037 for i = 5]
Priority queue for search results
-> [P 9 (x) = 0.070 for i = 9] [P 11 (x) = 0.61 for i = 11]
[P 10 (x) = 0.51 for i = 10] [P 3 (x) = 0.050 for i = 3]
[Likelihood P 7 (x) = 0.042 for i = 7] [likelihood P 5 (x) = 0.037 for i = 5]
図10は、探索木における第5の探索ステップを表す第5の説明図である。
次に、入力データxについて、ノードi=7に接続されたノードi=2、i=6及びi=8について、i=2の混合要素の尤度P2(x)と、i=6の混合要素の尤度P6(x)と、i=8の混合要素の尤度P8(x)とを比較する。
P2(x)=0.085、P6(x)=0.048、P8(x)=0.028
このとき、優先度付きキューに、尤度の大きい順に、以下のように記録される。
未探索ノードの優先度付きキュー
->[i=5の尤度P5(x)=0.037]
検索結果の優先度付きキュー
->[i=2のP2(x)=0.085][i=9のP9(x)=0.070][i=11のP11(x)=0.061]
[i=10のP10(x)=0.051][i=3のP3(x)=0.050][i=6のP6(x)=0.048]
[i=7の尤度P7(x)=0.042][i=5のP5(x)=0.037]
[i=8のP8(x)=0.028]
FIG. 10 is a fifth explanatory diagram illustrating the fifth search step in the search tree.
Next, for input data x, for nodes i = 2, i = 6, and i = 8 connected to node i = 7, i = 2 mixed element likelihood P 2 (x) and i = 6 The likelihood P 6 (x) of the mixed element is compared with the likelihood P 8 (x) of the mixed element of i = 8.
P 2 (x) = 0.085, P 6 (x) = 0.048, P 8 (x) = 0.028
At this time, it is recorded in the priority queue as follows in descending order of likelihood.
Prioritized queue of unsearched nodes
-> [Likelihood P 5 (x) = 0.037 for i = 5]
Priority queue for search results
-> [P 2 (x) = 0.85 for i = 2] [P 9 (x) = 0.070 for i = 9] [P 11 (x) = 0.61 for i = 11]
[P 10 (x) = 0.51 for i = 10] [P 3 (x) = 0.050 for i = 3] [P 6 (x) = 0.48 for i = 6]
[Likelihood P 7 (x) = 0.042 for i = 7] [P 5 (x) = 0.037 for i = 5]
[P 8 (x) = 0.028 for i = 8]
「検索結果の優先度付きキュー」に所定数の尤度が記録された際に(所定数のノードが探索された際に)、探索を終了する。そして、「検索結果の優先度付きキュー」に記録された尤度Pi(x)に基づいて事後確率pi(x)=wiPi(x)を算出し、事後確率が高い1つ以上のノードi(量子化対象データ)を量子化の結果として出力する。 When a predetermined number of likelihoods are recorded in the “search result priority queue” (when a predetermined number of nodes are searched), the search is terminated. Then, the posterior probability p i (x) = w i P i (x) is calculated based on the likelihood P i (x) recorded in the “priority queue of search results”, and the one with the higher posterior probability is calculated. The above node i (data to be quantized) is output as a result of quantization.
[転置インデックス記憶部17]<インデックス構築フェーズ>
転置インデックス記憶部17は、リファレンスコンテンツの各バイナリ特徴ベクトルについて、量子化部16で特定された1つ以上のノードの識別子iに対応する転置インデックスのリストにバイナリ特徴ベクトルの情報を記憶したものである。
[Transposed index storage unit 17] <Index construction phase>
The transposed
図11は、本発明の検索部によって参照される転置インデックスの処理を表す説明図である。 FIG. 11 is an explanatory diagram showing the processing of the transposed index referred to by the search unit of the present invention.
転置インデックスは、混合分布の識別子i毎のリストを保持している。各リストには、その識別子iに量子化されたバイナリ特徴ベクトルに関する情報が保存されている。保存する情報としては、コンテンツID(識別子)があるが、それ以外に、バイナリ特徴の座標、バイナリ特徴のスケール、バイナリ特徴の角度、バイナリ特徴ベクトル等を保存してもよい。量子化について、複数の混合ベルヌーイ分布の識別子が利用可能である場合には、その全てのリストにバイナリ特徴に関する情報を登録する。 The transposed index holds a list for each identifier i of the mixed distribution. Each list stores information about the binary feature vector quantized to the identifier i. As information to be stored, there is a content ID (identifier). In addition, binary feature coordinates, binary feature scales, binary feature angles, binary feature vectors, and the like may be stored. For quantization, if multiple mixed Bernoulli distribution identifiers are available, information about binary features is registered in all the lists.
[検索部18]<検索フェーズ>
検索部18は、クエリコンテンツの各バイナリ特徴ベクトルについて、量子化部16で特定された1つ以上のノードの識別子iに対応する転置インデックスのリストを探索する。そして、リストに記憶されているバイナリ特徴ベクトルに対応したリファレンスコンテンツに対しスコアを累積し、累積されたスコアを類似度としてリファレンスコンテンツを検索する。具体的には、リファレンスコンテンツ(ID)毎にスコアを投票するものであってもよい。
[Search unit 18] <Search phase>
The
この場合、クエリコンテンツのバイナリ特徴ベクトルとリファレンスコンテンツのバイナリ特徴との距離を算出し、その距離に応じてスコアを算出することができる。例えば、クエリコンテンツのバイナリ特徴ベクトルとリファレンスコンテンツのバイナリ特徴との二乗距離をdとすると、スコアとしてexp(-d/a)を利用することができる。aは、調整可能なパラメータを意味する。また、IDF(Inverse Document Frequency)に基づいて、各量子化された識別子の出現頻度に応じて、スコアを修正してもよい。 In this case, the distance between the binary feature vector of the query content and the binary feature of the reference content can be calculated, and the score can be calculated according to the distance. For example, if the square distance between the binary feature vector of the query content and the binary feature of the reference content is d, exp (-d / a) can be used as the score. a means an adjustable parameter. Further, the score may be corrected based on the appearance frequency of each quantized identifier based on IDF (Inverse Document Frequency).
以上、詳細に説明したように、本発明のプログラム、装置及び方法によれば、量子化対象データである混合分布に応じて、入力データに対して最適な量子化対象データをマッチングさせることができる。 As described above in detail, according to the program, apparatus, and method of the present invention, optimal quantization target data can be matched to input data according to the mixture distribution that is quantization target data. .
本発明によれば、訓練コンテンツのバイナリ特徴ベクトルを混合分布でモデル化した量子化対象データを含むコードブックを作成し、その量子化対象データを探索木に構成することによって、クエリコンテンツとリファレンスコンテンツとの間のマッチングを、高速且つ高精度に実行することができる。これは、バイナリ特徴ベクトルのビット間の非独立性を考慮したものとなる。特に、本発明によれば、従来技術におけるBoVWの枠組みの中で、類似度の算出と特徴点のマッチングとを実行することができる。
また、コンテンツが画像である場合、画像間の幾何検証について、正解画像ペアに対するスコアを維持しつつ、不正解画像ペアに対するスコアを抑制することができる。これは、物体を高精度に認識することに役立つ。
According to the present invention, a query book and a reference content are created by creating a codebook including data to be quantized in which binary feature vectors of training content are modeled by a mixed distribution and configuring the data to be quantized in a search tree. Can be performed at high speed and with high accuracy. This takes into account the independence between the bits of the binary feature vector. In particular, according to the present invention, similarity calculation and feature point matching can be executed within the framework of BoVW in the prior art.
Further, when the content is an image, it is possible to suppress the score for the incorrect image pair while maintaining the score for the correct image pair for geometric verification between images. This is useful for recognizing an object with high accuracy.
前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。 Various changes, modifications, and omissions of the above-described various embodiments of the present invention can be easily made by those skilled in the art. The above description is merely an example, and is not intended to be restrictive. The invention is limited only as defined in the following claims and the equivalents thereto.
1 検索装置
11 バイナリ特徴ベクトル抽出部
12 モデル推定部
13 モデルパラメータ記憶部
14 探索木作成部
15 探索木記憶部
16 量子化部
17 転置インデックス記憶部
18 検索部
DESCRIPTION OF
Claims (11)
ルートノードから順に、各ノードiに混合分布の混合要素Piが紐付けられた探索木を記憶した探索木記憶手段と、
入力データxについて、前記探索木のルートノードから順に、各ノードiの混合分布P(x)に基づく尤度Pi(x)が大きい方のノード側を探索し、尤度Pi(x)に基づく事後確率γi(x)が所定閾値以上又は上位所定件数のノードiを特定する量子化手段と
してコンピュータを機能させることを特徴とするプログラム。 In a program for causing a computer to function to identify one or more nodes i from among a plurality of nodes i (= 1 to N) to be quantized with respect to input data x,
From the root node sequentially, and the search tree storing means mixing elements P i in the mixture distribution to each node i and stored by the search tree tied,
For the input data x, in order from the root node of the search tree, the node having the larger likelihood P i (x) based on the mixture distribution P (x) of each node i is searched, and the likelihood P i (x) A program that causes a computer to function as a quantizing unit that specifies a number of nodes i having a posterior probability γ i (x) that is greater than or equal to a predetermined threshold value or a higher predetermined number.
前記事後確率γi(x)は、γi(x)=wiPi(x)/(Σi=1 NwiPi(x))である
ようにコンピュータを機能させることを特徴とする請求項1に記載のプログラム。 The mixture distribution P (x) is P (x) = Σ i = 1 N w i P i (x) based on the mixture ratio w i of the node i,
The computer is made to function so that the posterior probability γ i (x) is γ i (x) = w i P i (x) / (Σ i = 1 N w i P i (x)). The program according to claim 1.
現に未探索ノードiにおける尤度Pi(x)を、優先度付きキューに記憶し、
前記優先度付きキューに記憶された前記尤度Pi(x)が最も高い未探索ノードから順に、再帰的に探索する
ようにコンピュータを機能させることを特徴とする請求項1又は2に記載のプログラム。 The quantization means searches the search tree with depth priority,
The likelihood P i (x) in the unsearched node i is actually stored in the priority queue,
3. The computer according to claim 1, wherein the computer is functioned to search recursively in order from an unsearched node having the highest likelihood P i (x) stored in the priority queue. program.
して更にコンピュータを機能させることを特徴とする請求項1から3のいずれか1項に記載のプログラム。 The search tree connects K mixed elements P 1 to P K selected at random (K ≧ 1) as child nodes to the root node, and the unselected mixed elements P i are connected to P 1 to P 1 . 4. The computer further functions as search tree creation means for creating the search tree by recursively repeating further association with a node corresponding to P K. The program described in.
ようにコンピュータを機能させることを特徴とする請求項4の記載のプログラム。 The search tree generating means, a mixing element P i to the not selected, when attaching the cord to the node corresponding to P 1 to P K, between P i and P j ∈P 1, ···, P K 5. The program according to claim 4, wherein the computer is caused to function so as to use KL (Kullback Leibler) divergence or JS (Jensen Shannon) divergence as a measure of dissimilarity.
ようにコンピュータを機能させることを特徴とする請求項1から5のいずれか1項に記載のプログラム。 6. The computer according to claim 1, wherein the mixed distribution P (x) is a mixed Bernoulli distribution, a mixed Gaussian distribution, a mixed multinomial distribution, a mixed Dirichlet distribution, or a mixed Laplace distribution. The program according to item 1.
訓練コンテンツのバイナリ特徴ベクトルの集合について、混合分布P(x)に関する混合比wiを含むモデルパラメータλを算出するモデル推定手段と、
前記モデルパラメータλを記憶するモデルパラメータ記憶手段と
してコンピュータを機能させ、
前記量子化手段は、リファレンスコンテンツ又はクエリコンテンツのバイナリ特徴ベクトルについて、前記モデルパラメータλを用いてノードiを特定し、
前記リファレンスコンテンツの各バイナリ特徴ベクトルについて、前記量子化手段で特定された1つ以上のノードの識別子iに対応する転置インデックスのリストに前記バイナリ特徴ベクトルの情報を記憶する転置インデックス記憶手段と、
クエリコンテンツの各バイナリ特徴ベクトルについて、前記量子化手段で特定された1つ以上のノードの識別子iに対応する転置インデックスのリストを探索し、リストに記憶されているバイナリ特徴ベクトルに対応したリファレンスコンテンツに対しスコアを累積し、累積されたスコアを類似度としてリファレンスコンテンツを検索する検索手段と
して更にコンピュータを機能させ、クエリコンテンツに類似したリファレンスコンテンツを検索する
ことを特徴とする請求項1から6のいずれか1項に記載のプログラム。 Binary feature vector extraction means for extracting a set of binary feature vectors for each of the input training content, reference content and query content;
Model estimation means for calculating a model parameter λ including a mixture ratio w i for the mixture distribution P (x) for a set of binary feature vectors of training content;
Causing a computer to function as model parameter storage means for storing the model parameter λ,
The quantization means specifies a node i using the model parameter λ for a binary feature vector of reference content or query content,
For each binary feature vector of the reference content, transposed index storage means for storing information of the binary feature vector in a list of transposed indexes corresponding to an identifier i of one or more nodes specified by the quantizing means;
For each binary feature vector of the query content, a list of transposed indexes corresponding to the identifier i of one or more nodes specified by the quantization means is searched, and reference content corresponding to the binary feature vector stored in the list 7. The computer according to claim 1, further comprising a computer functioning as search means for searching for reference content using the accumulated score as a similarity, and searching for reference content similar to query content. The program according to any one of the above items.
前記モデルパラメータλは、ノードiの混合ベルヌーイ分布に関する混合比wiと、ノードiの混合ベルヌーイ分布のd(1≦d≦D)番目のパラメータμidとであり、
前記量子化手段は、混合比wiとパラメータμidとを用いて、各ノードiに対応する混合分布Piを特定する
ようにコンピュータを機能させることを特徴とする請求項7に記載のプログラム。 When the mixed distribution P (x) is a mixed Bernoulli distribution,
The model parameter λ is a mixture ratio w i related to the mixed Bernoulli distribution of the node i and a d (1 ≦ d ≦ D) th parameter μ id of the mixed Bernoulli distribution of the node i,
8. The program according to claim 7, wherein the quantization means causes the computer to specify a mixture distribution P i corresponding to each node i using the mixture ratio w i and the parameter μ id. .
E(Expectation)ステップについて、バイナリ特徴ベクトルxi毎に潜在変数iの事後確率γt(i)=wiPi(x)/(Σi=1 NwiPi(x))を推定し、
M(Maximization)ステップについて、前記事後確率γt(i)を用いて、混合比wi及びパラメータμiを更新し、
これらEステップ及びMステップを、収束するまで又は一定回数繰り返すことによって、混合比wi及びパラメータμidのパラメータ群λを算出する
λ=(w1、・・・、wN及びμ11、・・・、μND)
ようにコンピュータを機能させることを特徴とする請求項8に記載のプログラム。 The model estimation means includes a set of binary feature vectors x 1 to x T of training content,
For the E (Expectation) step, estimate the posterior probability γ t (i) = w i P i (x) / (Σ i = 1 N w i P i (x)) of the latent variable i for each binary feature vector x i And
For the M (Maximization) step, the mixture ratio w i and the parameter μ i are updated using the posterior probability γ t (i),
By repeating these E and M steps until convergence or a certain number of times, the parameter group λ of the mixture ratio w i and the parameter μ id is calculated. Λ = (w 1 ,..., W N and μ 11 ,. .., μ ND )
The program according to claim 8, wherein the computer functions as described above.
ルートノードから順に、各ノードiに混合分布の混合要素Piが紐付けられた探索木を記憶した探索木記憶手段と、
前記入力データxについて、前記探索木のルートノードから順に、各ノードiの混合分布P(x)に基づく尤度Pi(x)が大きい方のノード側を探索し、尤度Pi(x)に基づく事後確率γi(x)が所定閾値以上又は上位所定件数のノードiを特定する量子化手段と
を有することを特徴とする量子化装置。 In a quantizing device that identifies one or more nodes i among a plurality of nodes i (= 1 to N) to be quantized with respect to input data x,
From the root node sequentially, and the search tree storing means mixing elements P i in the mixture distribution to each node i and stored by the search tree tied,
For the input data x, in order from the root node of the search tree, a node having a larger likelihood P i (x) based on the mixture distribution P (x) of each node i is searched, and the likelihood P i (x Quantization means for identifying the number of nodes i whose posterior probability γ i (x) based on (1) is equal to or higher than a predetermined threshold value or the upper predetermined number.
前記装置は、ルートノードから順に、各ノードiに混合分布の混合要素Piが紐付けられた探索木を記憶した探索木記憶部を有し、
前記装置は、前記入力データxについて、前記探索木のルートノードから順に、各ノードiの混合分布P(x)に基づく尤度Pi(x)が大きい方のノード側を探索し、尤度Pi(x)に基づく事後確率γi(x)が所定閾値以上又は上位所定件数のノードiを特定する
ことを特徴とする装置の量子化方法。
In the quantization method of an apparatus for identifying one or more nodes i from among a plurality of nodes i (= 1 to N) to be quantized with respect to input data x,
The apparatus includes, in order from the root node, a search tree storage unit that stores a search tree in which mixed elements P i of a mixed distribution are linked to each node i,
The apparatus searches the input data x from the root node of the search tree in order from the node side with the higher likelihood P i (x) based on the mixture distribution P (x) of each node i, and the likelihood A method for quantizing an apparatus, characterized by identifying a number of nodes i whose posterior probability γ i (x) based on P i (x) is greater than or equal to a predetermined threshold value or an upper predetermined number.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016164371A JP6601965B2 (en) | 2016-08-25 | 2016-08-25 | Program, apparatus and method for quantizing using search tree |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016164371A JP6601965B2 (en) | 2016-08-25 | 2016-08-25 | Program, apparatus and method for quantizing using search tree |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018032232A JP2018032232A (en) | 2018-03-01 |
JP6601965B2 true JP6601965B2 (en) | 2019-11-06 |
Family
ID=61303396
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016164371A Active JP6601965B2 (en) | 2016-08-25 | 2016-08-25 | Program, apparatus and method for quantizing using search tree |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6601965B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110889504B (en) * | 2019-12-05 | 2022-10-21 | 北京理工大学 | Multi-target asteroid intersection sequence searching method based on energy distribution evaluation |
WO2021214935A1 (en) * | 2020-04-23 | 2021-10-28 | 日本電信電話株式会社 | Learning device, search device, learning method, search method, and program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4597714B2 (en) * | 2005-03-01 | 2010-12-15 | Kddi株式会社 | Information retrieval apparatus and method, and computer program |
JP5577371B2 (en) * | 2012-03-29 | 2014-08-20 | 楽天株式会社 | Image search apparatus, image search method, and program |
-
2016
- 2016-08-25 JP JP2016164371A patent/JP6601965B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018032232A (en) | 2018-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Melekhov et al. | Siamese network features for image matching | |
JP6041439B2 (en) | Image search apparatus, system, program, and method using binary feature vector based on image | |
McCann et al. | Local naive bayes nearest neighbor for image classification | |
Chen et al. | Blessing of dimensionality: High-dimensional feature and its efficient compression for face verification | |
WO2020244437A1 (en) | Image processing method and apparatus, and computer device | |
CN110362677B (en) | Text data category identification method and device, storage medium and computer equipment | |
CN108491794B (en) | Face recognition method and device | |
Song et al. | Deep region hashing for efficient large-scale instance search from images | |
Bergamo et al. | Classemes and other classifier-based features for efficient object categorization | |
Do et al. | Simultaneous feature aggregating and hashing for large-scale image search | |
WO2018166273A1 (en) | Method and apparatus for matching high-dimensional image feature | |
US9135525B2 (en) | Character recognition apparatus, character recognition method, and computer-readable medium | |
JP5794036B2 (en) | Image search apparatus, image search method, and program | |
JP6004015B2 (en) | Learning method, information processing apparatus, and learning program | |
Altintakan et al. | Towards effective image classification using class-specific codebooks and distinctive local features | |
Zhang et al. | Large-scale aerial image categorization using a multitask topological codebook | |
Bhattacharjee et al. | Query adaptive multiview object instance search and localization using sketches | |
CN108805280B (en) | Image retrieval method and device | |
JP6042778B2 (en) | Retrieval device, system, program and method using binary local feature vector based on image | |
CN113254687B (en) | Image retrieval and image quantification model training method, device and storage medium | |
Zhang et al. | Dataset-driven unsupervised object discovery for region-based instance image retrieval | |
JP6601965B2 (en) | Program, apparatus and method for quantizing using search tree | |
Wang et al. | Few-shot hash learning for image retrieval | |
JP6621206B2 (en) | Program, apparatus, and method for quantization using hierarchical codebook based on probability model | |
US20170309004A1 (en) | Image recognition using descriptor pruning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181001 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190927 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191007 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191007 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6601965 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |