JP6601965B2 - Program, apparatus and method for quantizing using search tree - Google Patents

Program, apparatus and method for quantizing using search tree Download PDF

Info

Publication number
JP6601965B2
JP6601965B2 JP2016164371A JP2016164371A JP6601965B2 JP 6601965 B2 JP6601965 B2 JP 6601965B2 JP 2016164371 A JP2016164371 A JP 2016164371A JP 2016164371 A JP2016164371 A JP 2016164371A JP 6601965 B2 JP6601965 B2 JP 6601965B2
Authority
JP
Japan
Prior art keywords
node
distribution
mixed
search tree
nodes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016164371A
Other languages
Japanese (ja)
Other versions
JP2018032232A (en
Inventor
祐介 内田
茂之 酒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2016164371A priority Critical patent/JP6601965B2/en
Publication of JP2018032232A publication Critical patent/JP2018032232A/en
Application granted granted Critical
Publication of JP6601965B2 publication Critical patent/JP6601965B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Description

本発明は、入力データに対して、量子化対象データを特定する技術に関する。特に、リファレンスコンテンツ(検索対象のコンテンツ)の集合から、クエリコンテンツ(検索キーとなるコンテンツ)に類似したリファレンスコンテンツを検索する技術に適用することができる。   The present invention relates to a technique for specifying quantization target data for input data. In particular, the present invention can be applied to a technique for searching for reference content similar to query content (content serving as a search key) from a set of reference content (content to be searched).

近年、局所特徴点に基づいた画像認識や検索技術が注目されている(例えば特許文献1参照)。物体認識に用いる特徴ベクトルの抽出アルゴリズムとしては、回転やスケールの変化にロバストな、例えばSIFT(Scale-Invariant Feature Transform)(例えば非特許文献1参照)やSURF(Speeded Up Robust Features)が用いられる。例えば、SIFTの場合、1枚の画像からは128次元の特徴ベクトルの集合が抽出される。SIFTとは、スケールスペースを用いて特徴的な局所領域を解析し、そのスケール変化及び回転に不変となる特徴ベクトルを記述する技術である。一方で、SURFの場合、SIFTよりも高速処理が可能であって、1枚の画像から64次元の特徴ベクトルの集合が抽出される。SIFTは、処理コストが高く且つリアルタイムマッチングが困難であるのに対し、SURFは、積分画像を利用することによって処理を高速化している。   In recent years, image recognition and search techniques based on local feature points have attracted attention (for example, see Patent Document 1). As a feature vector extraction algorithm used for object recognition, for example, SIFT (Scale-Invariant Feature Transform) (see, for example, Non-Patent Document 1) or SURF (Speeded Up Robust Features), which is robust to changes in rotation and scale, is used. For example, in the case of SIFT, a set of 128-dimensional feature vectors is extracted from one image. SIFT is a technique for analyzing a characteristic local region using a scale space and describing a feature vector that is invariant to scale change and rotation. On the other hand, in the case of SURF, higher-speed processing is possible than SIFT, and a set of 64-dimensional feature vectors is extracted from one image. While SIFT has a high processing cost and is difficult to perform real-time matching, SURF uses an integral image to speed up the processing.

また、スマートフォンやタブレットのようなモバイル端末が普及する中で、コンテンツ検索処理に対して、更なる省メモリ化及び高速マッチング化が要求されてきている。特に、拡張現実感(AR(Augmented Reality))の用途における画像認識の技術分野によれば、リアルタイムに処理するべく、SIFTやSURFよりも更に高速にコンテンツを検索することが要求される。そのために、バイナリ特徴ベクトル抽出アルゴリズムであるORB(例えば非特許文献2参照)やFREAK(例えば非特許文献3参照)が注目されている。これは、SIFTやSURFよりも特徴ベクトルを高速に抽出でき、更に抽出される特徴ベクトルもコンパクトにすることができる。   In addition, as mobile terminals such as smartphones and tablets have become widespread, further memory saving and faster matching have been required for content search processing. In particular, according to the technical field of image recognition in the use of augmented reality (AR), it is required to search for content at a higher speed than SIFT or SURF in order to perform real-time processing. For this purpose, attention is paid to ORB (for example, see Non-Patent Document 2) and FREEAK (for example, Non-Patent Document 3) which are binary feature vector extraction algorithms. This makes it possible to extract feature vectors at a higher speed than SIFT and SURF, and to make the extracted feature vectors more compact.

局所特徴点に基づいた画像認識では、特徴点同士のマッチングの処理コストが高いため、BoVW(Bag-of-Visual Words)と称されるフレームワークが広く利用されている(例えば非特許文献1、4参照)。BoVWでは、予め大量の訓練ベクトルの集合から、VW(Visual Words)と称される代表的なベクトルの集合を、k-means等のクラスタリングアルゴリズムを用いて生成する。そして、各特徴ベクトルは、最も類似するVWに量子化される。同じVWに量子化された特徴ベクトルはマッチしたと判断され、異なるVWに量子化された特徴ベクトルはマッチしないと判断される。これによって、データベース中の特徴ベクトルの数に基づかないマッチングが可能となる。   In image recognition based on local feature points, since the processing cost of matching between feature points is high, a framework called BoVW (Bag-of-Visual Words) is widely used (for example, Non-Patent Document 1, 4). In BoVW, a representative vector set called VW (Visual Words) is generated in advance from a large set of training vectors using a clustering algorithm such as k-means. Each feature vector is then quantized to the most similar VW. It is determined that feature vectors quantized to the same VW match, and feature vectors quantized to different VWs are determined not to match. This enables matching that is not based on the number of feature vectors in the database.

また、訓練ベクトルを混合ベルヌーイ分布でモデル化し、フィッシャーベクトルを導出することによって、コンテンツを1つの特徴ベクトルで表現して検索する技術もある(例えば特許文献2参照)。この技術によれば、フィッシャーベクトルによって画像間の類似度を算出することはできるが、特徴点のマッチング結果を取得することはできない。   In addition, there is a technique in which content is represented by one feature vector and searched by modeling a training vector with a mixed Bernoulli distribution and deriving a Fisher vector (see, for example, Patent Document 2). According to this technique, the similarity between images can be calculated by the Fisher vector, but the matching result of the feature points cannot be acquired.

図1は、量子化処理を表す説明図である。   FIG. 1 is an explanatory diagram illustrating a quantization process.

図1によれば、クエリコンテンツ及びリファレンスコンテンツから導出されたバイナリ特徴ベクトルと、訓練コンテンツから導出されたコードブック(量子化対象データ、代表ベクトル)とのマッチングを表している。コードブックは、訓練コンテンツから予め作成されたものであり、量子化対象データとして複数のVW(代表ベクトル)の集合からなる。VWもバイナリ特徴ベクトルで表現されている。クエリコンテンツのバイナリ特徴ベクトルと、リファレンスコンテンツのバイナリ特徴ベクトルとはそれぞれ、コードブックの中で、ハミング距離が最も近いVWに紐付けられる。そして、同一のVWに紐付けられたバイナリ特徴ベクトル同士は、マッチングしたと認識される。   FIG. 1 shows matching between a binary feature vector derived from query content and reference content and a code book (quantization target data, representative vector) derived from training content. The code book is created in advance from training content, and consists of a set of a plurality of VWs (representative vectors) as quantization target data. VW is also expressed by a binary feature vector. The binary feature vector of the query content and the binary feature vector of the reference content are each linked to the VW having the shortest Hamming distance in the code book. The binary feature vectors associated with the same VW are recognized as matched.

特開2015−201123号公報JP-A-2015-201123 特開2014−146207号公報JP 2014-146207 A

J. Sivic et al., "Video Google: A Text Retrieval Approach to Object Matching in Videos," in Proc. ICCV, 2003.J. Sivic et al., "Video Google: A Text Retrieval Approach to Object Matching in Videos," in Proc. ICCV, 2003. E. Rublee, V. Rabaud, K. Konolige, and G. Bradski, "ORB: An efficient alternative to SIFT or SURF," in Proc. ICCV, 2011.E. Rublee, V. Rabaud, K. Konolige, and G. Bradski, "ORB: An efficient alternative to SIFT or SURF," in Proc. ICCV, 2011. A. Alahi, R. Ortiz, and P. Vandergheynst, "FREAK: Fast Retina Keypoint," in Proc. CVPR, 2012.A. Alahi, R. Ortiz, and P. Vandergheynst, "FREAK: Fast Retina Keypoint," in Proc. CVPR, 2012. D. Galvez-Lopez and J. D. Tardos, "Real-time loop detection with bags of binary words," in Proc. of IROS, 2011, pp. 51?58.D. Galvez-Lopez and J. D. Tardos, "Real-time loop detection with bags of binary words," in Proc. Of IROS, 2011, pp. 51-58. J. Philbin, O. Chum, M. Isard, J. Sivic, and A. Zisserman, "Object retrieval with large vocabularies and fast spatial matching," in Proc. of CVPR, 2007, pp. 1-8.J. Philbin, O. Chum, M. Isard, J. Sivic, and A. Zisserman, "Object retrieval with large vocabularies and fast spatial matching," in Proc. Of CVPR, 2007, pp. 1-8.

非特許文献4に記載の技術によれば、BoVWのコードブックの生成について、従来の非バイナリ特徴と同様に、k-meansアルゴリズムを用いている。このk-meansアルゴリズムは、特徴ベクトル分布として暗に混合ガウス分布を仮定している。
しかしながら、バイナリ特徴ベクトルは、0/1の値しか取らない。バイナリ特徴ベクトルの分布を考慮せずに生成されたコードブックは、量子化誤差が大きく、最終的に特徴点同士のマッチング精度が低下するという問題がある。
According to the technique described in Non-Patent Document 4, the generation of the BoVW codebook uses the k-means algorithm as in the conventional non-binary feature. This k-means algorithm implicitly assumes a mixed Gaussian distribution as a feature vector distribution.
However, binary feature vectors only take values of 0/1. Codebooks generated without considering the distribution of binary feature vectors have a problem that the quantization error is large, and the matching accuracy between feature points ultimately decreases.

また、特許文献2に記載の技術によれば、訓練コンテンツのバイナリ特徴ベクトルをモデル化しているが、コンテンツを1つの特徴ベクトルで表現している。そのために、局所特徴点間のマッチングの結果を得られないという問題がある。
高精度な検索結果を得るためには、クエリコンテンツとリファレンスコンテンツとの間の幾何的な整合性は、一般的に、局所特徴点間のマッチングの結果を用いて検証されている(例えば非特許文献5参照)。しかしながら、特許文献2に記載の技術によれば、このような幾何的な整合性を検証することはできない。
Further, according to the technique described in Patent Document 2, a binary feature vector of training content is modeled, but the content is expressed by one feature vector. Therefore, there is a problem that a matching result between local feature points cannot be obtained.
In order to obtain a high-precision search result, the geometric consistency between the query content and the reference content is generally verified using the result of matching between local feature points (for example, non-patented). Reference 5). However, according to the technique described in Patent Document 2, such geometric consistency cannot be verified.

ここで、本願の発明者らは、モデル化された複数の量子化対象データ(例えばコードブック内のBoVW)を選定した上で、入力データに対して、できる限り最適な量子化対象データを特定することができないか?と考えた。特に、入力データと量子化対象データとの間の類似度が高いものを単にマッチングさせることなく、量子化対象データである混合分布に応じて、できる限り最適な量子化対象データにマッチングさせることができないか?と考えた。   Here, the inventors of the present application select a plurality of modeled data to be quantized (for example, BoVW in a code book), and specify the most suitable data to be quantized for input data as much as possible. Can't you? I thought. In particular, it is possible to match the optimal data to be quantized as much as possible according to the mixture distribution that is the data to be quantized, without simply matching the data having high similarity between the input data and the data to be quantized. Can't you? I thought.

そこで、本発明は、量子化対象データである混合分布に応じて、入力データに対して最適な量子化対象データをマッチングさせることができるプログラム、装置及び方法を提供することを目的とする。   Therefore, an object of the present invention is to provide a program, an apparatus, and a method that can match optimal quantization target data to input data according to a mixture distribution that is quantization target data.

本発明によれば、入力データxに対して、量子化対象となる複数のノードi(=1〜N)の中から1つ以上のノードiを特定するようにコンピュータを機能させるプログラムにおいて、
ルートノードから順に、各ノードiに混合分布の混合要素Piが紐付けられた探索木を記憶した探索木記憶手段と、
入力データxについて、探索木のルートノードから順に、各ノードiの混合分布P(x)に基づく尤度Pi(x)が大きい方のノード側を探索し、尤度Pi(x)に基づく事後確率γi(x)が所定閾値以上又は上位所定件数のノードiを特定する量子化手段と
してコンピュータを機能させることを特徴とする。
According to the present invention, in a program that causes a computer to function to identify one or more nodes i from among a plurality of nodes i (= 1 to N) to be quantized with respect to input data x,
From the root node sequentially, and the search tree storing means mixing elements P i in the mixture distribution to each node i and stored by the search tree tied,
For the input data x, in order from the root node of the search tree, the node having the larger likelihood P i (x) based on the mixture distribution P (x) of each node i is searched, and the likelihood P i (x) is obtained. The computer is caused to function as a quantizing means for specifying nodes i having a posterior probability γ i (x) based on a predetermined threshold value or higher or a predetermined upper number.

本発明のプログラムにおける他の実施形態によれば、
混合分布P(x)は、ノードiの混合比wiに基づくP(x)=Σi=1 Nii(x)であり、
事後確率γi(x)は、γi(x)=wii(x)/(Σi=1 Nii(x))である
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
The mixture distribution P (x) is P (x) = Σ i = 1 N w i P i (x) based on the mixture ratio w i of the node i,
It is also preferable to make the computer function such that the posterior probability γ i (x) is γ i (x) = w i P i (x) / (Σ i = 1 N w i P i (x)).

本発明のプログラムにおける他の実施形態によれば、
量子化手段は、探索木を深さ優先で探索するものであって、
現に未探索ノードiにおける尤度Pi(x)を、優先度付きキューに記憶し、
優先度付きキューに記憶された尤度Pi(x)が最も高い未探索ノードから順に、再帰的に探索する
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
The quantization means searches the search tree with depth priority,
The likelihood P i (x) in the unsearched node i is actually stored in the priority queue,
It is also preferable to make the computer function so as to search recursively in order from the unsearched node having the highest likelihood P i (x) stored in the priority queue.

本発明のプログラムにおける他の実施形態によれば、
探索木は、ルートノードに対し、ランダムに選択されたK個(K≧1)の混合要素P1〜PKを子ノードとして接続し、選択されなかった混合要素Piを、P1〜PKに対応したノードに更に紐付けることを再帰的に繰り返すことによって、探索木を作成する探索木作成手段と
して更にコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
The search tree connects K mixed elements P 1 to P K selected at random (K ≧ 1) as child nodes to the root node, and the unselected mixed elements P i are connected to P 1 to P It is also preferable to further cause the computer to function as search tree creation means for creating a search tree by recursively repeating the association with the node corresponding to K.

本発明のプログラムにおける他の実施形態によれば、
探索木作成手段は、選択されなかった混合要素Piを、P1〜PKに対応したノードに紐付ける際に、PiとPj∈P1,・・・,PKの間の非類似度尺度として、KL(Kullback Leibler)ダイバージェンス又はJS(Jensen Shannon)ダイバージェンスを用いる
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
Search tree generating means, a mixing element P i that have not been selected, when attaching the cord to the node corresponding to P 1 to P K, P i and P j ∈P 1, ···, non between P K It is also preferable to make the computer function so as to use KL (Kullback Leibler) divergence or JS (Jensen Shannon) divergence as the similarity measure.

本発明のプログラムにおける他の実施形態によれば、
混合分布P(x)は、混合ベルヌーイ分布、混合ガウス分布、混合多項分布、混合ディリクレ分布、又は、混合ラプラス分布である
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
It is also preferable to cause the computer to function so that the mixed distribution P (x) is a mixed Bernoulli distribution, a mixed Gaussian distribution, a mixed multinomial distribution, a mixed Dirichlet distribution, or a mixed Laplace distribution.

本発明のプログラムにおける他の実施形態によれば、
入力された訓練コンテンツ、リファレンスコンテンツ及びクエリコンテンツそれぞれについて、バイナリ特徴ベクトルの集合を抽出するバイナリ特徴ベクトル抽出手段と、
訓練コンテンツのバイナリ特徴ベクトルの集合について、混合分布P(x)に関する混合比wiを含むモデルパラメータλを算出するモデル推定手段と、
モデルパラメータλを記憶するモデルパラメータ記憶手段と
してコンピュータを機能させ、
量子化手段は、リファレンスコンテンツ又はクエリコンテンツのバイナリ特徴ベクトルについて、モデルパラメータλを用いてノードiを特定し、
リファレンスコンテンツの各バイナリ特徴ベクトルについて、量子化手段で特定された1つ以上のノードの識別子iに対応する転置インデックスのリストにバイナリ特徴ベクトルの情報を記憶する転置インデックス記憶手段と、
クエリコンテンツの各バイナリ特徴ベクトルについて、量子化手段で特定された1つ以上のノードの識別子iに対応する転置インデックスのリストを探索し、リストに記憶されているバイナリ特徴ベクトルに対応したリファレンスコンテンツに対しスコアを累積し、累積されたスコアを類似度としてリファレンスコンテンツを検索する検索手段と
して更にコンピュータを機能させ、クエリコンテンツに類似したリファレンスコンテンツを検索することも好ましい。
According to another embodiment of the program of the present invention,
Binary feature vector extraction means for extracting a set of binary feature vectors for each of the input training content, reference content and query content;
Model estimation means for calculating a model parameter λ including a mixture ratio w i for the mixture distribution P (x) for a set of binary feature vectors of training content;
Causing the computer to function as model parameter storage means for storing the model parameter λ,
The quantization means specifies the node i using the model parameter λ for the binary feature vector of the reference content or the query content,
For each binary feature vector of the reference content, transposed index storage means for storing information of the binary feature vector in a list of transposed indexes corresponding to the identifier i of one or more nodes specified by the quantizing means;
For each binary feature vector of the query content, a list of transposed indexes corresponding to the identifier i of one or more nodes specified by the quantization means is searched, and the reference content corresponding to the binary feature vector stored in the list is searched. It is also preferable to search the reference content similar to the query content by accumulating the score, and further causing the computer to function as search means for searching the reference content using the accumulated score as the similarity.

本発明のプログラムにおける他の実施形態によれば、
混合分布P(x)が、混合ベルヌーイ分布である場合、
モデルパラメータλは、ノードiの混合ベルヌーイ分布に関する混合比wiと、ノードiの混合ベルヌーイ分布のd(1≦d≦D)番目のパラメータμidとであり、
量子化手段は、混合比wiとパラメータμidとを用いて、各ノードiに対応する混合分布Piを特定する
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
When the mixed distribution P (x) is a mixed Bernoulli distribution,
The model parameter λ is the mixture ratio w i for the mixed Bernoulli distribution at node i and the d (1 ≦ d ≦ D) th parameter μ id of the mixed Bernoulli distribution at node i,
It is also preferable that the quantization means causes the computer to function so as to specify the mixture distribution P i corresponding to each node i using the mixture ratio w i and the parameter μ id .

本発明のプログラムにおける他の実施形態によれば、
モデル推定手段は、訓練コンテンツのバイナリ特徴ベクトルの集合x1〜xTから、
E(Expectation)ステップについて、バイナリ特徴ベクトルxi毎に潜在変数iの事後確率γt(i)=wii(x)/(Σi=1 Nii(x))を推定し、
M(Maximization)ステップについて、事後確率γt(i)を用いて、混合比wi及びパラメータμiを更新し、
これらEステップ及びMステップを、収束するまで又は一定回数繰り返すことによって、混合比wi及びパラメータμidのパラメータ群λを算出する
λ=(w1、・・・、wN及びμ11、・・・、μND
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
The model estimation means uses a set of binary feature vectors x 1 to x T of training content,
For the E (Expectation) step, estimate the posterior probability γ t (i) = w i P i (x) / (Σ i = 1 N w i P i (x)) of the latent variable i for each binary feature vector x i And
For the M (Maximization) step, update the mixture ratio w i and parameter μ i using the posterior probability γ t (i),
The parameter group λ of the mixture ratio w i and the parameter μ id is calculated by repeating these E step and M step until convergence or a certain number of times. Λ = (w 1 ,..., W N and μ 11 ,. .., μ ND )
It is also preferable to make the computer function.

本発明によれば、入力データxに対して、量子化対象となる複数のノードi(=1〜N)の中から1つ以上のノードiを特定する量子化装置において、
ルートノードから順に、各ノードiに混合分布の混合要素Piが紐付けられた探索木を記憶した探索木記憶手段と、
入力データxについて、探索木のルートノードから順に、各ノードiの混合分布P(x)に基づく尤度Pi(x)が大きい方のノード側を探索し、尤度Pi(x)に基づく事後確率γi(x)が所定閾値以上又は上位所定件数のノードiを特定する量子化手段と
を有することを特徴とする。
According to the present invention, in the quantizing device for identifying one or more nodes i among a plurality of nodes i (= 1 to N) to be quantized with respect to input data x,
From the root node sequentially, and the search tree storing means mixing elements P i in the mixture distribution to each node i and stored by the search tree tied,
For the input data x, in order from the root node of the search tree, the node having the larger likelihood P i (x) based on the mixture distribution P (x) of each node i is searched, and the likelihood P i (x) is obtained. And a quantizing unit that identifies nodes i having a posterior probability γ i (x) based on a predetermined threshold or higher or a predetermined upper number.

本発明によれば、入力データxに対して、量子化対象となる複数のノードi(=1〜N)の中から1つ以上のノードiを特定する装置の量子化方法において、
装置は、ルートノードから順に、各ノードiに混合分布の混合要素Piが紐付けられた探索木を記憶した探索木記憶部を有し、
装置は、入力データxについて、探索木のルートノードから順に、各ノードiの混合分布P(x)に基づく尤度Pi(x)が大きい方のノード側を探索し、尤度Pi(x)に基づく事後確率γi(x)が所定閾値以上又は上位所定件数のノードiを特定する
ことを特徴とする。
According to the present invention, in the quantization method of an apparatus for identifying one or more nodes i from among a plurality of nodes i (= 1 to N) to be quantized with respect to input data x,
The apparatus includes a search tree storage unit that stores a search tree in which mixed elements P i of a mixed distribution are linked to each node i in order from the root node,
For the input data x, in order from the root node of the search tree, the apparatus searches the node side with the higher likelihood P i (x) based on the mixture distribution P (x) of each node i, and the likelihood P i ( The a posteriori probability γ i (x) based on x) is specified to be a predetermined threshold value or higher or a predetermined number of nodes i.

本発明のプログラム、装置及び方法によれば、量子化対象データである混合分布に応じて、入力データに対して最適な量子化対象データをマッチングさせることができる。   According to the program, apparatus, and method of the present invention, optimal quantization target data can be matched to input data according to the mixture distribution that is quantization target data.

量子化処理を表す説明図である。It is explanatory drawing showing a quantization process. 本発明におけるコンテンツの検索装置の機能構成図である。It is a functional block diagram of the content search device in the present invention. 本発明の量子化部によって参照される探索木の構成図である。It is a block diagram of the search tree referred by the quantization part of this invention. 本発明の探索木の作成ステップを表す第1の説明図である。It is the 1st explanatory view showing the creation step of the search tree of the present invention. 本発明の探索木の作成ステップを表す第2の説明図である。It is the 2nd explanatory view showing the creation step of the search tree of the present invention. 探索木における第1の探索ステップを表す第1の説明図である。It is the 1st explanatory view showing the 1st search step in a search tree. 探索木における第2の探索ステップを表す第2の説明図である。It is the 2nd explanatory view showing the 2nd search step in a search tree. 探索木における第3の探索ステップを表す第3の説明図である。It is the 3rd explanatory view showing the 3rd search step in a search tree. 探索木における第4の探索ステップを表す第4の説明図である。It is the 4th explanatory view showing the 4th search step in a search tree. 探索木における第5の探索ステップを表す第5の説明図である。It is the 5th explanatory view showing the 5th search step in a search tree. 本発明の検索部によって参照される転置インデックスの処理を表す説明図である。It is explanatory drawing showing the process of the transposed index referred by the search part of this invention.

以下、本発明の実施の形態について、図面を用いて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

本発明の本質的な部分は、入力データに対する「量子化機能」にある。量子化機能とは、入力データxに対して、複数の量子化対象データの中から1つ以上の量子化対象データを特定するものである。ここで、本発明によれば、コードブックの量子化対象データは、混合分布の混合要素Piが紐付けられた探索木として記憶されている。探索木は、訓練コンテンツのバイナリ特徴ベクトルの分布をモデル化した混合分布(例えば混合ベルヌーイ分布)に基づいて、コードブックの量子化対象データ(例えばVW)を木構造に構成したものである。この木構造を用いて量子化することで、入力データを全ての量子化対象データと比較する必要がなくなるため、高速に量子化することができる。 An essential part of the present invention is the “quantization function” for the input data. The quantization function is to specify one or more quantization target data from among a plurality of quantization target data for input data x. Here, according to the present invention, the quantization target data of the code book is stored as a search tree in which the mixed elements P i of the mixed distribution are linked. The search tree is a codebook quantization target data (for example, VW) configured in a tree structure based on a mixed distribution (for example, mixed Bernoulli distribution) that models the distribution of binary feature vectors of training content. By quantizing using this tree structure, it is not necessary to compare the input data with all the data to be quantized, so that it can be quantized at high speed.

本発明の量子化機能によれば、入力データxについて、探索木のルートノードから順に、各量子化対象データ(ノード)iの混合分布P(x)に基づく尤度Pi(x)が大きい方のノード側を探索し、尤度Pi(x)に基づく事後確率γi(x)が所定閾値以上又は上位所定件数の量子化対象データiを特定する。入力データxを、特定された量子化対象データiに紐付けることができる。 According to the quantization function of the present invention, for input data x, the likelihood P i (x) based on the mixture distribution P (x) of each quantization target data (node) i is large in order from the root node of the search tree. The other node side is searched, and the quantization target data i whose posterior probability γ i (x) based on the likelihood P i (x) is equal to or higher than a predetermined threshold or the upper predetermined number is specified. The input data x can be linked to the specified quantization target data i.

図2は、本発明におけるコンテンツの検索装置の機能構成図である。   FIG. 2 is a functional configuration diagram of the content search apparatus according to the present invention.

図2によれば、検索装置1は、バイナリ特徴ベクトル抽出部11と、モデル推定部12と、モデルパラメータ記憶部13と、探索木作成部14と、探索木記憶部15と、量子化部16と、転置インデックス記憶部17と、検索部18とを有する。これら機能構成部は、装置に搭載されたコンピュータを機能させるプログラムを実行することによって実現される。また、これら機能構成部の処理の流れは、装置の量子化方法としても理解できる。   According to FIG. 2, the search device 1 includes a binary feature vector extraction unit 11, a model estimation unit 12, a model parameter storage unit 13, a search tree creation unit 14, a search tree storage unit 15, and a quantization unit 16. And an inverted index storage unit 17 and a search unit 18. These functional components are realized by executing a program that causes a computer installed in the apparatus to function. The processing flow of these functional components can also be understood as a device quantization method.

図2によれば、検索装置1には、訓練コンテンツ、リファレンスコンテンツ及びクエリコンテンツが入力される。ここで、コンテンツは、例えば画像であってもよい。その場合、検索装置1は、多数の訓練画像からモデルパラメータ及び探索木を作成し、クエリ画像に類似するリファレンス画像を検索することができる。   According to FIG. 2, training content, reference content, and query content are input to the search device 1. Here, the content may be, for example, an image. In that case, the search device 1 can create model parameters and a search tree from a large number of training images, and search for a reference image similar to the query image.

図2によれば、前述した機能構成部は、各フェーズに応じて機能する。フェーズとしては、3つのフェーズがある。
<訓練フェーズ>
バイナリ特徴ベクトル抽出部11、モデル推定部12、
モデルパラメータ記憶部13、探索木作成部14、探索木記憶部15
<インデックス構築フェーズ>
バイナリ特徴ベクトル抽出部11、量子化部16、転置インデックス記憶部17
<検索フェーズ>
バイナリ特徴ベクトル抽出部11、量子化部16、検索部18
According to FIG. 2, the above-described functional configuration unit functions in accordance with each phase. There are three phases.
<Training phase>
A binary feature vector extraction unit 11, a model estimation unit 12,
Model parameter storage unit 13, search tree creation unit 14, search tree storage unit 15
<Index construction phase>
Binary feature vector extraction unit 11, quantization unit 16, transposed index storage unit 17
<Search phase>
Binary feature vector extraction unit 11, quantization unit 16, search unit 18

<訓練フェーズ>
訓練フェーズによれば、検索装置1は、多数の訓練コンテンツを入力し、訓練コンテンツ毎にバイナリ特徴ベクトルの集合を抽出する。そして、バイナリ特徴ベクトルの集合を用いて混合分布のモデルパラメータを推定すると共に、モデルパラメータを用いて量子化処理の際に参照される探索木を生成する。
<Training phase>
According to the training phase, the search device 1 inputs a large number of training contents and extracts a set of binary feature vectors for each training content. Then, a model parameter of the mixed distribution is estimated using a set of binary feature vectors, and a search tree referred to in the quantization process is generated using the model parameter.

<インデックス構築フェーズ>
インデックス構築フェーズによれば、検索装置1は、多数のリファレンスコンテンツ(検索対象のコンテンツ)を入力し、リファレンスコンテンツ毎にバイナリ特徴ベクトルの集合を抽出する。そして、バイナリ特徴ベクトル毎に、モデルパラメータ及び探索木を用いて量子化処理を実行する。その結果、特定された量子化対象データは、検索用の転置インデックスとして記憶される。
<Index construction phase>
According to the index construction phase, the search device 1 inputs a large number of reference contents (contents to be searched) and extracts a set of binary feature vectors for each reference content. Then, the quantization process is executed for each binary feature vector using the model parameter and the search tree. As a result, the specified quantization target data is stored as a transposed index for search.

<検索フェーズ>
検索フェーズによれば、検索装置1は、クエリコンテンツ(検索キーのコンテンツ)を入力し、クエリコンテンツからバイナリ特徴ベクトルの集合を抽出する。次に、バイナリ特徴ベクトル毎に、モデルパラメータ及び探索木を用いて量子化処理を実行する。その結果、特定された量子化対象データから、転置インデックスを参照して、最も類似するリファレンスコンテンツを検索する。
尚、本発明の本質的な機能構成は、「検索フェーズ」にあって、入力データxに対して、量子化対象となる複数のノードi(=1〜N)の中から1つ以上のノードiを特定することにある。
<Search phase>
According to the search phase, the search device 1 inputs query content (content of search key) and extracts a set of binary feature vectors from the query content. Next, quantization processing is executed for each binary feature vector using the model parameter and the search tree. As a result, the most similar reference content is searched from the identified quantization target data with reference to the transposed index.
The essential functional configuration of the present invention is in the “search phase”, and for the input data x, one or more nodes among a plurality of nodes i (= 1 to N) to be quantized. To identify i.

以下では、検索装置1の機能構成部毎に、詳述する。   Below, it explains in full detail for every function structure part of the search device 1. FIG.

[バイナリ特徴ベクトル抽出部11]<訓練・インデックス構築・検索フェーズ>
バイナリ特徴ベクトル抽出部11は、入力された訓練コンテンツ、リファレンスコンテンツ及びクエリコンテンツそれぞれについて、バイナリ特徴ベクトルの集合を抽出する。
訓練フェーズの場合、抽出されたバイナリ特徴ベクトルの集合は、モデル推定部12へ出力される。
インデックス構築フェーズ及び検索フェーズの場合、抽出されたバイナリ特徴ベクトルの集合は、量子化部16へ出力される。
[Binary Feature Vector Extraction Unit 11] <Training / Index Construction / Search Phase>
The binary feature vector extraction unit 11 extracts a set of binary feature vectors for each of the input training content, reference content, and query content.
In the training phase, the set of extracted binary feature vectors is output to the model estimation unit 12.
In the index construction phase and the search phase, the set of extracted binary feature vectors is output to the quantization unit 16.

バイナリ特徴ベクトル抽出部11は、任意のバイナリ特徴ベクトル抽出アルゴリズムによってバイナリ局所特徴の集合を抽出する。本発明によれば、バイナリ特徴ベクトルの抽出アルゴリズムとして、ORB(Oriented FAST and Rotated BRIEF)を用いることが好ましい。ORBの場合、1つのコンテンツから256ビットのバイナリ特徴ベクトルの集合が抽出される。
ORBは、高速にマッチングを実行するべく、BRIEF(Binary Robust Independent Elementary Features)に回転不変性を導入し、バイナリコードによる特徴記述をしたものである。ORBによれば、SIFTやSURFと比較して、同等以上の精度を保持すると共に、数百倍の高速化を実現することができる。
勿論、ORBに限られず、FREAK(Fast Retina Keypoint)、BRISK、AKAZEと称される任意のバイナリ特徴ベクトルを用いることもできる。
The binary feature vector extraction unit 11 extracts a set of binary local features by an arbitrary binary feature vector extraction algorithm. According to the present invention, it is preferable to use ORB (Oriented FAST and Rotated BRIEF) as the binary feature vector extraction algorithm. In the case of ORB, a set of 256-bit binary feature vectors is extracted from one content.
ORB introduces rotation invariance into BRIEF (Binary Robust Independent Elementary Features) and performs feature description by binary code in order to execute matching at high speed. According to the ORB, it is possible to maintain an accuracy equal to or higher than that of SIFT or SURF and realize a speed increase of several hundred times.
Of course, it is not limited to the ORB, and any binary feature vector called FRAK (Fast Retina Keypoint), BRISK, or AKAZE can also be used.

<ORBについて>
ORBは、「特徴点検出処理」と「特徴ベクトル記述処理」との2つのステップから構成される。
<About ORB>
The ORB is composed of two steps of “feature point detection processing” and “feature vector description processing”.

(特徴点検出処理)
ORBにおける特徴点検出処理によれば、高速にキーポイントを検出するためにFAST(Features from Accelerated Segment Test)を用いる。また、FASTでは、スケール変化に対してロバストではないため、画像を複数のサイズに変換し、それぞれのサイズの画像から特徴点を抽出する。
(Feature point detection processing)
According to the feature point detection process in the ORB, FAST (Features from Accelerated Segment Test) is used to detect key points at high speed. In addition, since FAST is not robust to scale changes, an image is converted into a plurality of sizes, and feature points are extracted from images of each size.

また、既存のFASTには、回転不変性を得るためのキーポイントのオリエンテーション算出のアルゴリズムがない。そのために、ORBでは、回転不変性を得るべくOriented FASTを採用している。オリエンテーションを基準として特徴記述をすることによって、入力画像が回転していても、同一なキーポイントは同一な特徴量となって検出することができる。そのために、キーポイントの中心とパッチの輝度の重心の方向ベクトルを用いる。   Further, the existing FAST does not have an algorithm for calculating the key point orientation for obtaining rotation invariance. Therefore, ORB adopts Oriented FAST in order to obtain rotational invariance. By describing the features based on the orientation, even if the input image is rotated, the same key point can be detected as the same feature amount. For this purpose, the direction vector of the center of the key point and the center of gravity of the luminance of the patch is used.

(特徴ベクトル記述処理)
次に、ORBにおける特徴ベクトル記述処理によれば、検出された特徴点毎に、BRIEF特徴ベクトル記述子によってバイナリ特徴ベクトルが抽出される。これらは、特徴点周辺の2箇所のピクセルの輝度の大小関係から求められる。
(Feature vector description processing)
Next, according to the feature vector description processing in the ORB, a binary feature vector is extracted for each detected feature point using the BRIEF feature vector descriptor. These are obtained from the magnitude relationship of the luminance of two pixels around the feature point.

BRIEFは、バイナリコードによってキーポイントの特徴量記述を実行することができる。SIFTやSURFによれば、特徴量記述に高次元の実数を用いていた。しかしながら、高次元の実数を用いた場合、メモリ容量の増加と類似度計算の増加と問題となる。そこで、ORBに基づくBRIEFを用いることによって、バイナリコードによって特徴記述することで省メモリ化し、類似度計算にハミング距離を用いることで処理コストの抑制を実現する。   BRIEF can execute keypoint feature description by binary code. According to SIFT and SURF, high-dimensional real numbers are used for feature description. However, when a high-dimensional real number is used, there is an increase in memory capacity and similarity calculation. Therefore, by using BREF based on ORB, it is possible to save memory by describing features by binary code, and it is possible to reduce processing costs by using a Hamming distance for similarity calculation.

BRIEFによれば、パッチ内においてランダムに選択された2点の輝度差の符号からバイナリコードを生成する。選択するピクセルは、キーポイント位置を中心としたガウス分布に従ってランダムに選択する。ここで、ORBは、更に高精度にマッチングをさせるために、学習を用いてピクセルを選択している。選択するピクセル位置は、ペアのビット分散が大きく且つN組のペアの相関が低い場合に、特徴記述能力が高いバイナリコードとして、特徴記述に使用する。N組のペアは、Greedyアルゴリズムを用いて絞り込む。   According to BRIEF, a binary code is generated from the sign of the luminance difference between two points randomly selected in the patch. The pixels to be selected are randomly selected according to a Gaussian distribution centered on the key point position. Here, the ORB selects pixels using learning in order to perform matching with higher accuracy. The selected pixel position is used for feature description as a binary code having high feature description capability when the bit variance of the pair is large and the correlation of N pairs is low. N pairs are narrowed down using the Greedy algorithm.

[モデル推定部12]<訓練フェーズ>
モデル推定部12は、訓練コンテンツのバイナリ特徴ベクトルの集合について、混合分布P(x)に関する混合比wiを含むモデルパラメータλを算出する。
混合分布P(x)は、混合ベルヌーイ分布であることが好ましいが、混合ガウス分布、混合多項分布、混合ディリクレ分布、又は、混合ラプラス分布であってもよい。
[Model estimation unit 12] <Training phase>
The model estimation unit 12 calculates a model parameter λ including the mixture ratio w i regarding the mixture distribution P (x) for the set of binary feature vectors of the training content.
The mixed distribution P (x) is preferably a mixed Bernoulli distribution, but may be a mixed Gaussian distribution, a mixed multinomial distribution, a mixed Dirichlet distribution, or a mixed Laplace distribution.

以下では、混合分布P(x)は、混合(多変量)ベルヌーイ分布であるとして説明する。   In the following description, it is assumed that the mixed distribution P (x) is a mixed (multivariate) Bernoulli distribution.

混合分布P(x)が、混合ベルヌーイ分布である場合、モデルパラメータλは、ノードi(i番目)の混合ベルヌーイ分布に関する混合比wiと、ノードiの混合ベルヌーイ分布のd(1≦d≦D)番目のパラメータμidとなる。モデル推定部12は、これらモデルパラメータλを算出する。
λ(w1、・・・、wN及びμ11、・・・、μND
When the mixed distribution P (x) is a mixed Bernoulli distribution, the model parameter λ includes the mixing ratio w i for the mixed Bernoulli distribution at the node i (i-th) and d (1 ≦ d ≦ 1) of the mixed Bernoulli distribution at the node i. D) The second parameter μid. The model estimation unit 12 calculates these model parameters λ.
λ (w 1 ,..., w N and μ 11 ,..., μ ND )

<混合ベルヌーイ分布に基づくパラメータwi及びμidの算出>
本発明によれば、バイナリ特徴ベクトルの集合を「混合ベルヌーイ分布」でモデル化したモデルパラメータλを推定する。ベルヌーイ分布とは、確率pで1を、確率q=1-pで0をとる離散確率分布をいう。Xをベルヌーイ分布に従う確率変数とすれば、確率変数Xの平均はp、分散はpq=p(1-p)となる。「混合ベルヌーイ分布」は、バイナリ特徴ベクトルxtが生成される確率p(xt|λ)を表現する。

Figure 0006601965
N:混合数 <Calculation of parameters w i and μ id based on mixed Bernoulli distribution>
According to the present invention, a model parameter λ obtained by modeling a set of binary feature vectors with a “mixed Bernoulli distribution” is estimated. The Bernoulli distribution is a discrete probability distribution with a probability p of 1 and a probability q = 1−p of 0. If X is a random variable according to Bernoulli distribution, the mean of the random variable X is p, and the variance is pq = p (1-p). The “mixed Bernoulli distribution” expresses a probability p (x t | λ) that a binary feature vector x t is generated.
Figure 0006601965
N: Number of mixtures

混合分布であるため、p1からpNまでの異なる混合ベルヌーイ分布が、それぞれ混合比wiで選択され、xtが生成される。i番目の混合ベルヌーイ分布から、バイナリ特徴ベクトルxtが生成される確率は、以下の式で表現される。

Figure 0006601965

μid:i番目の混合ベルヌーイ分布のd番目のパラメータ
xt,d:バイナリ特徴ベクトルxtのd番目のビット
D:バイナリ特徴ベクトルのビット長
pi(xt|λ):バイナリ特徴ベクトルxtがi番目の混合ベルヌーイ分布から生成
された際に、d番目のビットが1となる確率 Since they are mixed distributions, different mixed Bernoulli distributions from p 1 to p N are selected with the respective mixing ratios w i to generate x t . The probability that the binary feature vector x t is generated from the i-th mixed Bernoulli distribution is expressed by the following equation.
Figure 0006601965

μ id : d-th parameter of i-th mixed Bernoulli distribution
x t, d : d-th bit of binary feature vector x t
D: Bit length of binary feature vector
p i (x t | λ): Binary feature vector x t is generated from the i-th mixed Bernoulli distribution
The probability that the dth bit will be 1

これらのパラメータは、具体的には、訓練コンテンツのバイナリ特徴ベクトルの集合x1〜xTから、EM(Expectation-Maximization)アルゴリズムの繰り返し処理によって推定する。EMアルゴリズムとは、統計学について、確率モデルのパラメータを最尤法に基づいて推定方法であって、観測不可能な潜在変数に確率モデルが依存する場合に用いられるものである。 Specifically, these parameters are estimated from a set of binary feature vectors x 1 to x T of the training content by an iterative process of an EM (Expectation-Maximization) algorithm. The EM algorithm is an estimation method for statistical parameters based on the maximum likelihood method, and is used when the probability model depends on a latent variable that cannot be observed.

E(Expectation、事後確率)ステップでは、バイナリ特徴ベクトルxi毎に、潜在変数ztiの分布に基づいて、モデルの尤度の事後確率γt(i)を推定する。

Figure 0006601965
γt(i):t番目の訓練ベクトルがi番目の混合ベルヌーイ分布から生成された
事後確率 In the E (Expectation) step, the likelihood posterior probability γ t (i) of the model likelihood is estimated for each binary feature vector x i based on the distribution of the latent variable z ti .
Figure 0006601965
γt (i): t-th training vector generated from i-th mixed Bernoulli distribution
Posterior probability

M(Maximization、最大化)ステップでは、Eステップで算出された尤度の事後確率γt(i)を最大化するべく、混合比wi及びパラメータμiを更新する。Mステップで算出されたパラメータは、次のEステップにおける潜在変数の分布を決定するために用いられる。

Figure 0006601965
In the M (Maximization) step, the mixture ratio w i and the parameter μ i are updated in order to maximize the posterior probability γ t (i) of the likelihood calculated in the E step. The parameter calculated in the M step is used to determine the distribution of latent variables in the next E step.
Figure 0006601965

これらEステップ及びMステップを、収束するまで繰り返すことによって、対数尤度を最大化する混合比wi及びパラメータμiのパラメータ群λを算出する
λ(w1、・・・、wN及びμ11、・・・、μND
By repeating these E step and M step until convergence, the parameter group λ of the mixture ratio w i and the parameter μ i that maximizes the log likelihood is calculated λ (w 1 ,..., W N and μ 11・ ・ ・ ・ ・ ・ μ ND

[モデルパラメータ記憶部13]<訓練フェーズ>
モデルパラメータ記憶部13は、混合分布P(x)のモデルパラメータλを記憶する。モデルパラメータ記憶部13は、量子化部16から参照される。
[Model parameter storage unit 13] <Training phase>
The model parameter storage unit 13 stores the model parameter λ of the mixture distribution P (x). The model parameter storage unit 13 is referred to by the quantization unit 16.

[探索木作成部14]<訓練フェーズ>
探索木作成部14は、ルートノードから順に、複数のノード(量子化対象データ、VWの代表ベクトル)が木構造に紐付けられた探索木を作成する。
[Search tree creation unit 14] <Training phase>
The search tree creation unit 14 creates a search tree in which a plurality of nodes (quantization target data, representative vectors of VW) are linked to a tree structure in order from the root node.

図3は、本発明の量子化部によって参照される探索木の構成図である。   FIG. 3 is a configuration diagram of a search tree referred to by the quantization unit of the present invention.

本発明の探索木は、ルートノードから順に、各ノードiに混合分布の混合要素Piが紐付けられたものである。ノード番号は、混合要素Piのi番目を表す。 The search tree of the present invention is such that a mixed element P i of a mixed distribution is linked to each node i in order from the root node. The node number represents the i-th of the mixed element P i .

探索木作成部14には、モデル推定部12によって推定された混合ベルヌーイ分布の集合Bが入力される。Bの要素Biは、パラメータwi及びμi1〜μiDから構成される。また、木を作成するためのパラメータとして、以下のように設定される。
全ノード数B
葉ノード最大数SL
枝数K
A set B of mixed Bernoulli distributions estimated by the model estimation unit 12 is input to the search tree creation unit 14. The element Bi of B is composed of parameters wi and μ i1 to μ iD . In addition, the following parameters are set as parameters for creating a tree.
Total number of nodes B
Maximum number of leaf nodes SL
Number of branches K

探索木作成部14は、ルートノードに対し、ランダムに選択されたK個(K≧1)の混合要素P1〜PKを子ノードとして接続し、選択されなかった混合要素Piを、P1〜PKに対応したノードに更に紐付けることを再帰的に繰り返すことによって、探索木を作成する。 The search tree creation unit 14 connects K mixed elements P 1 to P K selected at random (K ≧ 1) as child nodes to the root node, and selects the mixed elements P i that have not been selected as P A search tree is created by recursively repeating further association with the nodes corresponding to 1 to P K.

探索木の作成ステップは、例えば以下のようなアルゴリズムで表される。
if Bの要素数≦SL then
Bを保持する葉ノードを作成
else
BからランダムにK個の要素を選択し、P1,〜,PKとする
Bの残りの要素を、最も近いPiに割り当て、クラスタC1,〜,CKを作成
for each クラスタCi do
iを用いて中間ノードを作成し、Ciについて再帰的に実行
end for
end if
The search tree creation step is expressed by the following algorithm, for example.
number of elements in if B ≤ SL then
Create leaf node holding B
else
Select K elements at random from B and make them P 1 , ~, P K
Assign the remaining elements of B to the nearest Pi and create clusters C 1 , ~, C K
for each cluster C i do
Create intermediate node using P i and execute recursively on C i
end for
end if

図4は、本発明の探索木の作成ステップを表す第1の説明図である。
図5は、本発明の探索木の作成ステップを表す第2の説明図である。
FIG. 4 is a first explanatory diagram showing the search tree creation step of the present invention.
FIG. 5 is a second explanatory diagram showing the search tree creation step of the present invention.

図3〜図5の探索木は、全ノード数B=12、葉ノード最大数SL=4、枝数K=2として表したものである。
(S1)図4(a)によれば、全ノード数Bは、12>SLであるために、ルートノードは葉ノードとはならず、子ノードを持つ。
(S2)図4(b)によれば、子ノードは、全ノードBの中から、ランダムにk=2個が選択される。ここでは、i=3番目とi=7番目のノードが選択され、P1、P2のノードが作成される。
(S3)図4(c)によれば、次に、Bの残り10個のノードを、混合要素P1又はP2のいずれか近い方に割り当てる。この割当によって、C1及びC2の新たな集合が作成される。この集合に対し、再帰的にアルゴリズムを適用する。
(S4)図5(a)によれば、C1のノード数は7>SLであるために、C1は葉ノードとはならない。この集合C1対して、再帰的にアルゴリズムを適用する。一方で、C2のノード数は3≦SLであるために、C2は葉ノードとなる。
(S5)図5(b)によれば、最終的に、葉ノード数≦SLとなる探索木が作成される。
The search trees in FIGS. 3 to 5 are represented as the total node number B = 12, the leaf node maximum number SL = 4, and the branch number K = 2.
(S1) According to FIG. 4A, since the total node number B is 12> SL, the root node does not become a leaf node but has a child node.
(S2) According to FIG. 4B, k = 2 children nodes are randomly selected from all nodes B. Here, the nodes i = 3 and i = 7 are selected, and the nodes P 1 and P 2 are created.
(S3) according to FIG. 4 (c), the then remaining 10 nodes of B, allocated to nearer one of the mixing elements P 1 or P 2. This assignment creates a new set of C 1 and C 2 . The algorithm is recursively applied to this set.
(S4) According to FIG. 5A, since the number of nodes of C 1 is 7> SL, C 1 is not a leaf node. This set C 1 for, applying a recursively algorithm. On the other hand, since the number of nodes of C 2 is 3 ≦ SL, C 2 is a leaf node.
(S5) According to FIG. 5 (b), finally, a search tree with the number of leaf nodes ≦ SL is created.

また、探索木作成部14は、Bの要素をPiに割り当てる際に、混合ベルヌーイ分布間の類似度を計算する必要がある。探索木作成部14は、選択されなかった混合要素Piを、P1〜PKに対応したノードに紐付ける際に、PiとPj∈P1,・・・,PKの間の非類似度尺度として、KL(Kullback Leibler)ダイバージェンス又はJS(Jensen Shannon)ダイバージェンスを用いることも好ましい。
KLダイバージェンスとは、相対エントロピーとも称され、分布と分布と間の差の大きさを導出するものである。
JSダイバージェンスとは、KLダイバージェンスに対象性を持たせたものである。
Further, the search tree creation unit 14 needs to calculate the similarity between the mixed Bernoulli distributions when assigning the element B to Pi. Search tree creation unit 14, the mixing element P i that have not been selected, when attaching the cord to the node corresponding to P 1 to P K, P i and P j ∈P 1, ···, between P K It is also preferable to use KL (Kullback Leibler) divergence or JS (Jensen Shannon) divergence as the dissimilarity measure.
KL divergence is also referred to as relative entropy, and derives the magnitude of the difference between distributions.
The JS divergence is a KL divergence with a target.

混合ベルヌーイ分布piのpjに対するKLダイバージェンスは、以下のように定義される。

Figure 0006601965
The KL divergence of the mixed Bernoulli distribution p i for p j is defined as follows:
Figure 0006601965

[探索木記憶部15]<訓練フェーズ>
探索木記憶部15は、ルートノードから順に、各ノードiに混合分布の混合要素Piが紐付けられた探索木を記憶する。探索木記憶部15は、量子化部16から参照される。
[Search tree storage unit 15] <Training phase>
The search tree storage unit 15 stores, in order from the root node, a search tree in which a mixed element P i of a mixed distribution is associated with each node i. The search tree storage unit 15 is referred to by the quantization unit 16.

[量子化部16]<インデックス構築・検索フェーズ>
量子化部16は、リファレンスコンテンツ又はクエリコンテンツのバイナリ特徴ベクトルについて、モデルパラメータλと探索木とを参照して、量子化対象となるノードiを特定する。
本発明の本質的機能は、検索フェーズにおける量子化部16であって、入力データxに対して、量子化対象となる複数のノードi(=1〜N)の中から1つ以上のノードiを特定したものである。
[Quantization unit 16] <Index construction / search phase>
The quantization unit 16 specifies the node i to be quantized with reference to the model parameter λ and the search tree for the binary feature vector of the reference content or the query content.
The essential function of the present invention is the quantization unit 16 in the search phase, and for the input data x, one or more nodes i among a plurality of nodes i (= 1 to N) to be quantized. Is specified.

量子化部16は、入力データxについて、探索木のルートノードから順に、各ノードiの混合分布P(x)に基づく尤度Pi(x)が大きい方のノード側を探索し、尤度Pi(x)に基づく事後確率γi(x)が所定閾値以上又は上位所定件数のノードiを特定する。
混合分布P(x)は、ノードiの混合比wiに基づくP(x)=Σi=1 Nii(x)である。
事後確率γi(x)は、γi(x)=wii(x)/(Σi=1 Nii(x))である。
尚、混合ベルヌーイ分布の場合、モデルパラメータλ(混合比wi、パラメータμid)を用いて、各ノードiに対応する混合分布Piを特定する。
The quantization unit 16 searches the input data x in order from the root node of the search tree for the node having the larger likelihood P i (x) based on the mixture distribution P (x) of each node i, and the likelihood. The number of nodes i whose posterior probability γ i (x) based on P i (x) is greater than or equal to a predetermined threshold value or higher is specified.
The mixture distribution P (x) is P (x) = Σ i = 1 N w i P i (x) based on the mixture ratio w i of the node i.
The posterior probability γ i (x) is γ i (x) = w i P i (x) / (Σ i = 1 N w i P i (x)).
In the case of the mixed Bernoulli distribution, the mixed distribution P i corresponding to each node i is specified using the model parameter λ (mixing ratio w i , parameter μ id ).

量子化部16は、探索木を深さ優先で探索するものである。ここで、現に未探索ノードiにおける尤度Pi(x)を、優先度付きキューに記憶する。そして、優先度付きキューに記憶された尤度Pi(x)が最も高い未探索ノードから順に、再帰的に探索する。 The quantization unit 16 searches the search tree with depth priority. Here, the likelihood P i (x) at the unsearched node i is actually stored in the priority queue. And it searches recursively in an order from the unsearched node with the highest likelihood P i (x) stored in the priority queue.

入力データxがi番目の混合ベルヌーイ分布から生成された事後確率Pi(x)は、以下のように定義される。

Figure 0006601965
The posterior probability P i (x) in which the input data x is generated from the i-th mixed Bernoulli distribution is defined as follows.
Figure 0006601965

従来技術によれば、事後確率が高くなる混合ベルヌーイ分布の混合要素を算出するために、全ての混合要素に対する事後分布を算出する必要があった。これに対し、本発明によれば、探索木を用いて必要以上に探索処理を実行せず、量子化処理に高いリアルタイム性を実現することができる。   According to the prior art, in order to calculate a mixed element of a mixed Bernoulli distribution with a high posterior probability, it is necessary to calculate a posterior distribution for all the mixed elements. On the other hand, according to the present invention, search processing is not performed more than necessary using a search tree, and high real-time performance can be realized in quantization processing.

ここで、pi(x)は、以下のように定義される。

Figure 0006601965
これによって、事後確率γi(x)が所定閾値以上又は上位所定件数のノード(混合分布の識別子)iを特定することができる。
。 Here, p i (x) is defined as follows.
Figure 0006601965
Thus, it is possible to specify nodes (mixed distribution identifiers) i whose posterior probabilities γ i (x) are equal to or higher than a predetermined threshold value or a predetermined upper number.
.

図6は、探索木における第1の探索ステップを表す第1の説明図である。
最初に、入力データxについて、ルートノードに接続されたノードi=3及びi=7について、i=3の混合要素の尤度P3(x)と、i=7の混合要素の尤度P7(x)とを比較する。
3(x)=0.050、P7(x)=0.042
ここでは、尤度が大きい方のノードi=3を辿る。このとき、優先度付きキュー(priority queue)に、以下のように記録される。
未探索ノードの優先度付きキュー
->[i=7のP7(x)=0.042]
検索結果の優先度付きキュー
->[i=3のP3(x)=0.050][i=7のP7(x)=0.042]
FIG. 6 is a first explanatory diagram showing a first search step in the search tree.
First, for input data x, for nodes i = 3 and i = 7 connected to the root node, i = 3 mixed element likelihood P 3 (x) and i = 7 mixed element likelihood P 7 Compare with (x).
P 3 (x) = 0.050, P 7 (x) = 0.42
Here, the node i = 3 having the highest likelihood is traced. At this time, it is recorded in the priority queue as follows.
Prioritized queue of unsearched nodes
-> [P 7 of i = 7 (x) = 0.042 ]
Priority queue for search results
-> [P 3 (x) = 0.050 for i = 3] [P 7 (x) = 0.42 for i = 7]

「未探索ノードの優先度付きキュー」には、辿らなかったノード(尤度が最も大きい方のノード以外のノード)の尤度を記録する。深さ探索によって葉ノードまで到達した場合、未探索ノードの優先度付きキューに記録された、最も尤度が大きいノードから順に、再帰的に深さ探索を実行する。
「検索結果の優先度付きキュー」には、辿った全てのノードについて大きい順に尤度を記録する。
In the “queue with priorities of unsearched nodes”, the likelihood of a node that has not been traced (a node other than the node with the highest likelihood) is recorded. When the leaf node is reached by the depth search, the depth search is recursively performed in order from the node with the highest likelihood recorded in the priority queue of the unsearched node.
In the “queue with priority of search results”, the likelihoods are recorded in descending order for all the traced nodes.

図7は、探索木における第2の探索ステップを表す第2の説明図である。
次に、入力データxについて、ノードi=3に接続されたノードi=5及びi=11について、i=5の混合要素の尤度P5(x)と、i=11の混合要素の尤度P11(x)とを比較する。
5(x)=0.037、P7(x)=0.061
ここでは、尤度が大きい方のノードi=7を辿る。このとき、優先度付きキューに、尤度の大きい順に、以下のように記録される。
未探索ノードの優先度付きキュー
->[i=7の尤度P7(x)=0.042][i=5の尤度P5(x)=0.037]
検索結果の優先度付きキュー
->[i=11のP11(x)=0.061][i=3のP3(x)=0.050]
[i=7の尤度P7(x)=0.042][i=5の尤度P5(x)=0.037]
FIG. 7 is a second explanatory diagram illustrating the second search step in the search tree.
Next, for input data x, for nodes i = 5 and i = 11 connected to node i = 3, i = 5 mixed element likelihood P 5 (x) and i = 11 mixed element likelihood. Compare the degree P 11 (x).
P 5 (x) = 0.037, P 7 (x) = 0.061
Here, the node i = 7 having the highest likelihood is traced. At this time, it is recorded in the priority queue as follows in descending order of likelihood.
Prioritized queue of unsearched nodes
-> [Likelihood P 7 (x) = 0.042 for i = 7] [likelihood P 5 (x) = 0.037 for i = 5]
Priority queue for search results
-> [P 11 (x) = 0.61 for i = 11] [P 3 (x) = 0.050 for i = 3]
[Likelihood P 7 (x) = 0.042 for i = 7] [likelihood P 5 (x) = 0.037 for i = 5]

図8は、探索木における第3の探索ステップを表す第3の説明図である。
次に、入力データxについて、ノードi=11に接続されたノードi=9及びi=10について、i=9の混合要素の尤度P9(x)と、i=10の混合要素の尤度P10(x)とを比較する。
9(x)=0.070、P10(x)=0.051
ここでは、尤度が大きい方のノードi=9を辿る。このとき、優先度付きキューに、尤度の大きい順に、以下のように記録される。
未探索ノードの優先度付きキュー
->[i=7の尤度P7(x)=0.042][i=5の尤度P5(x)=0.037]
検索結果の優先度付きキュー
->[i=9のP9(x)=0.070][i=11のP11(x)=0.061]
[i=10のP10(x)=0.051][i=3のP3(x)=0.050]
[i=7の尤度P7(x)=0.042][i=5の尤度P5(x)=0.037]
FIG. 8 is a third explanatory diagram illustrating a third search step in the search tree.
Next, for input data x, for nodes i = 9 and i = 10 connected to node i = 11, the likelihood P 9 (x) of the mixed element of i = 9 and the likelihood of the mixed element of i = 10 Compare the degree P 10 (x).
P 9 (x) = 0.070, P 10 (x) = 0.051
Here, the node i = 9 having the highest likelihood is traced. At this time, it is recorded in the priority queue as follows in descending order of likelihood.
Prioritized queue of unsearched nodes
-> [Likelihood P 7 (x) = 0.042 for i = 7] [likelihood P 5 (x) = 0.037 for i = 5]
Priority queue for search results
-> [P 9 (x) = 0.070 for i = 9] [P 11 (x) = 0.61 for i = 11]
[P 10 (x) = 0.51 for i = 10] [P 3 (x) = 0.050 for i = 3]
[Likelihood P 7 (x) = 0.042 for i = 7] [likelihood P 5 (x) = 0.037 for i = 5]

図9は、探索木における第4の探索ステップを表す第4の説明図である。
深さ探索によってノードi=9及びi=10の末端まで探索が終了している。この場合、未探索ノードの優先度付きキューの中で、最も尤度が高いノードについて再帰的に深さ探索を実行する。
次に、入力データxについて、ノードi=7の混合要素の尤度P7(x)を探索する。このとき、優先度付きキューに、尤度の大きい順に、以下のように記録される。
未探索ノードの優先度付きキュー
->[i=5の尤度P5(x)=0.037]
検索結果の優先度付きキュー
->[i=9のP9(x)=0.070][i=11のP11(x)=0.061]
[i=10のP10(x)=0.051][i=3のP3(x)=0.050]
[i=7の尤度P7(x)=0.042][i=5の尤度P5(x)=0.037]
FIG. 9 is a fourth explanatory diagram illustrating a fourth search step in the search tree.
The search is completed to the end of nodes i = 9 and i = 10 by the depth search. In this case, the depth search is recursively performed on the node with the highest likelihood in the queue with priorities of the unsearched nodes.
Next, the likelihood P 7 (x) of the mixed element of the node i = 7 is searched for the input data x. At this time, it is recorded in the priority queue as follows in descending order of likelihood.
Prioritized queue of unsearched nodes
-> [Likelihood P 5 (x) = 0.037 for i = 5]
Priority queue for search results
-> [P 9 (x) = 0.070 for i = 9] [P 11 (x) = 0.61 for i = 11]
[P 10 (x) = 0.51 for i = 10] [P 3 (x) = 0.050 for i = 3]
[Likelihood P 7 (x) = 0.042 for i = 7] [likelihood P 5 (x) = 0.037 for i = 5]

図10は、探索木における第5の探索ステップを表す第5の説明図である。
次に、入力データxについて、ノードi=7に接続されたノードi=2、i=6及びi=8について、i=2の混合要素の尤度P2(x)と、i=6の混合要素の尤度P6(x)と、i=8の混合要素の尤度P8(x)とを比較する。
2(x)=0.085、P6(x)=0.048、P8(x)=0.028
このとき、優先度付きキューに、尤度の大きい順に、以下のように記録される。
未探索ノードの優先度付きキュー
->[i=5の尤度P5(x)=0.037]
検索結果の優先度付きキュー
->[i=2のP2(x)=0.085][i=9のP9(x)=0.070][i=11のP11(x)=0.061]
[i=10のP10(x)=0.051][i=3のP3(x)=0.050][i=6のP6(x)=0.048]
[i=7の尤度P7(x)=0.042][i=5のP5(x)=0.037]
[i=8のP8(x)=0.028]
FIG. 10 is a fifth explanatory diagram illustrating the fifth search step in the search tree.
Next, for input data x, for nodes i = 2, i = 6, and i = 8 connected to node i = 7, i = 2 mixed element likelihood P 2 (x) and i = 6 The likelihood P 6 (x) of the mixed element is compared with the likelihood P 8 (x) of the mixed element of i = 8.
P 2 (x) = 0.085, P 6 (x) = 0.048, P 8 (x) = 0.028
At this time, it is recorded in the priority queue as follows in descending order of likelihood.
Prioritized queue of unsearched nodes
-> [Likelihood P 5 (x) = 0.037 for i = 5]
Priority queue for search results
-> [P 2 (x) = 0.85 for i = 2] [P 9 (x) = 0.070 for i = 9] [P 11 (x) = 0.61 for i = 11]
[P 10 (x) = 0.51 for i = 10] [P 3 (x) = 0.050 for i = 3] [P 6 (x) = 0.48 for i = 6]
[Likelihood P 7 (x) = 0.042 for i = 7] [P 5 (x) = 0.037 for i = 5]
[P 8 (x) = 0.028 for i = 8]

「検索結果の優先度付きキュー」に所定数の尤度が記録された際に(所定数のノードが探索された際に)、探索を終了する。そして、「検索結果の優先度付きキュー」に記録された尤度Pi(x)に基づいて事後確率pi(x)=wii(x)を算出し、事後確率が高い1つ以上のノードi(量子化対象データ)を量子化の結果として出力する。 When a predetermined number of likelihoods are recorded in the “search result priority queue” (when a predetermined number of nodes are searched), the search is terminated. Then, the posterior probability p i (x) = w i P i (x) is calculated based on the likelihood P i (x) recorded in the “priority queue of search results”, and the one with the higher posterior probability is calculated. The above node i (data to be quantized) is output as a result of quantization.

[転置インデックス記憶部17]<インデックス構築フェーズ>
転置インデックス記憶部17は、リファレンスコンテンツの各バイナリ特徴ベクトルについて、量子化部16で特定された1つ以上のノードの識別子iに対応する転置インデックスのリストにバイナリ特徴ベクトルの情報を記憶したものである。
[Transposed index storage unit 17] <Index construction phase>
The transposed index storage unit 17 stores binary feature vector information in a transposed index list corresponding to the identifier i of one or more nodes specified by the quantizing unit 16 for each binary feature vector of the reference content. is there.

図11は、本発明の検索部によって参照される転置インデックスの処理を表す説明図である。   FIG. 11 is an explanatory diagram showing the processing of the transposed index referred to by the search unit of the present invention.

転置インデックスは、混合分布の識別子i毎のリストを保持している。各リストには、その識別子iに量子化されたバイナリ特徴ベクトルに関する情報が保存されている。保存する情報としては、コンテンツID(識別子)があるが、それ以外に、バイナリ特徴の座標、バイナリ特徴のスケール、バイナリ特徴の角度、バイナリ特徴ベクトル等を保存してもよい。量子化について、複数の混合ベルヌーイ分布の識別子が利用可能である場合には、その全てのリストにバイナリ特徴に関する情報を登録する。   The transposed index holds a list for each identifier i of the mixed distribution. Each list stores information about the binary feature vector quantized to the identifier i. As information to be stored, there is a content ID (identifier). In addition, binary feature coordinates, binary feature scales, binary feature angles, binary feature vectors, and the like may be stored. For quantization, if multiple mixed Bernoulli distribution identifiers are available, information about binary features is registered in all the lists.

[検索部18]<検索フェーズ>
検索部18は、クエリコンテンツの各バイナリ特徴ベクトルについて、量子化部16で特定された1つ以上のノードの識別子iに対応する転置インデックスのリストを探索する。そして、リストに記憶されているバイナリ特徴ベクトルに対応したリファレンスコンテンツに対しスコアを累積し、累積されたスコアを類似度としてリファレンスコンテンツを検索する。具体的には、リファレンスコンテンツ(ID)毎にスコアを投票するものであってもよい。
[Search unit 18] <Search phase>
The search unit 18 searches the list of transposed indexes corresponding to the identifier i of one or more nodes specified by the quantization unit 16 for each binary feature vector of the query content. Then, the score is accumulated for the reference content corresponding to the binary feature vector stored in the list, and the reference content is searched using the accumulated score as the similarity. Specifically, the score may be voted for each reference content (ID).

この場合、クエリコンテンツのバイナリ特徴ベクトルとリファレンスコンテンツのバイナリ特徴との距離を算出し、その距離に応じてスコアを算出することができる。例えば、クエリコンテンツのバイナリ特徴ベクトルとリファレンスコンテンツのバイナリ特徴との二乗距離をdとすると、スコアとしてexp(-d/a)を利用することができる。aは、調整可能なパラメータを意味する。また、IDF(Inverse Document Frequency)に基づいて、各量子化された識別子の出現頻度に応じて、スコアを修正してもよい。   In this case, the distance between the binary feature vector of the query content and the binary feature of the reference content can be calculated, and the score can be calculated according to the distance. For example, if the square distance between the binary feature vector of the query content and the binary feature of the reference content is d, exp (-d / a) can be used as the score. a means an adjustable parameter. Further, the score may be corrected based on the appearance frequency of each quantized identifier based on IDF (Inverse Document Frequency).

以上、詳細に説明したように、本発明のプログラム、装置及び方法によれば、量子化対象データである混合分布に応じて、入力データに対して最適な量子化対象データをマッチングさせることができる。   As described above in detail, according to the program, apparatus, and method of the present invention, optimal quantization target data can be matched to input data according to the mixture distribution that is quantization target data. .

本発明によれば、訓練コンテンツのバイナリ特徴ベクトルを混合分布でモデル化した量子化対象データを含むコードブックを作成し、その量子化対象データを探索木に構成することによって、クエリコンテンツとリファレンスコンテンツとの間のマッチングを、高速且つ高精度に実行することができる。これは、バイナリ特徴ベクトルのビット間の非独立性を考慮したものとなる。特に、本発明によれば、従来技術におけるBoVWの枠組みの中で、類似度の算出と特徴点のマッチングとを実行することができる。
また、コンテンツが画像である場合、画像間の幾何検証について、正解画像ペアに対するスコアを維持しつつ、不正解画像ペアに対するスコアを抑制することができる。これは、物体を高精度に認識することに役立つ。
According to the present invention, a query book and a reference content are created by creating a codebook including data to be quantized in which binary feature vectors of training content are modeled by a mixed distribution and configuring the data to be quantized in a search tree. Can be performed at high speed and with high accuracy. This takes into account the independence between the bits of the binary feature vector. In particular, according to the present invention, similarity calculation and feature point matching can be executed within the framework of BoVW in the prior art.
Further, when the content is an image, it is possible to suppress the score for the incorrect image pair while maintaining the score for the correct image pair for geometric verification between images. This is useful for recognizing an object with high accuracy.

前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。   Various changes, modifications, and omissions of the above-described various embodiments of the present invention can be easily made by those skilled in the art. The above description is merely an example, and is not intended to be restrictive. The invention is limited only as defined in the following claims and the equivalents thereto.

1 検索装置
11 バイナリ特徴ベクトル抽出部
12 モデル推定部
13 モデルパラメータ記憶部
14 探索木作成部
15 探索木記憶部
16 量子化部
17 転置インデックス記憶部
18 検索部
DESCRIPTION OF SYMBOLS 1 Search apparatus 11 Binary feature vector extraction part 12 Model estimation part 13 Model parameter memory | storage part 14 Search tree creation part 15 Search tree memory | storage part 16 Quantization part 17 Transposition index memory | storage part 18 Search part

Claims (11)

入力データxに対して、量子化対象となる複数のノードi(=1〜N)の中から1つ以上のノードiを特定するようにコンピュータを機能させるプログラムにおいて、
ルートノードから順に、各ノードiに混合分布の混合要素Piが紐付けられた探索木を記憶した探索木記憶手段と、
入力データxについて、前記探索木のルートノードから順に、各ノードiの混合分布P(x)に基づく尤度Pi(x)が大きい方のノード側を探索し、尤度Pi(x)に基づく事後確率γi(x)が所定閾値以上又は上位所定件数のノードiを特定する量子化手段と
してコンピュータを機能させることを特徴とするプログラム。
In a program for causing a computer to function to identify one or more nodes i from among a plurality of nodes i (= 1 to N) to be quantized with respect to input data x,
From the root node sequentially, and the search tree storing means mixing elements P i in the mixture distribution to each node i and stored by the search tree tied,
For the input data x, in order from the root node of the search tree, the node having the larger likelihood P i (x) based on the mixture distribution P (x) of each node i is searched, and the likelihood P i (x) A program that causes a computer to function as a quantizing unit that specifies a number of nodes i having a posterior probability γ i (x) that is greater than or equal to a predetermined threshold value or a higher predetermined number.
前記混合分布P(x)は、ノードiの混合比wiに基づくP(x)=Σi=1 Nii(x)であり、
前記事後確率γi(x)は、γi(x)=wii(x)/(Σi=1 Nii(x))である
ようにコンピュータを機能させることを特徴とする請求項1に記載のプログラム。
The mixture distribution P (x) is P (x) = Σ i = 1 N w i P i (x) based on the mixture ratio w i of the node i,
The computer is made to function so that the posterior probability γ i (x) is γ i (x) = w i P i (x) / (Σ i = 1 N w i P i (x)). The program according to claim 1.
前記量子化手段は、前記探索木を深さ優先で探索するものであって、
現に未探索ノードiにおける尤度Pi(x)を、優先度付きキューに記憶し、
前記優先度付きキューに記憶された前記尤度Pi(x)が最も高い未探索ノードから順に、再帰的に探索する
ようにコンピュータを機能させることを特徴とする請求項1又は2に記載のプログラム。
The quantization means searches the search tree with depth priority,
The likelihood P i (x) in the unsearched node i is actually stored in the priority queue,
3. The computer according to claim 1, wherein the computer is functioned to search recursively in order from an unsearched node having the highest likelihood P i (x) stored in the priority queue. program.
前記探索木は、ルートノードに対し、ランダムに選択されたK個(K≧1)の混合要素P1〜PKを子ノードとして接続し、選択されなかった混合要素Piを、P1〜PKに対応したノードに更に紐付けることを再帰的に繰り返すことによって、前記探索木を作成する探索木作成手段と
して更にコンピュータを機能させることを特徴とする請求項1から3のいずれか1項に記載のプログラム。
The search tree connects K mixed elements P 1 to P K selected at random (K ≧ 1) as child nodes to the root node, and the unselected mixed elements P i are connected to P 1 to P 1 . 4. The computer further functions as search tree creation means for creating the search tree by recursively repeating further association with a node corresponding to P K. The program described in.
前記探索木作成手段は、前記選択されなかった混合要素Piを、P1〜PKに対応したノードに紐付ける際に、PiとPj∈P1,・・・,PKの間の非類似度尺度として、KL(Kullback Leibler)ダイバージェンス又はJS(Jensen Shannon)ダイバージェンスを用いる
ようにコンピュータを機能させることを特徴とする請求項4の記載のプログラム。
The search tree generating means, a mixing element P i to the not selected, when attaching the cord to the node corresponding to P 1 to P K, between P i and P j ∈P 1, ···, P K 5. The program according to claim 4, wherein the computer is caused to function so as to use KL (Kullback Leibler) divergence or JS (Jensen Shannon) divergence as a measure of dissimilarity.
前記混合分布P(x)は、混合ベルヌーイ分布、混合ガウス分布、混合多項分布、混合ディリクレ分布、又は、混合ラプラス分布である
ようにコンピュータを機能させることを特徴とする請求項1から5のいずれか1項に記載のプログラム。
6. The computer according to claim 1, wherein the mixed distribution P (x) is a mixed Bernoulli distribution, a mixed Gaussian distribution, a mixed multinomial distribution, a mixed Dirichlet distribution, or a mixed Laplace distribution. The program according to item 1.
入力された訓練コンテンツ、リファレンスコンテンツ及びクエリコンテンツそれぞれについて、バイナリ特徴ベクトルの集合を抽出するバイナリ特徴ベクトル抽出手段と、
訓練コンテンツのバイナリ特徴ベクトルの集合について、混合分布P(x)に関する混合比wiを含むモデルパラメータλを算出するモデル推定手段と、
前記モデルパラメータλを記憶するモデルパラメータ記憶手段と
してコンピュータを機能させ、
前記量子化手段は、リファレンスコンテンツ又はクエリコンテンツのバイナリ特徴ベクトルについて、前記モデルパラメータλを用いてノードiを特定し、
前記リファレンスコンテンツの各バイナリ特徴ベクトルについて、前記量子化手段で特定された1つ以上のノードの識別子iに対応する転置インデックスのリストに前記バイナリ特徴ベクトルの情報を記憶する転置インデックス記憶手段と、
クエリコンテンツの各バイナリ特徴ベクトルについて、前記量子化手段で特定された1つ以上のノードの識別子iに対応する転置インデックスのリストを探索し、リストに記憶されているバイナリ特徴ベクトルに対応したリファレンスコンテンツに対しスコアを累積し、累積されたスコアを類似度としてリファレンスコンテンツを検索する検索手段と
して更にコンピュータを機能させ、クエリコンテンツに類似したリファレンスコンテンツを検索する
ことを特徴とする請求項1から6のいずれか1項に記載のプログラム。
Binary feature vector extraction means for extracting a set of binary feature vectors for each of the input training content, reference content and query content;
Model estimation means for calculating a model parameter λ including a mixture ratio w i for the mixture distribution P (x) for a set of binary feature vectors of training content;
Causing a computer to function as model parameter storage means for storing the model parameter λ,
The quantization means specifies a node i using the model parameter λ for a binary feature vector of reference content or query content,
For each binary feature vector of the reference content, transposed index storage means for storing information of the binary feature vector in a list of transposed indexes corresponding to an identifier i of one or more nodes specified by the quantizing means;
For each binary feature vector of the query content, a list of transposed indexes corresponding to the identifier i of one or more nodes specified by the quantization means is searched, and reference content corresponding to the binary feature vector stored in the list 7. The computer according to claim 1, further comprising a computer functioning as search means for searching for reference content using the accumulated score as a similarity, and searching for reference content similar to query content. The program according to any one of the above items.
前記混合分布P(x)が、混合ベルヌーイ分布である場合、
前記モデルパラメータλは、ノードiの混合ベルヌーイ分布に関する混合比wiと、ノードiの混合ベルヌーイ分布のd(1≦d≦D)番目のパラメータμidとであり、
前記量子化手段は、混合比wiとパラメータμidとを用いて、各ノードiに対応する混合分布Piを特定する
ようにコンピュータを機能させることを特徴とする請求項7に記載のプログラム。
When the mixed distribution P (x) is a mixed Bernoulli distribution,
The model parameter λ is a mixture ratio w i related to the mixed Bernoulli distribution of the node i and a d (1 ≦ d ≦ D) th parameter μ id of the mixed Bernoulli distribution of the node i,
8. The program according to claim 7, wherein the quantization means causes the computer to specify a mixture distribution P i corresponding to each node i using the mixture ratio w i and the parameter μ id. .
前記モデル推定手段は、訓練コンテンツのバイナリ特徴ベクトルの集合x1〜xTから、
E(Expectation)ステップについて、バイナリ特徴ベクトルxi毎に潜在変数iの事後確率γt(i)=wii(x)/(Σi=1 Nii(x))を推定し、
M(Maximization)ステップについて、前記事後確率γt(i)を用いて、混合比wi及びパラメータμiを更新し、
これらEステップ及びMステップを、収束するまで又は一定回数繰り返すことによって、混合比wi及びパラメータμidのパラメータ群λを算出する
λ=(w1、・・・、wN及びμ11、・・・、μND
ようにコンピュータを機能させることを特徴とする請求項8に記載のプログラム。
The model estimation means includes a set of binary feature vectors x 1 to x T of training content,
For the E (Expectation) step, estimate the posterior probability γ t (i) = w i P i (x) / (Σ i = 1 N w i P i (x)) of the latent variable i for each binary feature vector x i And
For the M (Maximization) step, the mixture ratio w i and the parameter μ i are updated using the posterior probability γ t (i),
By repeating these E and M steps until convergence or a certain number of times, the parameter group λ of the mixture ratio w i and the parameter μ id is calculated. Λ = (w 1 ,..., W N and μ 11 ,. .., μ ND )
The program according to claim 8, wherein the computer functions as described above.
入力データxに対して、量子化対象となる複数のノードi(=1〜N)の中から1つ以上のノードiを特定する量子化装置において、
ルートノードから順に、各ノードiに混合分布の混合要素Piが紐付けられた探索木を記憶した探索木記憶手段と、
前記入力データxについて、前記探索木のルートノードから順に、各ノードiの混合分布P(x)に基づく尤度Pi(x)が大きい方のノード側を探索し、尤度Pi(x)に基づく事後確率γi(x)が所定閾値以上又は上位所定件数のノードiを特定する量子化手段と
を有することを特徴とする量子化装置。
In a quantizing device that identifies one or more nodes i among a plurality of nodes i (= 1 to N) to be quantized with respect to input data x,
From the root node sequentially, and the search tree storing means mixing elements P i in the mixture distribution to each node i and stored by the search tree tied,
For the input data x, in order from the root node of the search tree, a node having a larger likelihood P i (x) based on the mixture distribution P (x) of each node i is searched, and the likelihood P i (x Quantization means for identifying the number of nodes i whose posterior probability γ i (x) based on (1) is equal to or higher than a predetermined threshold value or the upper predetermined number.
入力データxに対して、量子化対象となる複数のノードi(=1〜N)の中から1つ以上のノードiを特定する装置の量子化方法において、
前記装置は、ルートノードから順に、各ノードiに混合分布の混合要素Piが紐付けられた探索木を記憶した探索木記憶部を有し、
前記装置は、前記入力データxについて、前記探索木のルートノードから順に、各ノードiの混合分布P(x)に基づく尤度Pi(x)が大きい方のノード側を探索し、尤度Pi(x)に基づく事後確率γi(x)が所定閾値以上又は上位所定件数のノードiを特定する
ことを特徴とする装置の量子化方法。
In the quantization method of an apparatus for identifying one or more nodes i from among a plurality of nodes i (= 1 to N) to be quantized with respect to input data x,
The apparatus includes, in order from the root node, a search tree storage unit that stores a search tree in which mixed elements P i of a mixed distribution are linked to each node i,
The apparatus searches the input data x from the root node of the search tree in order from the node side with the higher likelihood P i (x) based on the mixture distribution P (x) of each node i, and the likelihood A method for quantizing an apparatus, characterized by identifying a number of nodes i whose posterior probability γ i (x) based on P i (x) is greater than or equal to a predetermined threshold value or an upper predetermined number.
JP2016164371A 2016-08-25 2016-08-25 Program, apparatus and method for quantizing using search tree Active JP6601965B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016164371A JP6601965B2 (en) 2016-08-25 2016-08-25 Program, apparatus and method for quantizing using search tree

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016164371A JP6601965B2 (en) 2016-08-25 2016-08-25 Program, apparatus and method for quantizing using search tree

Publications (2)

Publication Number Publication Date
JP2018032232A JP2018032232A (en) 2018-03-01
JP6601965B2 true JP6601965B2 (en) 2019-11-06

Family

ID=61303396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016164371A Active JP6601965B2 (en) 2016-08-25 2016-08-25 Program, apparatus and method for quantizing using search tree

Country Status (1)

Country Link
JP (1) JP6601965B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110889504B (en) * 2019-12-05 2022-10-21 北京理工大学 Multi-target asteroid intersection sequence searching method based on energy distribution evaluation
WO2021214935A1 (en) * 2020-04-23 2021-10-28 日本電信電話株式会社 Learning device, search device, learning method, search method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4597714B2 (en) * 2005-03-01 2010-12-15 Kddi株式会社 Information retrieval apparatus and method, and computer program
JP5577371B2 (en) * 2012-03-29 2014-08-20 楽天株式会社 Image search apparatus, image search method, and program

Also Published As

Publication number Publication date
JP2018032232A (en) 2018-03-01

Similar Documents

Publication Publication Date Title
Melekhov et al. Siamese network features for image matching
JP6041439B2 (en) Image search apparatus, system, program, and method using binary feature vector based on image
McCann et al. Local naive bayes nearest neighbor for image classification
Chen et al. Blessing of dimensionality: High-dimensional feature and its efficient compression for face verification
WO2020244437A1 (en) Image processing method and apparatus, and computer device
CN110362677B (en) Text data category identification method and device, storage medium and computer equipment
CN108491794B (en) Face recognition method and device
Song et al. Deep region hashing for efficient large-scale instance search from images
Bergamo et al. Classemes and other classifier-based features for efficient object categorization
Do et al. Simultaneous feature aggregating and hashing for large-scale image search
WO2018166273A1 (en) Method and apparatus for matching high-dimensional image feature
US9135525B2 (en) Character recognition apparatus, character recognition method, and computer-readable medium
JP5794036B2 (en) Image search apparatus, image search method, and program
JP6004015B2 (en) Learning method, information processing apparatus, and learning program
Altintakan et al. Towards effective image classification using class-specific codebooks and distinctive local features
Zhang et al. Large-scale aerial image categorization using a multitask topological codebook
Bhattacharjee et al. Query adaptive multiview object instance search and localization using sketches
CN108805280B (en) Image retrieval method and device
JP6042778B2 (en) Retrieval device, system, program and method using binary local feature vector based on image
CN113254687B (en) Image retrieval and image quantification model training method, device and storage medium
Zhang et al. Dataset-driven unsupervised object discovery for region-based instance image retrieval
JP6601965B2 (en) Program, apparatus and method for quantizing using search tree
Wang et al. Few-shot hash learning for image retrieval
JP6621206B2 (en) Program, apparatus, and method for quantization using hierarchical codebook based on probability model
US20170309004A1 (en) Image recognition using descriptor pruning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191007

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191007

R150 Certificate of patent or registration of utility model

Ref document number: 6601965

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150