JP2013012076A - Retrieval device and program for retrieving high dimensional feature vector with high accuracy - Google Patents
Retrieval device and program for retrieving high dimensional feature vector with high accuracy Download PDFInfo
- Publication number
- JP2013012076A JP2013012076A JP2011144832A JP2011144832A JP2013012076A JP 2013012076 A JP2013012076 A JP 2013012076A JP 2011144832 A JP2011144832 A JP 2011144832A JP 2011144832 A JP2011144832 A JP 2011144832A JP 2013012076 A JP2013012076 A JP 2013012076A
- Authority
- JP
- Japan
- Prior art keywords
- query
- feature vector
- vector
- hash
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000013598 vector Substances 0.000 title claims abstract description 258
- 238000004364 calculation method Methods 0.000 claims abstract description 18
- 230000001174 ascending effect Effects 0.000 claims abstract description 6
- 238000013139 quantization Methods 0.000 claims description 30
- 238000000605 extraction Methods 0.000 claims description 13
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 239000000284 extract Substances 0.000 abstract description 4
- 238000000034 method Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 238000009825 accumulation Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、特徴ベクトルの集合で表されるリファレンスコンテンツの集合から、同じく特徴ベクトルの集合で表されるクエリコンテンツ(検索キー)に類似したリファレンスコンテンツを高精度に検索する技術に関する。特に、高次元の特徴ベクトルの集合で表されるマルチメディアコンテンツ(例えば画像)の検索に適する。 The present invention relates to a technique for accurately retrieving reference content similar to a query content (search key) similarly represented by a set of feature vectors from a set of reference content represented by a set of feature vectors. In particular, it is suitable for searching multimedia contents (for example, images) represented by a set of high-dimensional feature vectors.
近年、オンライン/オフラインに限られず、ストレージの大容量化に伴って、大量のコンテンツを蓄積することが可能となっている。また、携帯電話機やスマートフォンに代表される情報端末機器の普及によって、ユーザ自ら取得した写真データのようなデジタルコンテンツも、データベースに大量かつ容易に蓄積することができる。オフラインデータベースとして、HDD(Hard Disk Drive)、DVD(Digital Versatile Disk)、Blu-ray disc等の記憶装置がある。また、オンラインデータベースとしては、Flickr(登録商標)やMySpace(登録商標)のようなソーシャルネットワークサービスがある。これら記憶装置及びサービスによれば、データベースに蓄積された個人の大量且つ多様なマルチメディアコンテンツを検索するする技術が重要となる。 In recent years, not limited to online / offline, it has become possible to accumulate a large amount of content as the capacity of the storage increases. In addition, with the widespread use of information terminal devices typified by mobile phones and smartphones, digital content such as photograph data acquired by the user can be easily stored in a large amount in a database. Offline databases include storage devices such as HDD (Hard Disk Drive), DVD (Digital Versatile Disk), and Blu-ray disc. Online databases include social network services such as Flickr (registered trademark) and MySpace (registered trademark). According to these storage devices and services, a technique for searching for a large amount and various multimedia contents of individuals stored in a database becomes important.
マルチメディアコンテンツを検索するために、これらコンテンツから多数の特徴ベクトルを抽出し、この特徴ベクトルの集合同士の間の類似度が高いコンテンツを検索結果として出力する技術がある。この技術によれば、マルチメディアコンテンツの特徴ベクトルを量子化し、量子化された特徴ベクトルの頻度からヒストグラムを作成する。そのヒストグラム同士の間のL1ノルム又はL2ノルムの距離によって類似度(距離)を算出する。ノルムとは、2つの点の間の距離を表す。L1ノルムとは、2つの点の各次元の値の絶対値の和を意味し、L2ノルムとは、2つの点の各次元の値を二乗した和を意味する。 In order to search for multimedia contents, there is a technique for extracting a large number of feature vectors from these contents and outputting contents having a high degree of similarity between sets of feature vectors as search results. According to this technique, feature vectors of multimedia content are quantized and a histogram is created from the frequency of the quantized feature vectors. The similarity (distance) is calculated by the distance of the L1 norm or L2 norm between the histograms. The norm represents the distance between two points. The L1 norm means the sum of the absolute values of the dimensions of the two points, and the L2 norm means the sum of the squares of the values of the two points.
また、画像コンテンツから大量の局所特徴ベクトルを抽出し、それらをベクトル量子化し、同一の代表ベクトルにベクトル量子化された局所特徴ベクトルの数で類似度を算出する技術もある(例えば非特許文献1参照)。 There is also a technique for extracting a large amount of local feature vectors from image content, vector quantizing them, and calculating the similarity based on the number of local feature vectors vector-quantized to the same representative vector (for example, Non-Patent Document 1). reference).
更に、画像から複数の局所不変特徴量を抽出し、特徴ベクトルの頻度のヒストグラム化し、そのヒストグラムの重なり率によって画像とカテゴリとの間の類似度を算出する技術もある(例えば特許文献1参照)。この技術によれば、ヒストグラムに基づいて被写体のパターン認識に不要となる特徴(例えば背景の特徴)を除くことができる。これによって、画像中から物体と物体以外とを予め分離することなく、当該物体の特徴を抽出することができる。 Furthermore, there is a technique for extracting a plurality of local invariant feature amounts from an image, making a histogram of the frequency of feature vectors, and calculating the similarity between the image and the category based on the overlapping ratio of the histograms (see, for example, Patent Document 1). . According to this technique, features (for example, background features) that are not necessary for pattern recognition of a subject can be removed based on the histogram. As a result, the feature of the object can be extracted without previously separating the object and the non-object from the image.
一方で、前述した従来技術によれば、量子化によって、元々の特徴ベクトルの情報が失われる。その量子化の粗さによって、以下のような問題が生じる。
(誤検出)粗く量子化した場合、異なる特徴ベクトルが同じ識別値(ID(IDentifier))を持つ代表ベクトルに量子化される可能性が高くなる。これによって、異なるコンテンツを類似していると判定するという誤検出が、増加する。
(未検出)逆に、細かく量子化した場合、類似した特徴ベクトルが異なるIDを持つ代表ベクトルに量子化される可能性が高くなる。これによって、類似したコンテンツが類似していると判定されないという未検出が、増加する。
On the other hand, according to the prior art described above, the original feature vector information is lost due to quantization. The following problems arise due to the roughness of the quantization.
(Error detection) When roughly quantized, different feature vectors are likely to be quantized into representative vectors having the same identification value (ID (IDentifier)). This increases false detection of determining that different content is similar.
(Undetected) Conversely, when fine quantization is performed, there is a high possibility that similar feature vectors are quantized into representative vectors having different IDs. This increases non-detection that similar content is not determined to be similar.
このような問題を解決するべく、誤検出及び未検出の2種類のエラーのトレードオフを改善する技術がある(例えば非特許文献2及び3)。この技術によれば、予め特徴ベクトルを、コンパクトなコードに符号化する。そして、ベクトル量子化で同じIDとなった特徴ベクトル間の距離を、符号間の距離で近似する。その距離が所定閾値以下となる特徴ベクトル同士のみが、類似度に貢献するものとする。
In order to solve such a problem, there is a technique for improving the trade-off between two types of errors that are erroneously detected and undetected (for example, Non-Patent
しかしながら、前述した非特許文献2及び3に記載された技術によれば、全ての量子化IDについて、同一の所定閾値によって類似度に貢献するか否かを判定しているために、量子化ID毎の特徴ベクトルの密度については全く考慮されていない。このため、ある量子化IDでは、過剰に特徴ベクトルが類似度に貢献し、一方で、別の量子化IDでは、類似度に貢献する特徴ベクトルが少なくなるといった問題が生じる。
However, according to the techniques described in
そこで、本発明によれば、高次元の特徴ベクトルを検索する際に、量子化ID毎の特徴ベクトルの密度を考慮することによって、量子化ID同士の間の類似度の決定における不公平性を緩和することができる検索装置及びプログラムを提供することを目的とする。 Therefore, according to the present invention, when searching for a high-dimensional feature vector, by considering the density of feature vectors for each quantization ID, the unfairness in determining the similarity between the quantization IDs can be reduced. An object of the present invention is to provide a search device and a program that can be relaxed.
本発明によれば、特徴ベクトルの集合で表されるリファレンスコンテンツの集合から、特徴ベクトルの集合で表されるクエリコンテンツに類似したリファレンスコンテンツを検索する検索装置であって、
リファレンスハッシュ識別値毎に、リファレンスコンテンツ識別値と、リファレンス特徴ベクトルとの組み合わせを、複数蓄積したリファレンス情報蓄積手段と、
クエリコンテンツについて、クエリ特徴ベクトル毎に、1つ以上のハッシュ関数を用いて、1つ以上の一意のクエリハッシュ識別値を導出するハッシュ化手段と、
リファレンス情報蓄積手段を用いて、クエリハッシュ識別値に対応する各リファレンス特徴ベクトルと、クエリ特徴ベクトルとの間の距離を算出する距離算出手段と、
クエリハッシュ識別値に対応する全てのリファレンスコンテンツ識別値を、距離が短い昇順にソートする距離ソート手段と、
ソートされたリファレンスコンテンツ識別値の中で、上位閾値割合(%)に含まれるリファレンスコンテンツ識別値のみを抽出するリファレンスコンテンツ識別値抽出手段と、
抽出されたリファレンスコンテンツ識別値に対応するリファレンス特徴ベクトルを含む複数のリファレンスコンテンツの中から、最も類似するリファレンスコンテンツを検索する類似検索手段と
を有することを特徴とする。
According to the present invention, there is provided a search device for searching reference content similar to query content represented by a set of feature vectors from a set of reference content represented by a set of feature vectors,
Reference information storage means for storing a plurality of combinations of reference content identification values and reference feature vectors for each reference hash identification value;
For query content, hashing means for deriving one or more unique query hash identification values using one or more hash functions for each query feature vector;
Distance calculating means for calculating a distance between each reference feature vector corresponding to the query hash identification value and the query feature vector using the reference information storage means;
Distance sorting means for sorting all reference content identification values corresponding to query hash identification values in ascending order of distance;
Reference content identification value extraction means for extracting only reference content identification values included in the upper threshold ratio (%) among the sorted reference content identification values;
It has a similar search means for searching for the most similar reference content from among a plurality of reference contents including a reference feature vector corresponding to the extracted reference content identification value.
本発明の検索装置における他の実施形態によれば、
リファレンス情報蓄積手段は、リファレンス特徴ベクトルに代えて、当該リファレンス特徴ベクトルに対するリファレンス符号を蓄積しており、
ハッシュ化手段は、多数のリファレンス特徴ベクトル毎に、1つ以上のハッシュ関数を用いて、1つ以上の一意のリファレンスハッシュ識別値を更に導出し、
リファレンス特徴ベクトルを、リファレンス符号に符号化し、リファレンス情報蓄積手段へ蓄積する符号化手段を更に有し、
距離算出手段は、リファレンス情報蓄積手段を用いて、クエリハッシュ識別値に対応する各リファレンス符号と、クエリ特徴ベクトルとの間の距離を算出することも好ましい。
According to another embodiment of the search device of the present invention,
The reference information storage means stores a reference code for the reference feature vector instead of the reference feature vector,
The hashing means further derives one or more unique reference hash identification values using one or more hash functions for each of a number of reference feature vectors;
Encoding means for encoding a reference feature vector into a reference code and storing it in a reference information storage means;
The distance calculation means preferably calculates the distance between each reference code corresponding to the query hash identification value and the query feature vector using the reference information storage means.
本発明の検索装置における他の実施形態によれば、類似検索手段は、クエリコンテンツに含まれる複数のクエリ特徴ベクトル毎に導出された複数のリファレンスコンテンツ識別値を、当該リファレンスコンテンツ識別値毎に投票し、その投票数に応じたリファレンスコンテンツ識別値を抽出することも好ましい。 According to another embodiment of the search device of the present invention, the similarity search means votes a plurality of reference content identification values derived for each of a plurality of query feature vectors included in the query content for each reference content identification value. It is also preferable to extract a reference content identification value corresponding to the number of votes.
本発明の検索装置における他の実施形態によれば、
リファレンス情報蓄積手段は、リファレンスコンテンツ毎に、リファレンスハッシュ識別値の頻度のLpノルムを蓄積し、
類似検索手段は、リファレンスコンテンツ毎の得票数を、対応するリファレンスコンテンツのLpノルムで正規化した値を、類似度として算出することも好ましい。
According to another embodiment of the search device of the present invention,
The reference information accumulation means accumulates the Lp norm of the frequency of the reference hash identification value for each reference content,
The similarity search means preferably calculates, as the similarity, a value obtained by normalizing the number of votes obtained for each reference content with the Lp norm of the corresponding reference content.
本発明の検索装置における他の実施形態によれば、
符号化手段は、リファレンス特徴ベクトル及びクエリ特徴ベクトルに対して射影変換を行い、変換後の各次元の値を閾値で二値化することによって、バイナリ列のリファレンス符号及びクエリ符号を生成し、
距離算出手段は、リファレンス符号及びクエリ符号のハミング距離を算出することも好ましい。
According to another embodiment of the search device of the present invention,
The encoding means performs a projective transformation on the reference feature vector and the query feature vector, and generates a binary string reference code and query code by binarizing the value of each dimension after conversion with a threshold value,
It is also preferable that the distance calculation means calculates a Hamming distance between the reference code and the query code.
本発明の検索装置における他の実施形態によれば、
符号化手段は、
ハッシュ識別値に対応する代表ベクトルを蓄積しており、
リファレンス特徴ベクトルと、当該リファレンス特徴ベクトルのリファレンスハッシュ識別値に対応する代表ベクトルとの間のリファレンス差分ベクトルを算出し、そのリファレンス差分ベクトルをリファレンス符号に符号化することも好ましい。
According to another embodiment of the search device of the present invention,
The encoding means is
The representative vector corresponding to the hash identification value is accumulated,
It is also preferable to calculate a reference difference vector between the reference feature vector and a representative vector corresponding to the reference hash identification value of the reference feature vector, and encode the reference difference vector into a reference code.
本発明の検索装置における他の実施形態によれば、代表ベクトルは、当該ハッシュ識別値を持つ多数の特徴ベクトルの平均ベクトル又は中央値ベクトルから算出されることも好ましい。 According to another embodiment of the search device of the present invention, the representative vector is preferably calculated from an average vector or a median vector of a number of feature vectors having the hash identification value.
本発明の検索装置における他の実施形態によれば、
符号化手段は、
直積量子化のためのコードブックを更に有し、
リファレンス差分ベクトルを、コードブックを用いて直積量子化によってリファレンス符号に符号化し、
クエリ特徴ベクトルと、クエリハッシュ識別値に対応する代表ベクトルとの間のクエリ差分ベクトルを算出するものであり、
距離算出手段は、リファレンス符号とクエリ差分ベクトルとのLp距離を算出することも好ましい。
According to another embodiment of the search device of the present invention,
The encoding means is
A codebook for product quantization,
The reference difference vector is encoded into a reference code by direct product quantization using a codebook,
A query difference vector between the query feature vector and a representative vector corresponding to the query hash identification value,
It is also preferable that the distance calculation means calculates an Lp distance between the reference code and the query difference vector.
本発明の検索装置における他の実施形態によれば、ハッシュ化手段は、ベクトル量子化用のコードブックを更に有し、ハッシュ関数はベクトル量子化を行うことでリファレンスハッシュ識別値及びクエリハッシュ識別値を算出することも好ましい。 According to another embodiment of the search device of the present invention, the hashing means further includes a codebook for vector quantization, and the hash function performs vector quantization to thereby obtain a reference hash identification value and a query hash identification value. It is also preferable to calculate.
本発明の検索装置における他の実施形態によれば、ハッシュ化手段は、リファレンス特徴ベクトル及びクエリ特徴ベクトルと、同次元の既定のベクトルとの内積の値を、所定閾値で離散化することでリファレンスハッシュ識別値及びクエリハッシュ識別値を算出することも好ましい。 According to another embodiment of the search device of the present invention, the hashing unit discriminates the value of the inner product of the reference feature vector and the query feature vector and a predetermined vector of the same dimension with a predetermined threshold value, thereby making the reference It is also preferable to calculate a hash identification value and a query hash identification value.
本発明の検索装置における他の実施形態によれば、ベクトルは、画像の局所特徴領域から抽出された局所特徴ベクトルであることも好ましい。 According to another embodiment of the search device of the present invention, the vector is preferably a local feature vector extracted from a local feature region of an image.
本発明によれば、特徴ベクトルの集合で表されるリファレンスコンテンツの集合から、特徴ベクトルの集合で表されるクエリコンテンツに類似したリファレンスコンテンツを検索するように、コンピュータを機能させるプログラムであって、
リファレンスハッシュ識別値毎に、リファレンスコンテンツ識別値と、リファレンス特徴ベクトルとの組み合わせを、複数蓄積したリファレンス情報蓄積手段と、
クエリコンテンツについて、クエリ特徴ベクトル毎に、1つ以上のハッシュ関数を用いて、1つ以上の一意のクエリハッシュ識別値を導出するハッシュ化手段と、
リファレンス情報蓄積手段を用いて、クエリハッシュ識別値に対応する各リファレンス特徴ベクトルと、クエリ特徴ベクトルとの間の距離を算出する距離算出手段と、
クエリハッシュ識別値に対応する全てのリファレンスコンテンツ識別値を、距離が短い昇順にソートする距離ソート手段と、
ソートされたリファレンスコンテンツ識別値の中で、上位閾値割合(%)に含まれるリファレンスコンテンツ識別値のみを抽出するリファレンスコンテンツ識別値抽出手段と、
抽出されたリファレンスコンテンツ識別値に対応するリファレンス特徴ベクトルを含む複数のリファレンスコンテンツの中から、最も類似するリファレンスコンテンツを検索する類似検索手段と
してコンピュータを機能させることを特徴とする。
According to the present invention, a program that causes a computer to function so as to search for reference content similar to query content represented by a set of feature vectors from a set of reference content represented by a set of feature vectors,
Reference information storage means for storing a plurality of combinations of reference content identification values and reference feature vectors for each reference hash identification value;
For query content, hashing means for deriving one or more unique query hash identification values using one or more hash functions for each query feature vector;
Distance calculating means for calculating a distance between each reference feature vector corresponding to the query hash identification value and the query feature vector using the reference information storage means;
Distance sorting means for sorting all reference content identification values corresponding to query hash identification values in ascending order of distance;
Reference content identification value extraction means for extracting only reference content identification values included in the upper threshold ratio (%) among the sorted reference content identification values;
The computer is caused to function as a similarity search means for searching for the most similar reference content from among a plurality of reference contents including a reference feature vector corresponding to the extracted reference content identification value.
本発明の検索装置及びプログラムによれば、高次元の特徴ベクトルを検索する際に、量子化ID毎の特徴ベクトルの密度を考慮することによって、量子化ID同士の間の類似度の決定における不公平性を緩和することができる。 According to the search device and program of the present invention, when searching for high-dimensional feature vectors, the density of the similarity between quantization IDs is determined by considering the density of feature vectors for each quantization ID. Fairness can be eased.
以下では、本発明の実施の形態について、図面を用いて詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
本発明の検索装置及びプログラムによれば、多数のリファレンスコンテンツ(検索対象のコンテンツ)の中から、クエリコンテンツ(検索キーのコンテンツ)に最も類似するリファレンスコンテンツを検索する。検索のために、マルチメディアコンテンツから、特徴ベクトルの集合を抽出する。即ち、特徴ベクトルの集合の1つが、1つのマルチメディアコンテンツに対応する。具体的には、リファレンスコンテンツは、複数のリファレンス特徴ベクトルの集合からなり、同様に、クエリコンテンツも、複数のクエリ特徴ベクトルの集合からなる。リファレンス特徴ベクトル及びクエリ特徴ベクトルは、同じ次元数のベクトルである。 According to the search device and program of the present invention, the reference content that is most similar to the query content (content of the search key) is searched from among a large number of reference contents (contents to be searched). For searching, a set of feature vectors is extracted from the multimedia content. That is, one set of feature vectors corresponds to one multimedia content. Specifically, the reference content includes a set of a plurality of reference feature vectors, and similarly, the query content includes a set of a plurality of query feature vectors. The reference feature vector and the query feature vector are vectors having the same number of dimensions.
尚、マルチメディアコンテンツが画像である場合、その特徴ベクトルは、画像の局所特徴領域から抽出された局所特徴ベクトルである。 When the multimedia content is an image, the feature vector is a local feature vector extracted from the local feature region of the image.
図1は、リファレンス特徴ベクトルの集合に対するクラスタリングを表す説明図である。 FIG. 1 is an explanatory diagram showing clustering for a set of reference feature vectors.
図1(a)によれば、多数のリファレンス特徴ベクトルが、例えばN個のクラスタFn(n=1〜N)にクラスタリングされている。クラスタリングには、例えばk-means又はk-means++のようなアルゴリズムが用いられる。各クラスタ内には、多数のリファレンス特徴ベクトルが含まれている。クラスタ内にクエリ特徴ベクトルが含まれる場合、そのクエリ特徴ベクトルから所定閾値の距離範囲に属するリファレンス特徴ベクトルが、候補として導出される。図1によれば、以下のように表される。
× :リファレンス特徴ベクトル
+ :クラスタにおける代表ベクトル(平均ベクトル又は中央値ベクトル)
黒丸●:クエリ特徴ベクトル
波線○:クエリ特徴ベクトルから所定閾値の距離範囲
According to FIG. 1A, a large number of reference feature vectors are clustered into, for example, N clusters Fn (n = 1 to N). For clustering, an algorithm such as k-means or k-means ++ is used. Each cluster includes a number of reference feature vectors. When a query feature vector is included in the cluster, a reference feature vector belonging to a distance range of a predetermined threshold is derived from the query feature vector as a candidate. According to FIG. 1, it is expressed as follows.
×: Reference feature vector +: Representative vector in cluster (mean vector or median vector)
Black circle ●: Query feature vector Wavy line ○: Distance range from the query feature vector to a predetermined threshold
例えば、クラスタF1にクエリ特徴ベクトルaが含まれ、クラスタF3にクエリ特徴ベクトルbが含まれるとする。従来技術によれば、クエリ特徴ベクトルから、所定閾値の距離範囲に属するリファレンス特徴ベクトルの数によって類似度を算出している。 For example, it is assumed that the query feature vector a is included in the cluster F1 and the query feature vector b is included in the cluster F3. According to the conventional technique, the similarity is calculated from the query feature vector by the number of reference feature vectors belonging to a predetermined threshold distance range.
しかしながら、クラスタのセル範囲によっては、以下のように分かれる。
・クラスタのセル範囲が小さい場合、特徴ベクトルの分布密度が高い。この場合、クエリ特徴ベクトルから、所定閾値範囲に属するリファレンス特徴ベクトルの数も多く、類似度が高いと判定される。
・クラスタのセル範囲が大きい場合、特徴ベクトルの分布密度が低い。この場合、クエリ特徴ベクトルから、所定閾値範囲に属するリファレンス特徴ベクトルの数も少なく、類似度も低いと判定される。
However, depending on the cell range of the cluster, it is divided as follows.
When the cell range of the cluster is small, the feature vector distribution density is high. In this case, it is determined from the query feature vector that the number of reference feature vectors belonging to the predetermined threshold range is large and the degree of similarity is high.
When the cell range of the cluster is large, the distribution density of feature vectors is low. In this case, it is determined from the query feature vector that the number of reference feature vectors belonging to the predetermined threshold range is small and the similarity is low.
これに対し、図1(b)に基づく本発明によれば、クラスタ内のリファレンス特徴ベクトルの中で、上位閾値割合P(%)に含まれるリファレンス特徴ベクトルのみを抽出する。抽出されたリファレンス特徴ベクトルについてのみ、クエリ特徴ベクトルから所定閾値範囲に属する数が多いほど、類似度が高いと判定される。即ち、本発明によれば、クラスタのセル範囲(リファレンス特徴ベクトルの分布)に応じて、判定対象となるリファレンス特徴ベクトルが異なる。 On the other hand, according to the present invention based on FIG. 1B, only the reference feature vector included in the upper threshold ratio P (%) is extracted from the reference feature vectors in the cluster. For only the extracted reference feature vector, it is determined that the higher the number belonging to the predetermined threshold range from the query feature vector, the higher the similarity. That is, according to the present invention, the reference feature vector to be determined differs depending on the cell range of the cluster (reference feature vector distribution).
以下では、クエリコンテンツ及びリファレンスコンテンツについて、類似検索のための比較対象が異なる2通りの実施形態について説明する。
[第1の実施形態]クエリコンテンツのクエリ特徴ベクトルと、リファレンスコンテンツのリファレンス特徴ベクトルとを比較して、類似度を判定する。
[第2の実施形態]クエリコンテンツのクエリ特徴ベクトルにおけるクエリ符号(又はクエリ差分ベクトル)と、リファレンスコンテンツのリファレンス特徴ベクトルにおけるリファレンス符号とを比較して、類似度を判定する。
Below, two types of embodiment from which the comparison object for a similar search differs about query content and reference content is described.
[First Embodiment] The query feature vector of the query content and the reference feature vector of the reference content are compared to determine the similarity.
Second Embodiment A query code (or query difference vector) in a query feature vector of query content and a reference code in a reference feature vector of reference content are compared to determine the similarity.
[第1の実施形態]
図2は、本発明における検索装置の第1の機能構成図である。
図3は、本発明におけるデータ構造を表す第1の説明図である。
[First Embodiment]
FIG. 2 is a first functional configuration diagram of the search device according to the present invention.
FIG. 3 is a first explanatory diagram showing a data structure in the present invention.
図2によれば、検索装置1は、リファレンス情報蓄積部100と、特徴ベクトル集合抽出部111と、ハッシュ化部112と、距離算出部113と、距離ソート部114と、リファレンスコンテンツID抽出部115と、類似検索部116とを有する。これら機能構成部は、装置に搭載されたコンピュータを機能させるプログラムを実行することによって実現される。
According to FIG. 2, the
検索装置1は、多数のリファレンスコンテンツを予め入力し、リファレンス情報蓄積部100に、リファレンスコンテンツに関する情報を記憶する。また、検索装置1は、検索の際に、検索キーとなるクエリコンテンツを入力し、リファレンス情報蓄積部100を用いて、クエリコンテンツに最も類似するリファレンスコンテンツを検索する。
The
特徴ベクトル集合抽出部111は、マルチメディアコンテンツから、特徴ベクトルの集合を抽出する。ここでは、リファレンスコンテンツから、複数のリファレンス特徴ベクトルの集合が抽出され、同様に、クエリコンテンツから、複数のクエリ特徴ベクトルの集合が抽出される(図3の111参照)。例えば、SIFT(Scale-Invariant Feature Transform)アルゴリズムによれば、1枚の画像からは、128次元(D=128)の特徴ベクトルの集合が抽出される(例えば非特許文献4参照)。SIFTとは、スケールスペースを用いて特徴的な局所領域を解析し、そのスケール変化及び回転に不変となる特徴ベクトルを記述する技術である。
特徴ベクトルf: f=(f1,f2,・・・,fD)
抽出されたリファレンス特徴ベクトルは、ハッシュ化部112及びリファレンス情報蓄積部100へ出力される。また、抽出されたクエリ特徴ベクトルは、ハッシュ化部112及び距離算出部113へ出力される。
The feature vector
Feature vector f: f = (f 1 , f 2 ,..., F D )
The extracted reference feature vector is output to the
ハッシュ化部112は、リファレンスコンテンツについて、リファレンス特徴ベクトル毎に、1つ以上のハッシュ関数を用いて、1つ以上の一意のリファレンスハッシュID(識別値)を導出する。同様に、クエリコンテンツについても、クエリ特徴ベクトル毎に、1つ以上のハッシュ関数を用いて、1つ以上の一意のクエリハッシュIDを導出する(図3の112参照)。
The
図4は、ハッシュ化部の機能構成を表す説明図である。 FIG. 4 is an explanatory diagram illustrating a functional configuration of the hashing unit.
ハッシュ化部112は、以下の2つの処理のいずれか一方を用いる。尚、リファレンス特徴ベクトル及びクエリ特徴ベクトルには、同じハッシュ化処理が実行される。
The
(第1のハッシュ処理)ハッシュ化部112は、ベクトル量子化用のコードブックを有し、特徴ベクトルに対してベクトル量子化を実行する。これによって、リファレンスハッシュID及びクエリハッシュIDを算出する。
(First Hash Process) The
ここで、コードブックとは、特徴ベクトルfを量子化するために、ハッシュIDn(=1〜N)と、代表ベクトルfnとを対応付けたものである。
ハッシュIDn: 代表ベクトルfn
1: f1=(f11,f12,・・・,f1D)
2: f2=(f21,f22,・・・,f2D)
3: f3=(f31,f32,・・・,f3D)
・・・
N: fN=(fN1,fN2,・・・,fND)
Here, the codebook to quantize the feature vector f, a hash IDn (= 1 to N), in which associates the representative vector f n.
Hash IDn: representative vector f n
1: f 1 = (f 11 , f 12 ,..., F 1D )
2: f 2 = (f 21 , f 22 ,..., F 2D )
3: f 3 = (f 31 , f 32 ,..., F 3D )
...
N: f N = (f N1 , f N2 ,..., F ND )
コードブックは、以下のステップを実行することによって生成される(例えば図1参照)。
(S1)リファレンス特徴ベクトルの集合を、N個のクラスタにクラスタリングする。
(S2)次に、クラスタ毎に、代表ベクトルを導出する(平均ベクトル又は中央値ベクトル)。
(S3)各代表ベクトルに、一意のハッシュIDn(=1〜N)を割り当てたコードブックを生成する。
The code book is generated by performing the following steps (see, for example, FIG. 1).
(S1) A set of reference feature vectors is clustered into N clusters.
(S2) Next, a representative vector is derived for each cluster (average vector or median vector).
(S3) A code book in which a unique hash IDn (= 1 to N) is assigned to each representative vector is generated.
第1のハッシュ処理によれば、入力された特徴ベクトルfとの距離が最も小さくなる代表ベクトルfn'を算出し、特徴ベクトルfに、識別値IDn'を割り当てる。
n=q(f)=argminn||f−fn||2
(登録ベクトルfの量子化関数q(f)は、||f−fn||2が最小となるnを導出)
q:RD->N(量子化を意味する)
fn:代表ベクトル
According to the first hashing process, a representative vector f n ′ having the smallest distance from the input feature vector f is calculated, and an identification value ID n ′ is assigned to the feature vector f.
n = q (f) = argmin n || f−f n || 2
(The quantization function q (f) of the registration vector f derives n where || f−f n || 2 is minimized)
q: R D- > N (means quantization)
f n : representative vector
このとき、特徴ベクトルに対して、最も距離が小さくなる1つのIDn'を割り当てるのではなく、距離が小さくなる代表ベクトルにおける上位いくつかの複数のIDを割り当ててもよい。また、異なるコードブックを複数保持しておき、それぞれのコードブックで個別にIDを割り当ててもよい。これらの処理によって、D次元の特徴ベクトルの集合f1〜fKそれぞれに、1つ以上のハッシュIDが割り当てられる。 At this time, instead of assigning one IDn ′ having the smallest distance to the feature vector, a plurality of higher IDs in the representative vector having the smallest distance may be assigned. Alternatively, a plurality of different code books may be held, and an ID may be individually assigned to each code book. Through these processes, one or more hash IDs are assigned to each of the D-dimensional feature vector sets f 1 to f K.
(第2のハッシュ処理)ハッシュ化部112は、リファレンス特徴ベクトル及びクエリ特徴ベクトルと、同次元の既定のベクトルとの内積の値を、所定閾値で離散化することによって、リファレンスハッシュID及びクエリハッシュIDを算出する。
(Second hash processing) The
尚、ハッシュ化部112では、近似最近傍探索(Approximate Nearest Neighbor)アルゴリズムの1つであるLSH(Locality-Sensitive Hashing)で用いられるハッシュ関数を用いることもできる。LSHによれば、類似するデータ同士のハッシュIDは一致し、非類似のデータ同士のハッシュIDは異なる可能性が高くなるように、ハッシュIDを出力する。
The
リファレンス特徴ベクトルをハッシュ化したリファレンスハッシュIDは、リファレンス情報蓄積部100へ出力される。また、クエリ特徴ベクトルをハッシュ化したクエリハッシュIDは、距離算出部113へ出力される。
The reference hash ID obtained by hashing the reference feature vector is output to the reference
リファレンス情報蓄積部100は、リファレンスハッシュID毎に、リファレンスコンテンツIDと、リファレンス特徴ベクトルとの組み合わせを、複数蓄積する(図3の100参照)。即ち、リファレンスハッシュID毎に、リファレンスコンテンツID及びリファレンス特徴ベクトルがリスト化される。
The reference
再び図2へ戻って、距離算出部113は、リファレンス情報蓄積部100がリファレンス特徴ベクトルを蓄積している場合、クエリ特徴ベクトルにおけるクエリハッシュIDikに対応するリファレンス特徴ベクトルのリストを参照する。そして、各リファレンス特徴ベクトルと、クエリ特徴ベクトルとの間の距離を算出する(図3の113参照)。算出された距離の情報は、距離ソート部114へ出力される。
Returning to FIG. 2 again, the
距離ソート部114は、クエリハッシュIDに対応する全てのリファレンスコンテンツIDを、距離が短い昇順にソートする。リファレンスコンテンツID及び距離のペア毎に、ソートされる。
The
リファレンスコンテンツID抽出部115は、ソートされたリファレンスコンテンツID全体の中で、上位閾値割合P(%)に含まれるリファレンスコンテンツID群のみを抽出する(図3の114参照)。
The reference content
類似検索部116は、クエリコンテンツ(クエリ特徴ベクトルの集合)とリファレンスコンテンツ(リファレンス特徴ベクトルの集合)との間の類似度を判定する。リファレンスコンテンツID抽出部115によって抽出されたリファレンスコンテンツIDに対応するリファレンス特徴ベクトルを含む複数のリファレンスコンテンツの中から、最も類似するリファレンスコンテンツを検索する。
The
ここで、類似検索部116は、クエリコンテンツに含まれる複数のクエリ特徴ベクトル毎に導出された複数のリファレンスコンテンツIDを、当該リファレンスコンテンツID毎に投票し、その投票数に応じたリファレンスコンテンツIDを抽出する。
Here, the
図5は、リファレンスコンテンツIDの投票を表すグラフである。 FIG. 5 is a graph showing the vote of the reference content ID.
最初に、リファレンスコンテンツID抽出部115によって抽出されたリファレンスコンテンツID群について、クエリ特徴ベクトルのクエリハッシュID毎に、各リファレンスコンテンツIDの個数をカウントする(図5(a)参照)。例えば、1つのクエリコンテンツについて、クリエ特徴ベクトル毎にクエリハッシュID1〜3が導出されたとする。そのクエリハッシュID毎に、リファレンスコンテンツIDが抽出される。
クリエハッシュID リファレンスコンテンツID
1 -> 5,6
2 -> 1,4,5
3 -> 1,5
ここで、リファレンスコンテンツIDの出現頻度は、以下のように表される。
リファレンスコンテンツID 出現頻度
1 -> 2
2 -> 0
3 -> 0
4 -> 1
5 -> 3(投票数の局所最大)
6 -> 1
First, for the reference content ID group extracted by the reference content
Crie hash ID Reference content ID
1-> 5, 6
2-> 1, 4, 5
3-> 1,5
Here, the appearance frequency of the reference content ID is expressed as follows.
Reference content ID appearance frequency
1-> 2
2-> 0
3-> 0
4-> 1
5-> 3 (local maximum number of votes)
6-> 1
次に、リファレンスコンテンツID毎の総個数を、正規化項で正規化する。ここで、正規化項は、以下のように算出される。 Next, the total number for each reference content ID is normalized by a normalization term. Here, the normalization term is calculated as follows.
リファレンス情報蓄積部100は、ハッシュIDがID1〜4をとる場合、リファレンスコンテンツ毎に、各ハッシュIDの出現頻度を蓄積する(図5(b)参照)。例えば、リファレンスコンテンツID1における、リファレンスハッシュIDの出現頻度は、以下のようになる。
[リファレンスコンテンツID1の場合]
リファレンスハッシュID 出現頻度
1 -> 1
2 -> 3
3 -> 0
4 -> 1
When the hash ID is ID1 to 4, the reference
[For reference content ID1]
Reference hash ID appearance frequency
1-> 1
2-> 3
3-> 0
4-> 1
そして、リファレンスハッシュID毎の出現頻度に応じて、以下のように2種類の正規化項を算出する。以下では、リファレンスハッシュID1についてのみ記述する。
リファレンスハッシュID1のL1ノルム
1+3+0+1=5
リファレンスハッシュID1のL2ノルムの場合
√(12+32+02+12)=√(1+9+0+1)=√11
Then, according to the appearance frequency for each reference hash ID, two types of normalization terms are calculated as follows. Hereinafter, only the reference hash ID1 will be described.
L1 norm of
In the case of the L2 norm of the
最終的に、クエリコンテンツに対するリファレンスコンテンツの類似度は、以下のように表される(図5(c)参照)。
リファレンスコンテンツID L1ノルム類似度 L2ノルム類似度
1 -> 2/5 2/√11
2 -> 0/9 0/√9
3 -> 0/11 0/√11
4 -> 1/8 1/√8
5 -> 3/9 3/√9
6 -> 1/8 1/√8
Finally, the similarity of the reference content to the query content is expressed as follows (see FIG. 5C).
Reference content ID L1 norm similarity L2 norm similarity
1-> 2/5 2 / √11
2-> 0/9 0 / √9
3-> 0/11 0 / √11
4-> 1/8 1 / √8
5-> 3/9 3 / √9
6-> 1/8 1 / √8
このように、類似検索部116は、リファレンスコンテンツ毎の得票数を、対応するリファレンスコンテンツのLpノルムで正規化した値を、類似度として算出する。そして、類似度が最も高いリファレンスコンテンツIDを、検索結果として出力する。
In this manner, the
[第2の実施形態]
図6は、本発明における検索装置の第2の機能構成図である。
図7は、本発明におけるデータ構造を表す第2の説明図である。
[Second Embodiment]
FIG. 6 is a second functional configuration diagram of the search device according to the present invention.
FIG. 7 is a second explanatory diagram showing a data structure in the present invention.
前述した第1の実施形態によれば、リファレンス情報蓄積部100は、リファレンスハッシュID毎に、リファレンスコンテンツIDと、リファレンス特徴ベクトルとの組み合わせを、複数蓄積する。これに対し、第2の実施形態によれば、リファレンス情報蓄積部100は、リファレンスハッシュID毎に、リファレンスコンテンツIDと、当該リファレンス特徴ベクトルに対するリファレンス符号との組み合わせを、複数蓄積する。第2の蓄積情報は、第1の蓄積情報のリファレンス特徴ベクトルに代えて、リファレンス符号を蓄積する。
According to the first embodiment described above, the reference
図6によれば、図2と比較して、リファレンス特徴ベクトル及びクエリ特徴ベクトルを、リファレンス符号及びクエリ符号(若しくはクエリ差分ベクトル)に符号化する符号化部117を更に有する。
According to FIG. 6, compared with FIG. 2, it further has the
図7によれば、リファレンス情報蓄積部100は、リファレンスコンテンツID毎に、リファレンス符号を記憶する(図7の100参照)。また、距離算出部113は、リファレンス符号と、クエリ符号(又はクエリ差分ベクトル)との間の距離を算出する(図7の113参照)。それらの点以外は、前述した図3と全く同様である。
According to FIG. 7, the reference
図8は、本発明における符号化部の機能構成図である。 FIG. 8 is a functional configuration diagram of the encoding unit in the present invention.
符号化部117は、大きく2通りの符号化処理の中で、いずれか一方の処理が実行される。尚、リファレンス特徴ベクトル及びクエリ特徴ベクトルには、同じ符号化処理が実行される。
The
(第1の符号化処理)
符号化部117は、特徴ベクトル集合抽出部111から出力されたリファレンス特徴ベクトル及びクエリ特徴ベクトルを入力する。次に、各特徴ベクトルfkについて、割り当てられたハッシュIDikに対応する代表ベクトルgikからの差分ベクトルrkを算出する(rk=fk−gik)。そして、差分ベクトルrkに対してランダムな直交射影(Random Orthogonal Projection)によって射影変換を実行する。次に、変換後の各次元の値を、閾値で二値化することによって、バイナリ列のリファレンス符号及びクエリ符号を生成する。尚、直積量子化の場合には、差分ベクトルrkを複数の部分ベクトルに分割し、それぞれを個別のコードブックで量子化し、量子化IDの列を符号ckとする。リファレンス符号は、リファレンス情報蓄積部100へ出力され、クエリ符号は、距離算出部113へ出力される。
(First encoding process)
The
このような符号化処理に対して、距離算出部113は、リファレンス符号及びクエリ符号のハミング距離(Hamming Embedding)を算出する(例えば非特許文献2参照)。
For such an encoding process, the
(第2の符号化処理)
符号化部117は、ハッシュIDに対応する代表ベクトルを蓄積する。代表ベクトルとは、当該ハッシュIDを持つ多数の特徴ベクトルの平均ベクトル又は中央値ベクトルから算出されるものであってもよい。そして、符号化部117は、リファレンス特徴ベクトルと、当該リファレンス特徴ベクトルのリファレンスハッシュIDに対応する代表ベクトルとの間のリファレンス差分ベクトルを算出し、そのリファレンス差分ベクトルをリファレンス符号に符号化する。
(Second encoding process)
The
符号化部117は、直積量子化のためのコードブックを更に有する。そして、リファレンス差分ベクトルを、コードブックを用いて直積量子化によってリファレンス符号に符号化する(例えば非特許文献3参照)。また、符号化部117は、クエリ特徴ベクトルと、クエリハッシュIDに対応する代表ベクトルとの間のクエリ差分ベクトルを算出する。リファレンス符号は、リファレンス情報蓄積部100へ出力され、クエリ差分ベクトルは、距離算出部113へ出力される。
The
このような符号化処理に対して、距離算出部113は、リファレンス符号とクエリ差分ベクトルとのLp距離を算出する(例えば非特許文献4及び5参照)。
For such an encoding process, the
第1の符号化処理及び第2の符号化処理の両方とも、予め大量のリファレンス特徴ベクトルから、ハッシュ化部112によって各ハッシュIDが割り当てられるリファレンス特徴ベクトルの平均ベクトルを算出しておく。
In both the first encoding process and the second encoding process, an average vector of reference feature vectors to which each hash ID is assigned by the
本発明の検索装置及びプログラムによれば、高次元の特徴ベクトルを検索する際に、量子化ID毎の特徴ベクトルの密度を考慮することによって、量子化ID同士の間の類似度の決定における不公平性を緩和することができる。 According to the search device and program of the present invention, when searching for high-dimensional feature vectors, the density of the similarity between quantization IDs is determined by considering the density of feature vectors for each quantization ID. Fairness can be eased.
前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。 Various changes, modifications, and omissions of the above-described various embodiments of the present invention can be easily made by those skilled in the art. The above description is merely an example, and is not intended to be restrictive. The invention is limited only as defined in the following claims and the equivalents thereto.
1 検索装置
100 リファレンス情報蓄積部
111 特徴ベクトル集合抽出部
112 ハッシュ化部
113 距離算出部
114 距離ソート部
115 リファレンスコンテンツID抽出部
116 類似検索部
117 符号化部
DESCRIPTION OF
Claims (12)
リファレンスハッシュ識別値毎に、リファレンスコンテンツ識別値と、リファレンス特徴ベクトルとの組み合わせを、複数蓄積したリファレンス情報蓄積手段と、
前記クエリコンテンツについて、クエリ特徴ベクトル毎に、1つ以上のハッシュ関数を用いて、1つ以上の一意のクエリハッシュ識別値を導出するハッシュ化手段と、
前記リファレンス情報蓄積手段を用いて、前記クエリハッシュ識別値に対応する各リファレンス特徴ベクトルと、前記クエリ特徴ベクトルとの間の距離を算出する距離算出手段と、
前記クエリハッシュ識別値に対応する全ての前記リファレンスコンテンツ識別値を、前記距離が短い昇順にソートする距離ソート手段と、
ソートされたリファレンスコンテンツ識別値の中で、上位閾値割合(%)に含まれるリファレンスコンテンツ識別値のみを抽出するリファレンスコンテンツ識別値抽出手段と、
抽出された前記リファレンスコンテンツ識別値に対応するリファレンス特徴ベクトルを含む複数のリファレンスコンテンツの中から、最も類似するリファレンスコンテンツを検索する類似検索手段と
を有することを特徴とする検索装置。 A search device for searching for reference content similar to query content represented by a set of feature vectors from a set of reference content represented by a set of feature vectors,
Reference information storage means for storing a plurality of combinations of reference content identification values and reference feature vectors for each reference hash identification value;
Hashing means for deriving one or more unique query hash identification values for each query feature vector using one or more hash functions for the query content;
Distance calculation means for calculating a distance between each reference feature vector corresponding to the query hash identification value and the query feature vector using the reference information storage means;
Distance sorting means for sorting all the reference content identification values corresponding to the query hash identification values in ascending order of the distance;
Reference content identification value extraction means for extracting only reference content identification values included in the upper threshold ratio (%) among the sorted reference content identification values;
A search apparatus comprising: similar search means for searching for the most similar reference content from among a plurality of reference contents including a reference feature vector corresponding to the extracted reference content identification value.
前記ハッシュ化手段は、多数の前記リファレンス特徴ベクトル毎に、1つ以上のハッシュ関数を用いて、1つ以上の一意のリファレンスハッシュ識別値を更に導出し、
前記リファレンス特徴ベクトルを、リファレンス符号に符号化し、前記リファレンス情報蓄積手段へ蓄積する符号化手段を更に有し、
前記距離算出手段は、前記リファレンス情報蓄積手段を用いて、前記クエリハッシュ識別値に対応する各リファレンス符号と、前記クエリ特徴ベクトルとの間の距離を算出する
ことを特徴とする請求項1に記載の検索装置。 The reference information storage means stores a reference code for the reference feature vector instead of the reference feature vector,
The hashing means further derives one or more unique reference hash identification values using one or more hash functions for each of the plurality of reference feature vectors;
Encoding means for encoding the reference feature vector into a reference code and storing it in the reference information storage means;
The distance calculation unit calculates a distance between each reference code corresponding to the query hash identification value and the query feature vector using the reference information storage unit. Search device.
前記類似検索手段は、前記リファレンスコンテンツ毎の得票数を、対応するリファレンスコンテンツのLpノルムで正規化した値を、類似度として算出することを特徴とする請求項3に記載の検索装置。 The reference information storage means stores an Lp norm of the frequency of the reference hash identification value for each reference content,
4. The search apparatus according to claim 3, wherein the similarity search means calculates a value obtained by normalizing the number of votes obtained for each reference content by the Lp norm of the corresponding reference content as the similarity.
前記距離算出手段は、前記リファレンス符号及びクエリ符号のハミング距離を算出する
ことを特徴とする請求項4に記載の検索装置。 The encoding means performs a projective transformation on the reference feature vector and the query feature vector, and generates a binary sequence reference code and query code by binarizing the values of each dimension after conversion with a threshold value. And
The search apparatus according to claim 4, wherein the distance calculation unit calculates a Hamming distance between the reference code and the query code.
前記ハッシュ識別値に対応する代表ベクトルを蓄積しており、
前記リファレンス特徴ベクトルと、当該リファレンス特徴ベクトルのリファレンスハッシュ識別値に対応する代表ベクトルとの間のリファレンス差分ベクトルを算出し、そのリファレンス差分ベクトルをリファレンス符号に符号化する
ことを特徴とする請求項4に記載の検索装置。 The encoding means includes
Storing representative vectors corresponding to the hash identification values;
5. A reference difference vector between the reference feature vector and a representative vector corresponding to a reference hash identification value of the reference feature vector is calculated, and the reference difference vector is encoded into a reference code. The search device described in 1.
直積量子化のためのコードブックを更に有し、
前記リファレンス差分ベクトルを、前記コードブックを用いて直積量子化によってリファレンス符号に符号化し、
前記クエリ特徴ベクトルと、前記クエリハッシュ識別値に対応する代表ベクトルとの間のクエリ差分ベクトルを算出するものであり、
前記距離算出手段は、前記リファレンス符号とクエリ差分ベクトルとのLp距離を算出する
ことを特徴とする請求項7に記載の検索装置。 The encoding means includes
A codebook for product quantization,
The reference difference vector is encoded into a reference code by direct product quantization using the codebook,
Calculating a query difference vector between the query feature vector and a representative vector corresponding to the query hash identification value;
The search apparatus according to claim 7, wherein the distance calculating unit calculates an Lp distance between the reference code and a query difference vector.
ことを特徴とする請求項5又は8に記載の検索装置。 The hashing unit further includes a codebook for vector quantization, and the hash function calculates a reference hash identification value and a query hash identification value by performing vector quantization. 9. The search device according to 8.
ことを特徴とする請求項5又は8に記載の検索装置。 The hashing means calculates a reference hash identification value and a query hash identification value by discretizing values of inner products of the reference feature vector and the query feature vector and a predetermined vector of the same dimension with a predetermined threshold. 9. The search device according to claim 5 or 8, wherein:
リファレンスハッシュ識別値毎に、リファレンスコンテンツ識別値と、リファレンス特徴ベクトルとの組み合わせを、複数蓄積したリファレンス情報蓄積手段と、
前記クエリコンテンツについて、クエリ特徴ベクトル毎に、1つ以上のハッシュ関数を用いて、1つ以上の一意のクエリハッシュ識別値を導出するハッシュ化手段と、
前記リファレンス情報蓄積手段を用いて、前記クエリハッシュ識別値に対応する各リファレンス特徴ベクトルと、前記クエリ特徴ベクトルとの間の距離を算出する距離算出手段と、
前記クエリハッシュ識別値に対応する全ての前記リファレンスコンテンツ識別値を、前記距離が短い昇順にソートする距離ソート手段と、
ソートされたリファレンスコンテンツ識別値の中で、上位閾値割合(%)に含まれるリファレンスコンテンツ識別値のみを抽出するリファレンスコンテンツ識別値抽出手段と、
抽出された前記リファレンスコンテンツ識別値に対応するリファレンス特徴ベクトルを含む複数のリファレンスコンテンツの中から、最も類似するリファレンスコンテンツを検索する類似検索手段と
してコンピュータを機能させることを特徴とする検索プログラム。 A program that causes a computer to function so as to search reference content similar to query content represented by a set of feature vectors from a set of reference content represented by a set of feature vectors,
Reference information storage means for storing a plurality of combinations of reference content identification values and reference feature vectors for each reference hash identification value;
Hashing means for deriving one or more unique query hash identification values for each query feature vector using one or more hash functions for the query content;
Distance calculation means for calculating a distance between each reference feature vector corresponding to the query hash identification value and the query feature vector using the reference information storage means;
Distance sorting means for sorting all the reference content identification values corresponding to the query hash identification values in ascending order of the distance;
Reference content identification value extraction means for extracting only reference content identification values included in the upper threshold ratio (%) among the sorted reference content identification values;
A search program characterized by causing a computer to function as a similarity search means for searching for the most similar reference content from among a plurality of reference contents including a reference feature vector corresponding to the extracted reference content identification value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011144832A JP5598925B2 (en) | 2011-06-29 | 2011-06-29 | Retrieval device and program for retrieving high-dimensional feature vectors with high accuracy |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011144832A JP5598925B2 (en) | 2011-06-29 | 2011-06-29 | Retrieval device and program for retrieving high-dimensional feature vectors with high accuracy |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013012076A true JP2013012076A (en) | 2013-01-17 |
JP5598925B2 JP5598925B2 (en) | 2014-10-01 |
Family
ID=47685898
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011144832A Expired - Fee Related JP5598925B2 (en) | 2011-06-29 | 2011-06-29 | Retrieval device and program for retrieving high-dimensional feature vectors with high accuracy |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5598925B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014146207A (en) * | 2013-01-30 | 2014-08-14 | Kddi Corp | Searching device, program and method for speedy search through representation of content by set of binary characteristic vector |
JP2015056077A (en) * | 2013-09-12 | 2015-03-23 | Kddi株式会社 | Image retrieval device, system, program, and method using image based binary feature vector |
JP2015055975A (en) * | 2013-09-11 | 2015-03-23 | 株式会社Nttドコモ | Clustering device and clustering method |
JP2015109028A (en) * | 2013-12-05 | 2015-06-11 | 株式会社日立製作所 | Data relevancy analysis system and method |
JP2018530080A (en) * | 2015-07-16 | 2018-10-11 | インスケイプ データ インコーポレイテッド | System and method for partitioning search indexes for improved media segment identification efficiency |
KR20210038472A (en) * | 2020-04-08 | 2021-04-07 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | Method and apparatus for searching multimedia content, device, and storage medium |
CN116051917A (en) * | 2021-10-28 | 2023-05-02 | 腾讯科技(深圳)有限公司 | Method for training image quantization model, method and device for searching image |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102073833B1 (en) * | 2019-11-05 | 2020-02-05 | (주)키온비트 | Electronic device capable of searching for a similar file with respect to a reference file based on distribution information of features of each of the plurality of files and operating method thereof |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003281190A (en) * | 2002-03-22 | 2003-10-03 | Fumiyoshi Adachi | General purpose data retrieval method |
JP2006190191A (en) * | 2005-01-07 | 2006-07-20 | Sony Corp | Information processing device and method, and program |
US20080168059A1 (en) * | 2007-01-05 | 2008-07-10 | Kddi Corporation | Method, apparatus and computer program for information retrieval |
JP2009020769A (en) * | 2007-07-13 | 2009-01-29 | Toshiba Corp | Pattern search device and method for the same |
WO2009133856A1 (en) * | 2008-04-28 | 2009-11-05 | 公立大学法人大阪府立大学 | Method for creating image database for object recognition, processing device, and processing program |
JP2010282581A (en) * | 2009-06-08 | 2010-12-16 | Nec Corp | Object feature extraction apparatus, object feature extraction method, object feature extraction program |
-
2011
- 2011-06-29 JP JP2011144832A patent/JP5598925B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003281190A (en) * | 2002-03-22 | 2003-10-03 | Fumiyoshi Adachi | General purpose data retrieval method |
JP2006190191A (en) * | 2005-01-07 | 2006-07-20 | Sony Corp | Information processing device and method, and program |
US20080168059A1 (en) * | 2007-01-05 | 2008-07-10 | Kddi Corporation | Method, apparatus and computer program for information retrieval |
JP2009020769A (en) * | 2007-07-13 | 2009-01-29 | Toshiba Corp | Pattern search device and method for the same |
WO2009133856A1 (en) * | 2008-04-28 | 2009-11-05 | 公立大学法人大阪府立大学 | Method for creating image database for object recognition, processing device, and processing program |
JP2010282581A (en) * | 2009-06-08 | 2010-12-16 | Nec Corp | Object feature extraction apparatus, object feature extraction method, object feature extraction program |
Non-Patent Citations (4)
Title |
---|
CSNG200900403006; 野口 和人 他: '大規模特定物体認識における認識率,処理時間,メモリ量のバランスに関する実験的検討' 電子情報通信学会論文誌 第J92-D巻、第8号, 20090801, pp.1135-1143., 社団法人電子情報通信学会 * |
CSNG201100090009; 内田 祐介 他: '大域・局所画像特徴および音響特徴を用いた高精度なコピー検出手法' 電子情報通信学会技術研究報告 Vol.110、No.414, 20110210, pp.49-54., 社団法人電子情報通信学会 * |
JPN6014033547; 野口 和人 他: '大規模特定物体認識における認識率,処理時間,メモリ量のバランスに関する実験的検討' 電子情報通信学会論文誌 第J92-D巻、第8号, 20090801, pp.1135-1143., 社団法人電子情報通信学会 * |
JPN6014033548; 内田 祐介 他: '大域・局所画像特徴および音響特徴を用いた高精度なコピー検出手法' 電子情報通信学会技術研究報告 Vol.110、No.414, 20110210, pp.49-54., 社団法人電子情報通信学会 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014146207A (en) * | 2013-01-30 | 2014-08-14 | Kddi Corp | Searching device, program and method for speedy search through representation of content by set of binary characteristic vector |
JP2015055975A (en) * | 2013-09-11 | 2015-03-23 | 株式会社Nttドコモ | Clustering device and clustering method |
JP2015056077A (en) * | 2013-09-12 | 2015-03-23 | Kddi株式会社 | Image retrieval device, system, program, and method using image based binary feature vector |
JP2015109028A (en) * | 2013-12-05 | 2015-06-11 | 株式会社日立製作所 | Data relevancy analysis system and method |
JP2018530080A (en) * | 2015-07-16 | 2018-10-11 | インスケイプ データ インコーポレイテッド | System and method for partitioning search indexes for improved media segment identification efficiency |
KR20210038472A (en) * | 2020-04-08 | 2021-04-07 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | Method and apparatus for searching multimedia content, device, and storage medium |
JP2021103557A (en) * | 2020-04-08 | 2021-07-15 | 百度在綫網絡技術(北京)有限公司 | Method and device for searching for multi-medium content, electronic device, storage medium, and computer program product |
JP7256834B2 (en) | 2020-04-08 | 2023-04-12 | バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド | Multimedia content search method, multimedia content search device, electronic device, storage medium and computer program product |
US11663260B2 (en) | 2020-04-08 | 2023-05-30 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for searching multimedia content device, and storage medium |
KR102656114B1 (en) | 2020-04-08 | 2024-04-11 | 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 | Method and apparatus for searching multimedia content, device, and storage medium |
CN116051917A (en) * | 2021-10-28 | 2023-05-02 | 腾讯科技(深圳)有限公司 | Method for training image quantization model, method and device for searching image |
Also Published As
Publication number | Publication date |
---|---|
JP5598925B2 (en) | 2014-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5598925B2 (en) | Retrieval device and program for retrieving high-dimensional feature vectors with high accuracy | |
US9864928B2 (en) | Compact and robust signature for large scale visual search, retrieval and classification | |
Chou et al. | Pattern-based near-duplicate video retrieval and localization on web-scale videos | |
Jégou et al. | Aggregating local image descriptors into compact codes | |
JP4883649B2 (en) | Image recognition method, image recognition apparatus, and image recognition program | |
CN106126572B (en) | Image search method based on area validation | |
CN113918753B (en) | Image retrieval method based on artificial intelligence and related equipment | |
Khan et al. | Automatic target recognition in infrared imagery using dense hog features and relevance grouping of vocabulary | |
Liu et al. | An image-based near-duplicate video retrieval and localization using improved edit distance | |
CN110826605A (en) | Method and device for identifying user in cross-platform manner | |
Araujo et al. | Efficient video search using image queries | |
CN105760875B (en) | The similar implementation method of differentiation binary picture feature based on random forests algorithm | |
Battiato et al. | Bags of phrases with codebooks alignment for near duplicate image detection | |
JP5833499B2 (en) | Retrieval device and program for retrieving content expressed by high-dimensional feature vector set with high accuracy | |
JP6373292B2 (en) | Feature generation apparatus, method, and program | |
JP6017277B2 (en) | Program, apparatus and method for calculating similarity between contents represented by set of feature vectors | |
JP6364387B2 (en) | Feature generation apparatus, method, and program | |
Mendes et al. | A Cluster-Matching-Based Method for Video Face Recognition | |
CN110458002B (en) | Lightweight rapid face recognition method | |
JP2013070158A (en) | Video retrieval apparatus and program | |
Selvam et al. | A new architecture for image retrieval optimization with HARP algorithm | |
JP2017215784A (en) | Object detection device, method, and program | |
Brogan et al. | Needle in a haystack: A framework for seeking small objects in big datasets | |
Aly et al. | Bag of Words for Large scale object recognition | |
Uchida et al. | Ratio voting: A new voting strategy for large-scale image retrieval |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140709 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140806 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140806 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5598925 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |