JP2018055618A - 確率モデルに基づく階層的なコードブックを用いて量子化するプログラム、装置及び方法 - Google Patents
確率モデルに基づく階層的なコードブックを用いて量子化するプログラム、装置及び方法 Download PDFInfo
- Publication number
- JP2018055618A JP2018055618A JP2016194343A JP2016194343A JP2018055618A JP 2018055618 A JP2018055618 A JP 2018055618A JP 2016194343 A JP2016194343 A JP 2016194343A JP 2016194343 A JP2016194343 A JP 2016194343A JP 2018055618 A JP2018055618 A JP 2018055618A
- Authority
- JP
- Japan
- Prior art keywords
- codebook
- representative
- primary
- vectors
- probability model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Image Analysis (AREA)
Abstract
Description
また、残差量子化を用いることによって、メモリ使用量を最小限に抑えつつ、大量の代表ベクトルによって量子化する技術もある(例えば非特許文献6参照)。
更に、残差ベクトルの集合をクラスタリングし、残差ベクトルの分布に応じた残差量子化によって、量子化誤差を低減する技術もある(例えば特許文献3参照)。
また、非特許文献6に記載の技術によれば、異なる分布を持つ残差ベクトルを、同一のコードブックで量子化しているために、量子化誤差が大きくなってしまうという問題がある。
更に、特許文献3の記載の技術によれば、残差ベクトルの集合のクラスタリングの際に、訓練ベクトルを全て実際に量子化する必要があり、代表ベクトルの数を大きくすることができないという問題がある。
コードブックを生成するために、
訓練ベクトルの集合XをK1個の1次クラスタの群に分類し、1次クラスタ毎に代表ベクトルSkを導出し、K1個の代表ベクトルS={S1, …, SK1}からなる1次コードブックを作成する1次コードブック作成手段と、
訓練ベクトルxの集合Xを1次コードブックを用いて各代表ベクトルSkに割り当て、代表ベクトルSk∈S毎に、訓練ベクトルxと間の残差ベクトル(=x-Sk)の集合から確率モデルを生成する確率モデル生成手段と、
1次コードブックのK1個の確率モデルを、2次コードブック数M個の2次クラスタの群に分類し、1次コードブックの代表ベクトルSkを2次クラスタに割り当て、2次クラスタ毎に、割り当てられた代表ベクトルSkに基づく残差ベクトルの集合から2次コードブックTmを作成し、合計M個の2次コードブックT1〜Mを作成する2次コードブック作成手段と
としてコンピュータを機能させることを特徴とする。
2次コードブック作成手段について、
1次コードブックのK1個の確率モデルを、M個の2次クラスタに初期的に割り当てる初期手段と、
2次クラスタ毎に、当該2次クラスタに含まれる複数の確率モデルから代表確率モデルを生成する生成手段と、
確率モデルを、最も距離が短くなる代表確率モデルに改めて割り当てて、2次クラスタを更新する割当手段と
を有し、生成手段及び割当手段を所定条件まで繰り返す
ようにコンピュータを機能させることも好ましい。
2次コードブック作成手段は、kをM個としたk-meansアルゴリズムよって実行される
ようにコンピュータを機能させることも好ましい。
2次コードブック作成手段について、
1次コードブックの中で、ランダムに選択した代表ベクトルSkの確率モデルを代表確率モデルとして割り当てる選択手段と、
選択されていない代表ベクトルSkの確率モデルの中で、最も距離が短くなる代表確率モデルとの距離に比例する確率で、確率モデルを次の代表確率モデルとして新たに選択する次選択手段と
を有し、次選択手段を代表確率モデルがM個となるまで繰り返す
ようにコンピュータを機能させることも好ましい。
2次コードブック作成手段は、kをM個としたk-means++アルゴリズムによって実行される
ようにコンピュータを機能させることも好ましい。
確率モデルと代表確率モデルとの間の距離は、KL(Kullback Leibler)ダイバージェンスによって算出される
ようにコンピュータを機能させることも好ましい。
確率モデルは、多変量ガウス分布、多変量ベルヌーイ分布、多項分布、ディリクレ分布、又は、多変量ラプラス分布のいずれかである
ようにコンピュータを機能させることも好ましい。
訓練ベクトルの集合は、入力された訓練コンテンツにおける局所特徴の集合であり、
対象データxについて、1次コードブックのいずれかの代表ベクトルSkに量子化し、
対象データxと量子化された代表ベクトルSkとの残差ベクトルを、代表ベクトルSkが割り当てられた2次コードブックのいずれかの代表ベクトルTに量子化する
量子化手段としてコンピュータを機能させることも好ましい。
入力されたリファレンスコンテンツ及びクエリコンテンツそれぞれについて、局所特徴の集合を抽出する局所特徴抽出手段と、
リファレンスコンテンツの各局所特徴について、コードブックを用いて量子化された量子化識別子iに対応する転置インデックスのリストに、局所特徴の情報を記憶する転置インデックス記憶手段と、
クエリコンテンツの各局所特徴について、コードブックを用いて量子化された量子化識別子iに対応する転置インデックスのリストを探索し、リストに記憶されている局所特徴に対応したリファレンスコンテンツに対しスコアを累積し、累積されたスコアを類似度としてリファレンスコンテンツを検索する検索手段と
して更にコンピュータを機能させ、クエリコンテンツに類似したリファレンスコンテンツを検索することも好ましい。
コードブックを生成するために、
訓練ベクトルの集合XをK1個の1次クラスタの群に分類し、1次クラスタ毎に代表ベクトルSkを導出し、K1個の代表ベクトルS={S1, …, SK1}からなる1次コードブックを作成する1次コードブック作成手段と、
訓練ベクトルxの集合Xを1次コードブックを用いて各代表ベクトルSkに割り当て、代表ベクトルSk∈S毎に、訓練ベクトルxと間の残差ベクトル(=x-Sk)の集合から確率モデルを生成する確率モデル生成手段と、
1次コードブックのK1個の確率モデルを、2次コードブック数M個の2次クラスタの群に分類し、1次コードブックの代表ベクトルSkを2次クラスタに割り当て、2次クラスタ毎に、割り当てられた代表ベクトルSkに基づく残差ベクトルの集合から2次コードブックTmを作成し、合計M個の2次コードブックT1〜Mを作成する2次コードブック作成手段と
を有することを特徴とする。
装置は、
コードブックを生成するために、
訓練ベクトルの集合XをK1個の1次クラスタの群に分類し、1次クラスタ毎に代表ベクトルSkを導出し、K1個の代表ベクトルS={S1, …, SK1}からなる1次コードブックを作成する第1のステップと、
訓練ベクトルxの集合Xを1次コードブックを用いて各代表ベクトルSkに割り当て、代表ベクトルSk∈S毎に、訓練ベクトルxと間の残差ベクトル(=x-Sk)の集合から確率モデルを生成する第2のステップと、
1次コードブックのK1個の確率モデルを、2次コードブック数M個の2次クラスタの群に分類し、1次コードブックの代表ベクトルSkを2次クラスタに割り当て、2次クラスタ毎に、割り当てられた代表ベクトルSkに基づく残差ベクトルの集合から2次コードブックTmを作成し、合計M個の2次コードブックT1〜Mを作成する第3のステップと
を実行することを特徴とする。
コードブックは、訓練コンテンツから予め作成されたものであり、1次コードブックと複数の2次コードブックとによって階層化されている。
訓練ベクトルxは、D次元ベクトルであり、n番目の訓練ベクトルをxnと表す。
1次コードブックSは、K1個の代表ベクトルS={S1,S2,・・・,SK1}を記憶し、各代表ベクトルもD次元のベクトルで表現される。
M個の2次コードブックの集合T1,T2,・・・,TMはそれぞれ、K2個の代表ベクトルTm1,Tm2,・・・,TmK2を記憶し、各代表ベクトルもD次元のベクトルで表現される。
割り当て情報m[k](k=1,2,・・・,K1)は、K1個の要素を持つ配列である。これは、1次コードブックでk番目の代表ベクトルに割り当てられたベクトルは、更にm[k]番目の2次コードブックで量子化されることを規定している。
訓練フェーズによれば、検索装置1は、多数の訓練コンテンツを入力し、訓練コンテンツ毎に局所特徴の集合を抽出する。そして、局所特徴の集合を用いて1次コードブック及び2次コードブックを作成する。
訓練フェーズでは、局所特徴抽出部11と、1次コードブック作成部121と、確率モデル生成部122と、2次コードブック作成部123とが機能する。
インデックス構築フェーズによれば、検索装置1は、多数のリファレンスコンテンツ(検索対象のコンテンツ)を入力し、リファレンスコンテンツ毎に局所特徴の集合を抽出する。そして、局所特徴毎に、1次コードブック及び2次コードブックを用いて量子化する。その量子化対象データは、検索用の転置インデックスとして記憶される。
インデックス構築フェーズでは、局所特徴抽出部11と、量子化部13と、転置インデックス記憶部14とが機能する。
検索フェーズによれば、検索装置1は、クエリコンテンツ(検索キーのコンテンツ)を入力し、クエリコンテンツから局所特徴の集合を抽出する。次に、局所特徴毎に、1次コードブック及び2次コードブックを用いて量子化する。その量子化対象データから、転置インデックスを参照して、最も類似するリファレンスコンテンツを検索する。
検索フェーズでは、局所特徴抽出部11と、量子化部13と、検索部15とが機能する。
局所特徴抽出部11は、入力された訓練コンテンツ、リファレンスコンテンツ及びクエリコンテンツそれぞれについて、任意の局所特徴抽出アルゴリズムによって局所特徴の集合を抽出する。局所特徴抽出アルゴリズムとしては、回転やスケールの変化にロバストな、従来技術における例えばSIFTやSURF、ORB、FREAKが用いられる。
訓練フェーズの場合、抽出された局所特徴の集合は、1次コードブック作成部121へ出力される。
インデックス構築フェーズ及び検索フェーズの場合、抽出された局所特徴の集合は、量子化部13へ出力される。
1次コードブック作成部121は、訓練ベクトルの集合X={x1,x2,・・・,xN}をK1個の1次クラスタの群に分類し、1次クラスタ毎に代表ベクトルSkを導出する。
(S1)訓練ベクトルを、K1個の1次クラスタに初期的に割り当てる。
(S2)1次クラスタ毎に、当該1次クラスタに含まれる複数の訓練ベクトルから代表ベクトルSkを生成する。
(S3)訓練ベクトルを、最も距離が短くなる代表ベクトルSkに改めて割り当てて、1次クラスタを更新する。
そして、S2及びS3を、所定条件まで繰り返す。
Sij=1 if vij≧0.5
=0 otherwise
確率モデル生成部122は、訓練ベクトルxの集合X={x1,x2,・・・,xN}を1次コードブックを用いて各代表ベクトルSkに割り当てる。そして、代表ベクトルSk∈S毎に、訓練ベクトルxと間の残差ベクトル(=x−Sk)の集合から確率モデルを生成する。
図4によれば、クラスタ毎に、代表ベクトルと訓練ベクトルとの間の残差ベクトルが表されている。
局所特徴が実数特徴ベクトルである場合、確率モデルとして「多変量ガウス分布」が採用され、局所特徴がバイナリ特徴ベクトルである場合、「多変量ベルヌーイ分布」が採用される。このように、本発明によれば、実数特徴ベクトル及びバイナリ特徴ベクトルの両方に適用することができる。
勿論、確率モデルは、これらに限られず、局所特徴に応じて、多項分布、ディリクレ分布、又は、多変量ラプラス分布を採用してもよい。
k番目の1次コードブックの代表ベクトルに対する残差ベクトルを、平均0、分散共分散行列Σkの多変量ガウス分布によってモデル化する。ここで、分散共分散行列Σkは、以下のように表される。
Σk=UkUk T
Uk:Skに割り当てられた訓練ベクトルxiの残差ベクトルxi−Skの集合
k番目の1次コードブックの代表ベクトルに対する残差ベクトルを、多変量ベルヌーイ分布によって、以下のようにモデル化する。
pk(x)=Πd=1 Dμkd xd(1−μkd)1-xd
μkd:k番目の1次コードブックに紐づく残差ベクトルのd次元目のビットが、
"1"となる確率
μkdは、1次コードブックに紐づく残差ベクトルのd次元のビットの平均値によって算出される。
尚、バイナリ特徴ベクトルの場合、残差ベクトルは、入力ベクトルと代表ベクトルとのXORによって算出される。
2次コードブック作成部123は、1次コードブックのK1個の確率モデルを、2次コードブック数M個の2次クラスタの群に分類し、1次コードブックの代表ベクトルSkを2次クラスタに割り当てる。即ち、ベクトルxの残差ベクトルx−Skの分布が類似している代表ベクトルが、同じクラスタになるように分類する。
図6(a)によれば、2次コードブック作成部123は、kをM個としたk-meansアルゴリズムよって実行される。
(S611:初期ステップ)K1個の確率モデルを、M個の2次クラスタに初期的に割り当てる。具体的には、K1個の確率モデルの割当情報m[k](k=1, …, K1)を初期化する。これは、k番目の1次コードブックの代表ベクトルがm[k]番目のクラスタに属していることを表す。この初期化は、m[k]のkにランダムに、1〜Mのラベルを割り当てるものであってもよい。
Σ'm=1/βm Σm[k]=mαkΣk
βm=Σm[k]=mαk
μ'md=1/βm Σm[k]=mαkμkd
βm=Σm[k]=mαk
βmは、正規化項である。
DKL(fk||gm)=1/2[log(|Σ'm|/|Σk|)+tr(Σ'm -1Σk)−d]
Σd=1 D(μkdlog(μkd/μ'md)+(1−μkd)log((1−μkd)/(1−μ'md)))
図6(b)によれば、2次コードブック作成部123は、kをM個としたk-means++アルゴリズムによって実行される。
(S621:選択ステップ)1次コードブックの中で、ランダムに選択した代表ベクトルSkの確率モデルを代表確率モデルとして割り当てる。
ここで、「比例する確率」とは、全ての代表確率モデルとの距離が遠い確率モデルほど、高い確率で選択されることを意味する。
尚、実数特徴ベクトル及びバイナリ特徴ベクトルに基づく確率モデル間の距離の算出は、前述したk-meansアルゴリズムと同様に、KLダイバージェンスを用いる。
量子化部13は、リファレンスコンテンツの局所特徴と、クエリコンテンツの局所特徴とを、対象データxとして入力する。量子化部13は、対象データxについて、1次コードブックのいずれかの代表ベクトルSkに量子化する。ここで、量子化結果として、1次コードブックの代表ベクトル識別子k'が得られる。次に、対象データxと量子化された代表ベクトルSkとの残差ベクトルを、代表ベクトルSkに割り当てられた2次コードブックのいずれかの代表ベクトルTで量子化する。ここで、量子化結果として、2次コードブックの代表ベクトル識別子l’が得られる。
バイナリ特徴ベクトルについては、k'及びl'は、理想的には、量子化誤差popcnt(x XOR Sk’ XOR Tm[k’]l’)を最小化するものである。
しかしながら、このk'及びl'を厳密にすると計算量が大きくなってしまう。
そのために、本発明によれば、k'の解を、1次コードブックの代表ベクトルのうちxのr近傍に限定する。
即ち、実数特徴ベクトルについては、量子化時にはまず、S1,S2,・・・,SK1から、xとの2乗距離が小さくなる上位r件のk'1,k'2,・・・,k'rを算出し、それらの残差x−Sk'1, x−Sk'2,・・・, x−Sk'rを更に2次コードブックで量子化することによって、k'及びl'を算出する。
また、バイナリ特徴ベクトルについては、量子化時にはまず、S1,S2,・・・,SK1から、xとのハミング距離が小さくなる上位r件のk'1,k'2,・・・,k'rを算出し、それらの残差x XOR Sk'1,Sk'2,・・・,Sk'rを更に2次コードブックで量子化することによって、k'及びl'を算出する。
また、クエリコンテンツの局所特徴から得られた量子化結果は、検索部15へ出力する。
転置インデックス記憶部14は、リファレンスコンテンツの各局所特徴について、コードブックを用いて量子化された量子化識別子iに対応する転置インデックスのリストに、局所特徴の情報を記憶する。「転置インデックス」とは、リファレンス局所特徴を、識別値に置き換えたものであり、代表識別値n毎に作成されたリファレンス局所特徴のリストである。
検索部15は、クエリコンテンツに類似したリファレンスコンテンツを検索する。検索部15は、クエリコンテンツの各局所特徴について、コードブックを用いて量子化された量子化識別子iに対応する転置インデックスのリストを探索する。次に、リストに記憶されている局所特徴に対応したリファレンスコンテンツに対しスコアを累積する。そして、累積されたスコアを類似度としてリファレンスコンテンツを検索する。
図9は、本発明におけるコードブックを表す概念図である。
図10は、本発明における確率モデルのクラスタリングを表す概念図である。
これに対し、図9のような本発明によれば、残差ベクトルの集合を確率モデルでパラメトリックにモデル化することによって、確率モデルの類似度に応じた2次コードブックを作成している。
特に、図10(a)及び図10(b)を繰り返すことによって、残差ベクトルの確率モデルを最適化することできる。
即ち、本発明によれば、確率モデルの類似度に応じた2次コードブックを作成することによって、全ての1次クラスタに対する2次コードブックを作成しない。
また、1次コーブックの量子化結果に応じて2次コードブックを切り替えることによって、量子化誤差を最小化することができる。
更に、1次コードブックの代表ベクトルの数が大量であっても、残差ベクトルの確率モデルに応じた2次コードブックで残差量子化することができるので、現実的な時間で量子化することができる。
101 1次コードブック記憶部
102 2次コードブック記憶部
11 局所特徴抽出部
121 1次コードブック作成部
122 確率モデル生成部
123 2次コードブック作成部
13 量子化部
14 転置インデックス記憶部
15 検索部
Claims (11)
- 対象データを、階層的な複数のコードブックを用いて量子化するようにコンピュータを機能させるプログラムであって、
前記コードブックを生成するために、
訓練ベクトルの集合XをK1個の1次クラスタの群に分類し、1次クラスタ毎に代表ベクトルSkを導出し、K1個の代表ベクトルS={S1, …, SK1}からなる1次コードブックを作成する1次コードブック作成手段と、
訓練ベクトルxの集合Xを1次コードブックを用いて各代表ベクトルSkに割り当て、代表ベクトルSk∈S毎に、訓練ベクトルxと間の残差ベクトル(=x-Sk)の集合から確率モデルを生成する確率モデル生成手段と、
1次コードブックのK1個の確率モデルを、2次コードブック数M個の2次クラスタの群に分類し、1次コードブックの代表ベクトルSkを2次クラスタに割り当て、2次クラスタ毎に、割り当てられた代表ベクトルSkに基づく残差ベクトルの集合から2次コードブックTmを作成し、合計M個の2次コードブックT1〜Mを作成する2次コードブック作成手段と
としてコンピュータを機能させることを特徴とするプログラム。 - 前記2次コードブック作成手段について、
1次コードブックのK1個の確率モデルを、M個の2次クラスタに初期的に割り当てる初期手段と、
2次クラスタ毎に、当該2次クラスタに含まれる複数の確率モデルから代表確率モデルを生成する生成手段と、
確率モデルを、最も距離が短くなる代表確率モデルに改めて割り当てて、2次クラスタを更新する割当手段と
を有し、生成手段及び割当手段を所定条件まで繰り返す
ようにコンピュータを機能させることを特徴とする請求項1に記載のプログラム。 - 前記2次コードブック作成手段は、kをM個としたk-meansアルゴリズムよって実行される
ようにコンピュータを機能させることを特徴とする請求項2に記載のプログラム。 - 前記2次コードブック作成手段について、
1次コードブックの中で、ランダムに選択した代表ベクトルSkの確率モデルを代表確率モデルとして割り当てる選択手段と、
選択されていない代表ベクトルSkの確率モデルの中で、最も距離が短くなる代表確率モデルとの距離に比例する確率で、確率モデルを次の代表確率モデルとして新たに選択する次選択手段と
を有し、次選択手段を代表確率モデルがM個となるまで繰り返す
ようにコンピュータを機能させることを特徴とする請求項1に記載のプログラム。 - 前記2次コードブック作成手段は、kをM個としたk-means++アルゴリズムによって実行される
ようにコンピュータを機能させることを特徴とする請求項4に記載のプログラム。 - 確率モデルと代表確率モデルとの間の距離は、KL(Kullback Leibler)ダイバージェンスによって算出される
ようにコンピュータを機能させることを特徴とする請求項2から5のいずれか1項に記載のプログラム。 - 前記確率モデルは、多変量ガウス分布、多変量ベルヌーイ分布、多項分布、ディリクレ分布、又は、多変量ラプラス分布のいずれかである
ようにコンピュータを機能させることを特徴とする請求項1から6のいずれか1項に記載のプログラム - 前記訓練ベクトルの集合は、入力された訓練コンテンツにおける局所特徴の集合であり、
対象データxについて、1次コードブックのいずれかの代表ベクトルSkに量子化し、
対象データxと量子化された代表ベクトルSkとの残差ベクトルを、代表ベクトルSkが割り当てられた2次コードブックのいずれかの代表ベクトルTに量子化する
量子化手段としてコンピュータを機能させることを特徴とする請求項1から7のいずれか1項に記載のプログラム。 - 入力されたリファレンスコンテンツ及びクエリコンテンツそれぞれについて、局所特徴の集合を抽出する局所特徴抽出手段と、
前記リファレンスコンテンツの各局所特徴について、前記コードブックを用いて量子化された量子化識別子iに対応する転置インデックスのリストに、前記局所特徴の情報を記憶する転置インデックス記憶手段と、
クエリコンテンツの各局所特徴について、前記コードブックを用いて量子化された量子化識別子iに対応する転置インデックスのリストを探索し、リストに記憶されている局所特徴に対応したリファレンスコンテンツに対しスコアを累積し、累積されたスコアを類似度としてリファレンスコンテンツを検索する検索手段と
して更にコンピュータを機能させ、クエリコンテンツに類似したリファレンスコンテンツを検索する
ことを特徴とする請求項1から8のいずれか1項に記載のプログラム。 - 対象データを、階層的な複数のコードブックを用いて量子化する量子化装置であって、
前記コードブックを生成するために、
訓練ベクトルの集合XをK1個の1次クラスタの群に分類し、1次クラスタ毎に代表ベクトルSkを導出し、K1個の代表ベクトルS={S1, …, SK1}からなる1次コードブックを作成する1次コードブック作成手段と、
訓練ベクトルxの集合Xを1次コードブックを用いて各代表ベクトルSkに割り当て、代表ベクトルSk∈S毎に、訓練ベクトルxと間の残差ベクトル(=x-Sk)の集合から確率モデルを生成する確率モデル生成手段と、
1次コードブックのK1個の確率モデルを、2次コードブック数M個の2次クラスタの群に分類し、1次コードブックの代表ベクトルSkを2次クラスタに割り当て、2次クラスタ毎に、割り当てられた代表ベクトルSkに基づく残差ベクトルの集合から2次コードブックTmを作成し、合計M個の2次コードブックT1〜Mを作成する2次コードブック作成手段と
を有することを特徴とする量子化装置。 - 対象データを、階層的な複数のコードブックを用いて量子化する装置のコードブック作成方法であって、
前記装置は、
前記コードブックを生成するために、
訓練ベクトルの集合XをK1個の1次クラスタの群に分類し、1次クラスタ毎に代表ベクトルSkを導出し、K1個の代表ベクトルS={S1, …, SK1}からなる1次コードブックを作成する第1のステップと、
訓練ベクトルxの集合Xを1次コードブックを用いて各代表ベクトルSkに割り当て、代表ベクトルSk∈S毎に、訓練ベクトルxと間の残差ベクトル(=x-Sk)の集合から確率モデルを生成する第2のステップと、
1次コードブックのK1個の確率モデルを、2次コードブック数M個の2次クラスタの群に分類し、1次コードブックの代表ベクトルSkを2次クラスタに割り当て、2次クラスタ毎に、割り当てられた代表ベクトルSkに基づく残差ベクトルの集合から2次コードブックTmを作成し、合計M個の2次コードブックT1〜Mを作成する第3のステップと
を実行することを特徴とする装置のコードブック作成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016194343A JP6621206B2 (ja) | 2016-09-30 | 2016-09-30 | 確率モデルに基づく階層的なコードブックを用いて量子化するプログラム、装置及び方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016194343A JP6621206B2 (ja) | 2016-09-30 | 2016-09-30 | 確率モデルに基づく階層的なコードブックを用いて量子化するプログラム、装置及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018055618A true JP2018055618A (ja) | 2018-04-05 |
JP6621206B2 JP6621206B2 (ja) | 2019-12-18 |
Family
ID=61836880
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016194343A Active JP6621206B2 (ja) | 2016-09-30 | 2016-09-30 | 確率モデルに基づく階層的なコードブックを用いて量子化するプログラム、装置及び方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6621206B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020100289A1 (ja) | 2018-11-16 | 2020-05-22 | 富士通株式会社 | 類似度計算装置、類似度計算方法および類似度計算プログラム |
WO2020226471A1 (en) | 2019-05-09 | 2020-11-12 | Samsung Electronics Co., Ltd. | Design and adaptation of hierarchical codebooks |
US11960455B2 (en) | 2021-08-16 | 2024-04-16 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for building database for retrieval, device and storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH066316A (ja) * | 1992-06-18 | 1994-01-14 | Matsushita Electric Ind Co Ltd | コードブック作成装置及びベクトル量子化装置 |
JPH0765168A (ja) * | 1993-08-31 | 1995-03-10 | Hitachi Ltd | 関数近似装置及び方法 |
US20110299789A1 (en) * | 2010-06-02 | 2011-12-08 | Nec Laboratories America, Inc. | Systems and methods for determining image representations at a pixel level |
-
2016
- 2016-09-30 JP JP2016194343A patent/JP6621206B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH066316A (ja) * | 1992-06-18 | 1994-01-14 | Matsushita Electric Ind Co Ltd | コードブック作成装置及びベクトル量子化装置 |
JPH0765168A (ja) * | 1993-08-31 | 1995-03-10 | Hitachi Ltd | 関数近似装置及び方法 |
US20110299789A1 (en) * | 2010-06-02 | 2011-12-08 | Nec Laboratories America, Inc. | Systems and methods for determining image representations at a pixel level |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020100289A1 (ja) | 2018-11-16 | 2020-05-22 | 富士通株式会社 | 類似度計算装置、類似度計算方法および類似度計算プログラム |
JPWO2020100289A1 (ja) * | 2018-11-16 | 2021-11-04 | 富士通株式会社 | 類似度計算装置、類似度計算方法および類似度計算プログラム |
WO2020226471A1 (en) | 2019-05-09 | 2020-11-12 | Samsung Electronics Co., Ltd. | Design and adaptation of hierarchical codebooks |
CN113994600A (zh) * | 2019-05-09 | 2022-01-28 | 三星电子株式会社 | 分层码本的设计和适配 |
EP3915200A4 (en) * | 2019-05-09 | 2022-04-13 | Samsung Electronics Co., Ltd. | DESIGN AND ADAPTATION OF HIERARCHICAL CODE BOOKS |
CN113994600B (zh) * | 2019-05-09 | 2024-07-05 | 三星电子株式会社 | 用于无线系统中自适应地提供分层码本的装置和方法 |
US11960455B2 (en) | 2021-08-16 | 2024-04-16 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for building database for retrieval, device and storage medium |
JP7558299B2 (ja) | 2021-08-16 | 2024-09-30 | バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド | 検索データベースを構築するための方法、装置、デバイス及び記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP6621206B2 (ja) | 2019-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Guo et al. | Quantization based fast inner product search | |
Bu et al. | Learning high-level feature by deep belief networks for 3-D model retrieval and recognition | |
Song et al. | Deep region hashing for efficient large-scale instance search from images | |
WO2013129580A1 (ja) | 近似最近傍探索装置、近似最近傍探索方法およびそのプログラム | |
EP3020203A1 (en) | Compact and robust signature for large scale visual search, retrieval and classification | |
Ercoli et al. | Compact hash codes for efficient visual descriptors retrieval in large scale databases | |
Zhou et al. | Multiple distance-based coding: toward scalable feature matching for large-scale web image search | |
Yu et al. | Efficient object instance search using fuzzy objects matching | |
Zhang et al. | Large-scale aerial image categorization using a multitask topological codebook | |
JP6621206B2 (ja) | 確率モデルに基づく階層的なコードブックを用いて量子化するプログラム、装置及び方法 | |
Wang et al. | Beauty product image retrieval based on multi-feature fusion and feature aggregation | |
Khalid et al. | Accurate and efficient shape matching approach using vocabularies of multi-feature space representations | |
Tu et al. | Topic modeling and improvement of image representation for large-scale image retrieval | |
JP5833499B2 (ja) | 高次元の特徴ベクトル集合で表現されるコンテンツを高精度で検索する検索装置及びプログラム | |
Passalis et al. | Spectral clustering using optimized bag-of-features | |
Magliani et al. | Landmark recognition: From small-scale to large-scale retrieval | |
Zhou et al. | RFSEN-ELM: SELECTIVE ENSEMBLE OF EXTREME LEARNING MACHINES USING ROTATION FOREST FOR IMAGE CLASSIFICATION. | |
JP6601965B2 (ja) | 探索木を用いて量子化するプログラム、装置及び方法 | |
Pratima et al. | Pattern recognition algorithms for cluster identification problem | |
Manzo et al. | A novel graph embedding framework for object recognition | |
Orhei et al. | Urban landmark detection using A-KAZE features and vector of aggregated local descriptors | |
Liu et al. | Multiview Cross-Media Hashing with Semantic Consistency | |
Hua et al. | Cross-modal correlation learning with deep convolutional architecture | |
Gangatharan et al. | Performance evaluation of multi-instance multi-label classification using kernel based K-nearest neighbour algorithm | |
Niedermayer et al. | Retrieval of binary features in image databases: A study |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181203 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191118 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6621206 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |