JP6601965B2 - 探索木を用いて量子化するプログラム、装置及び方法 - Google Patents
探索木を用いて量子化するプログラム、装置及び方法 Download PDFInfo
- Publication number
- JP6601965B2 JP6601965B2 JP2016164371A JP2016164371A JP6601965B2 JP 6601965 B2 JP6601965 B2 JP 6601965B2 JP 2016164371 A JP2016164371 A JP 2016164371A JP 2016164371 A JP2016164371 A JP 2016164371A JP 6601965 B2 JP6601965 B2 JP 6601965B2
- Authority
- JP
- Japan
- Prior art keywords
- node
- distribution
- mixed
- search tree
- nodes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Description
しかしながら、バイナリ特徴ベクトルは、0/1の値しか取らない。バイナリ特徴ベクトルの分布を考慮せずに生成されたコードブックは、量子化誤差が大きく、最終的に特徴点同士のマッチング精度が低下するという問題がある。
高精度な検索結果を得るためには、クエリコンテンツとリファレンスコンテンツとの間の幾何的な整合性は、一般的に、局所特徴点間のマッチングの結果を用いて検証されている(例えば非特許文献5参照)。しかしながら、特許文献2に記載の技術によれば、このような幾何的な整合性を検証することはできない。
ルートノードから順に、各ノードiに混合分布の混合要素Piが紐付けられた探索木を記憶した探索木記憶手段と、
入力データxについて、探索木のルートノードから順に、各ノードiの混合分布P(x)に基づく尤度Pi(x)が大きい方のノード側を探索し、尤度Pi(x)に基づく事後確率γi(x)が所定閾値以上又は上位所定件数のノードiを特定する量子化手段と
してコンピュータを機能させることを特徴とする。
混合分布P(x)は、ノードiの混合比wiに基づくP(x)=Σi=1 NwiPi(x)であり、
事後確率γi(x)は、γi(x)=wiPi(x)/(Σi=1 NwiPi(x))である
ようにコンピュータを機能させることも好ましい。
量子化手段は、探索木を深さ優先で探索するものであって、
現に未探索ノードiにおける尤度Pi(x)を、優先度付きキューに記憶し、
優先度付きキューに記憶された尤度Pi(x)が最も高い未探索ノードから順に、再帰的に探索する
ようにコンピュータを機能させることも好ましい。
探索木は、ルートノードに対し、ランダムに選択されたK個(K≧1)の混合要素P1〜PKを子ノードとして接続し、選択されなかった混合要素Piを、P1〜PKに対応したノードに更に紐付けることを再帰的に繰り返すことによって、探索木を作成する探索木作成手段と
して更にコンピュータを機能させることも好ましい。
探索木作成手段は、選択されなかった混合要素Piを、P1〜PKに対応したノードに紐付ける際に、PiとPj∈P1,・・・,PKの間の非類似度尺度として、KL(Kullback Leibler)ダイバージェンス又はJS(Jensen Shannon)ダイバージェンスを用いる
ようにコンピュータを機能させることも好ましい。
混合分布P(x)は、混合ベルヌーイ分布、混合ガウス分布、混合多項分布、混合ディリクレ分布、又は、混合ラプラス分布である
ようにコンピュータを機能させることも好ましい。
入力された訓練コンテンツ、リファレンスコンテンツ及びクエリコンテンツそれぞれについて、バイナリ特徴ベクトルの集合を抽出するバイナリ特徴ベクトル抽出手段と、
訓練コンテンツのバイナリ特徴ベクトルの集合について、混合分布P(x)に関する混合比wiを含むモデルパラメータλを算出するモデル推定手段と、
モデルパラメータλを記憶するモデルパラメータ記憶手段と
してコンピュータを機能させ、
量子化手段は、リファレンスコンテンツ又はクエリコンテンツのバイナリ特徴ベクトルについて、モデルパラメータλを用いてノードiを特定し、
リファレンスコンテンツの各バイナリ特徴ベクトルについて、量子化手段で特定された1つ以上のノードの識別子iに対応する転置インデックスのリストにバイナリ特徴ベクトルの情報を記憶する転置インデックス記憶手段と、
クエリコンテンツの各バイナリ特徴ベクトルについて、量子化手段で特定された1つ以上のノードの識別子iに対応する転置インデックスのリストを探索し、リストに記憶されているバイナリ特徴ベクトルに対応したリファレンスコンテンツに対しスコアを累積し、累積されたスコアを類似度としてリファレンスコンテンツを検索する検索手段と
して更にコンピュータを機能させ、クエリコンテンツに類似したリファレンスコンテンツを検索することも好ましい。
混合分布P(x)が、混合ベルヌーイ分布である場合、
モデルパラメータλは、ノードiの混合ベルヌーイ分布に関する混合比wiと、ノードiの混合ベルヌーイ分布のd(1≦d≦D)番目のパラメータμidとであり、
量子化手段は、混合比wiとパラメータμidとを用いて、各ノードiに対応する混合分布Piを特定する
ようにコンピュータを機能させることも好ましい。
モデル推定手段は、訓練コンテンツのバイナリ特徴ベクトルの集合x1〜xTから、
E(Expectation)ステップについて、バイナリ特徴ベクトルxi毎に潜在変数iの事後確率γt(i)=wiPi(x)/(Σi=1 NwiPi(x))を推定し、
M(Maximization)ステップについて、事後確率γt(i)を用いて、混合比wi及びパラメータμiを更新し、
これらEステップ及びMステップを、収束するまで又は一定回数繰り返すことによって、混合比wi及びパラメータμidのパラメータ群λを算出する
λ=(w1、・・・、wN及びμ11、・・・、μND)
ようにコンピュータを機能させることも好ましい。
ルートノードから順に、各ノードiに混合分布の混合要素Piが紐付けられた探索木を記憶した探索木記憶手段と、
入力データxについて、探索木のルートノードから順に、各ノードiの混合分布P(x)に基づく尤度Pi(x)が大きい方のノード側を探索し、尤度Pi(x)に基づく事後確率γi(x)が所定閾値以上又は上位所定件数のノードiを特定する量子化手段と
を有することを特徴とする。
装置は、ルートノードから順に、各ノードiに混合分布の混合要素Piが紐付けられた探索木を記憶した探索木記憶部を有し、
装置は、入力データxについて、探索木のルートノードから順に、各ノードiの混合分布P(x)に基づく尤度Pi(x)が大きい方のノード側を探索し、尤度Pi(x)に基づく事後確率γi(x)が所定閾値以上又は上位所定件数のノードiを特定する
ことを特徴とする。
<訓練フェーズ>
バイナリ特徴ベクトル抽出部11、モデル推定部12、
モデルパラメータ記憶部13、探索木作成部14、探索木記憶部15
<インデックス構築フェーズ>
バイナリ特徴ベクトル抽出部11、量子化部16、転置インデックス記憶部17
<検索フェーズ>
バイナリ特徴ベクトル抽出部11、量子化部16、検索部18
訓練フェーズによれば、検索装置1は、多数の訓練コンテンツを入力し、訓練コンテンツ毎にバイナリ特徴ベクトルの集合を抽出する。そして、バイナリ特徴ベクトルの集合を用いて混合分布のモデルパラメータを推定すると共に、モデルパラメータを用いて量子化処理の際に参照される探索木を生成する。
インデックス構築フェーズによれば、検索装置1は、多数のリファレンスコンテンツ(検索対象のコンテンツ)を入力し、リファレンスコンテンツ毎にバイナリ特徴ベクトルの集合を抽出する。そして、バイナリ特徴ベクトル毎に、モデルパラメータ及び探索木を用いて量子化処理を実行する。その結果、特定された量子化対象データは、検索用の転置インデックスとして記憶される。
検索フェーズによれば、検索装置1は、クエリコンテンツ(検索キーのコンテンツ)を入力し、クエリコンテンツからバイナリ特徴ベクトルの集合を抽出する。次に、バイナリ特徴ベクトル毎に、モデルパラメータ及び探索木を用いて量子化処理を実行する。その結果、特定された量子化対象データから、転置インデックスを参照して、最も類似するリファレンスコンテンツを検索する。
尚、本発明の本質的な機能構成は、「検索フェーズ」にあって、入力データxに対して、量子化対象となる複数のノードi(=1〜N)の中から1つ以上のノードiを特定することにある。
バイナリ特徴ベクトル抽出部11は、入力された訓練コンテンツ、リファレンスコンテンツ及びクエリコンテンツそれぞれについて、バイナリ特徴ベクトルの集合を抽出する。
訓練フェーズの場合、抽出されたバイナリ特徴ベクトルの集合は、モデル推定部12へ出力される。
インデックス構築フェーズ及び検索フェーズの場合、抽出されたバイナリ特徴ベクトルの集合は、量子化部16へ出力される。
ORBは、高速にマッチングを実行するべく、BRIEF(Binary Robust Independent Elementary Features)に回転不変性を導入し、バイナリコードによる特徴記述をしたものである。ORBによれば、SIFTやSURFと比較して、同等以上の精度を保持すると共に、数百倍の高速化を実現することができる。
勿論、ORBに限られず、FREAK(Fast Retina Keypoint)、BRISK、AKAZEと称される任意のバイナリ特徴ベクトルを用いることもできる。
ORBは、「特徴点検出処理」と「特徴ベクトル記述処理」との2つのステップから構成される。
ORBにおける特徴点検出処理によれば、高速にキーポイントを検出するためにFAST(Features from Accelerated Segment Test)を用いる。また、FASTでは、スケール変化に対してロバストではないため、画像を複数のサイズに変換し、それぞれのサイズの画像から特徴点を抽出する。
次に、ORBにおける特徴ベクトル記述処理によれば、検出された特徴点毎に、BRIEF特徴ベクトル記述子によってバイナリ特徴ベクトルが抽出される。これらは、特徴点周辺の2箇所のピクセルの輝度の大小関係から求められる。
モデル推定部12は、訓練コンテンツのバイナリ特徴ベクトルの集合について、混合分布P(x)に関する混合比wiを含むモデルパラメータλを算出する。
混合分布P(x)は、混合ベルヌーイ分布であることが好ましいが、混合ガウス分布、混合多項分布、混合ディリクレ分布、又は、混合ラプラス分布であってもよい。
λ(w1、・・・、wN及びμ11、・・・、μND)
本発明によれば、バイナリ特徴ベクトルの集合を「混合ベルヌーイ分布」でモデル化したモデルパラメータλを推定する。ベルヌーイ分布とは、確率pで1を、確率q=1-pで0をとる離散確率分布をいう。Xをベルヌーイ分布に従う確率変数とすれば、確率変数Xの平均はp、分散はpq=p(1-p)となる。「混合ベルヌーイ分布」は、バイナリ特徴ベクトルxtが生成される確率p(xt|λ)を表現する。
μid:i番目の混合ベルヌーイ分布のd番目のパラメータ
xt,d:バイナリ特徴ベクトルxtのd番目のビット
D:バイナリ特徴ベクトルのビット長
pi(xt|λ):バイナリ特徴ベクトルxtがi番目の混合ベルヌーイ分布から生成
された際に、d番目のビットが1となる確率
事後確率
λ(w1、・・・、wN及びμ11、・・・、μND)
モデルパラメータ記憶部13は、混合分布P(x)のモデルパラメータλを記憶する。モデルパラメータ記憶部13は、量子化部16から参照される。
探索木作成部14は、ルートノードから順に、複数のノード(量子化対象データ、VWの代表ベクトル)が木構造に紐付けられた探索木を作成する。
全ノード数B
葉ノード最大数SL
枝数K
if Bの要素数≦SL then
Bを保持する葉ノードを作成
else
BからランダムにK個の要素を選択し、P1,〜,PKとする
Bの残りの要素を、最も近いPiに割り当て、クラスタC1,〜,CKを作成
for each クラスタCi do
Piを用いて中間ノードを作成し、Ciについて再帰的に実行
end for
end if
図5は、本発明の探索木の作成ステップを表す第2の説明図である。
(S1)図4(a)によれば、全ノード数Bは、12>SLであるために、ルートノードは葉ノードとはならず、子ノードを持つ。
(S2)図4(b)によれば、子ノードは、全ノードBの中から、ランダムにk=2個が選択される。ここでは、i=3番目とi=7番目のノードが選択され、P1、P2のノードが作成される。
(S3)図4(c)によれば、次に、Bの残り10個のノードを、混合要素P1又はP2のいずれか近い方に割り当てる。この割当によって、C1及びC2の新たな集合が作成される。この集合に対し、再帰的にアルゴリズムを適用する。
(S4)図5(a)によれば、C1のノード数は7>SLであるために、C1は葉ノードとはならない。この集合C1対して、再帰的にアルゴリズムを適用する。一方で、C2のノード数は3≦SLであるために、C2は葉ノードとなる。
(S5)図5(b)によれば、最終的に、葉ノード数≦SLとなる探索木が作成される。
KLダイバージェンスとは、相対エントロピーとも称され、分布と分布と間の差の大きさを導出するものである。
JSダイバージェンスとは、KLダイバージェンスに対象性を持たせたものである。
探索木記憶部15は、ルートノードから順に、各ノードiに混合分布の混合要素Piが紐付けられた探索木を記憶する。探索木記憶部15は、量子化部16から参照される。
量子化部16は、リファレンスコンテンツ又はクエリコンテンツのバイナリ特徴ベクトルについて、モデルパラメータλと探索木とを参照して、量子化対象となるノードiを特定する。
本発明の本質的機能は、検索フェーズにおける量子化部16であって、入力データxに対して、量子化対象となる複数のノードi(=1〜N)の中から1つ以上のノードiを特定したものである。
混合分布P(x)は、ノードiの混合比wiに基づくP(x)=Σi=1 NwiPi(x)である。
事後確率γi(x)は、γi(x)=wiPi(x)/(Σi=1 NwiPi(x))である。
尚、混合ベルヌーイ分布の場合、モデルパラメータλ(混合比wi、パラメータμid)を用いて、各ノードiに対応する混合分布Piを特定する。
最初に、入力データxについて、ルートノードに接続されたノードi=3及びi=7について、i=3の混合要素の尤度P3(x)と、i=7の混合要素の尤度P7(x)とを比較する。
P3(x)=0.050、P7(x)=0.042
ここでは、尤度が大きい方のノードi=3を辿る。このとき、優先度付きキュー(priority queue)に、以下のように記録される。
未探索ノードの優先度付きキュー
->[i=7のP7(x)=0.042]
検索結果の優先度付きキュー
->[i=3のP3(x)=0.050][i=7のP7(x)=0.042]
「検索結果の優先度付きキュー」には、辿った全てのノードについて大きい順に尤度を記録する。
次に、入力データxについて、ノードi=3に接続されたノードi=5及びi=11について、i=5の混合要素の尤度P5(x)と、i=11の混合要素の尤度P11(x)とを比較する。
P5(x)=0.037、P7(x)=0.061
ここでは、尤度が大きい方のノードi=7を辿る。このとき、優先度付きキューに、尤度の大きい順に、以下のように記録される。
未探索ノードの優先度付きキュー
->[i=7の尤度P7(x)=0.042][i=5の尤度P5(x)=0.037]
検索結果の優先度付きキュー
->[i=11のP11(x)=0.061][i=3のP3(x)=0.050]
[i=7の尤度P7(x)=0.042][i=5の尤度P5(x)=0.037]
次に、入力データxについて、ノードi=11に接続されたノードi=9及びi=10について、i=9の混合要素の尤度P9(x)と、i=10の混合要素の尤度P10(x)とを比較する。
P9(x)=0.070、P10(x)=0.051
ここでは、尤度が大きい方のノードi=9を辿る。このとき、優先度付きキューに、尤度の大きい順に、以下のように記録される。
未探索ノードの優先度付きキュー
->[i=7の尤度P7(x)=0.042][i=5の尤度P5(x)=0.037]
検索結果の優先度付きキュー
->[i=9のP9(x)=0.070][i=11のP11(x)=0.061]
[i=10のP10(x)=0.051][i=3のP3(x)=0.050]
[i=7の尤度P7(x)=0.042][i=5の尤度P5(x)=0.037]
深さ探索によってノードi=9及びi=10の末端まで探索が終了している。この場合、未探索ノードの優先度付きキューの中で、最も尤度が高いノードについて再帰的に深さ探索を実行する。
次に、入力データxについて、ノードi=7の混合要素の尤度P7(x)を探索する。このとき、優先度付きキューに、尤度の大きい順に、以下のように記録される。
未探索ノードの優先度付きキュー
->[i=5の尤度P5(x)=0.037]
検索結果の優先度付きキュー
->[i=9のP9(x)=0.070][i=11のP11(x)=0.061]
[i=10のP10(x)=0.051][i=3のP3(x)=0.050]
[i=7の尤度P7(x)=0.042][i=5の尤度P5(x)=0.037]
次に、入力データxについて、ノードi=7に接続されたノードi=2、i=6及びi=8について、i=2の混合要素の尤度P2(x)と、i=6の混合要素の尤度P6(x)と、i=8の混合要素の尤度P8(x)とを比較する。
P2(x)=0.085、P6(x)=0.048、P8(x)=0.028
このとき、優先度付きキューに、尤度の大きい順に、以下のように記録される。
未探索ノードの優先度付きキュー
->[i=5の尤度P5(x)=0.037]
検索結果の優先度付きキュー
->[i=2のP2(x)=0.085][i=9のP9(x)=0.070][i=11のP11(x)=0.061]
[i=10のP10(x)=0.051][i=3のP3(x)=0.050][i=6のP6(x)=0.048]
[i=7の尤度P7(x)=0.042][i=5のP5(x)=0.037]
[i=8のP8(x)=0.028]
転置インデックス記憶部17は、リファレンスコンテンツの各バイナリ特徴ベクトルについて、量子化部16で特定された1つ以上のノードの識別子iに対応する転置インデックスのリストにバイナリ特徴ベクトルの情報を記憶したものである。
検索部18は、クエリコンテンツの各バイナリ特徴ベクトルについて、量子化部16で特定された1つ以上のノードの識別子iに対応する転置インデックスのリストを探索する。そして、リストに記憶されているバイナリ特徴ベクトルに対応したリファレンスコンテンツに対しスコアを累積し、累積されたスコアを類似度としてリファレンスコンテンツを検索する。具体的には、リファレンスコンテンツ(ID)毎にスコアを投票するものであってもよい。
また、コンテンツが画像である場合、画像間の幾何検証について、正解画像ペアに対するスコアを維持しつつ、不正解画像ペアに対するスコアを抑制することができる。これは、物体を高精度に認識することに役立つ。
11 バイナリ特徴ベクトル抽出部
12 モデル推定部
13 モデルパラメータ記憶部
14 探索木作成部
15 探索木記憶部
16 量子化部
17 転置インデックス記憶部
18 検索部
Claims (11)
- 入力データxに対して、量子化対象となる複数のノードi(=1〜N)の中から1つ以上のノードiを特定するようにコンピュータを機能させるプログラムにおいて、
ルートノードから順に、各ノードiに混合分布の混合要素Piが紐付けられた探索木を記憶した探索木記憶手段と、
入力データxについて、前記探索木のルートノードから順に、各ノードiの混合分布P(x)に基づく尤度Pi(x)が大きい方のノード側を探索し、尤度Pi(x)に基づく事後確率γi(x)が所定閾値以上又は上位所定件数のノードiを特定する量子化手段と
してコンピュータを機能させることを特徴とするプログラム。 - 前記混合分布P(x)は、ノードiの混合比wiに基づくP(x)=Σi=1 NwiPi(x)であり、
前記事後確率γi(x)は、γi(x)=wiPi(x)/(Σi=1 NwiPi(x))である
ようにコンピュータを機能させることを特徴とする請求項1に記載のプログラム。 - 前記量子化手段は、前記探索木を深さ優先で探索するものであって、
現に未探索ノードiにおける尤度Pi(x)を、優先度付きキューに記憶し、
前記優先度付きキューに記憶された前記尤度Pi(x)が最も高い未探索ノードから順に、再帰的に探索する
ようにコンピュータを機能させることを特徴とする請求項1又は2に記載のプログラム。 - 前記探索木は、ルートノードに対し、ランダムに選択されたK個(K≧1)の混合要素P1〜PKを子ノードとして接続し、選択されなかった混合要素Piを、P1〜PKに対応したノードに更に紐付けることを再帰的に繰り返すことによって、前記探索木を作成する探索木作成手段と
して更にコンピュータを機能させることを特徴とする請求項1から3のいずれか1項に記載のプログラム。 - 前記探索木作成手段は、前記選択されなかった混合要素Piを、P1〜PKに対応したノードに紐付ける際に、PiとPj∈P1,・・・,PKの間の非類似度尺度として、KL(Kullback Leibler)ダイバージェンス又はJS(Jensen Shannon)ダイバージェンスを用いる
ようにコンピュータを機能させることを特徴とする請求項4の記載のプログラム。 - 前記混合分布P(x)は、混合ベルヌーイ分布、混合ガウス分布、混合多項分布、混合ディリクレ分布、又は、混合ラプラス分布である
ようにコンピュータを機能させることを特徴とする請求項1から5のいずれか1項に記載のプログラム。 - 入力された訓練コンテンツ、リファレンスコンテンツ及びクエリコンテンツそれぞれについて、バイナリ特徴ベクトルの集合を抽出するバイナリ特徴ベクトル抽出手段と、
訓練コンテンツのバイナリ特徴ベクトルの集合について、混合分布P(x)に関する混合比wiを含むモデルパラメータλを算出するモデル推定手段と、
前記モデルパラメータλを記憶するモデルパラメータ記憶手段と
してコンピュータを機能させ、
前記量子化手段は、リファレンスコンテンツ又はクエリコンテンツのバイナリ特徴ベクトルについて、前記モデルパラメータλを用いてノードiを特定し、
前記リファレンスコンテンツの各バイナリ特徴ベクトルについて、前記量子化手段で特定された1つ以上のノードの識別子iに対応する転置インデックスのリストに前記バイナリ特徴ベクトルの情報を記憶する転置インデックス記憶手段と、
クエリコンテンツの各バイナリ特徴ベクトルについて、前記量子化手段で特定された1つ以上のノードの識別子iに対応する転置インデックスのリストを探索し、リストに記憶されているバイナリ特徴ベクトルに対応したリファレンスコンテンツに対しスコアを累積し、累積されたスコアを類似度としてリファレンスコンテンツを検索する検索手段と
して更にコンピュータを機能させ、クエリコンテンツに類似したリファレンスコンテンツを検索する
ことを特徴とする請求項1から6のいずれか1項に記載のプログラム。 - 前記混合分布P(x)が、混合ベルヌーイ分布である場合、
前記モデルパラメータλは、ノードiの混合ベルヌーイ分布に関する混合比wiと、ノードiの混合ベルヌーイ分布のd(1≦d≦D)番目のパラメータμidとであり、
前記量子化手段は、混合比wiとパラメータμidとを用いて、各ノードiに対応する混合分布Piを特定する
ようにコンピュータを機能させることを特徴とする請求項7に記載のプログラム。 - 前記モデル推定手段は、訓練コンテンツのバイナリ特徴ベクトルの集合x1〜xTから、
E(Expectation)ステップについて、バイナリ特徴ベクトルxi毎に潜在変数iの事後確率γt(i)=wiPi(x)/(Σi=1 NwiPi(x))を推定し、
M(Maximization)ステップについて、前記事後確率γt(i)を用いて、混合比wi及びパラメータμiを更新し、
これらEステップ及びMステップを、収束するまで又は一定回数繰り返すことによって、混合比wi及びパラメータμidのパラメータ群λを算出する
λ=(w1、・・・、wN及びμ11、・・・、μND)
ようにコンピュータを機能させることを特徴とする請求項8に記載のプログラム。 - 入力データxに対して、量子化対象となる複数のノードi(=1〜N)の中から1つ以上のノードiを特定する量子化装置において、
ルートノードから順に、各ノードiに混合分布の混合要素Piが紐付けられた探索木を記憶した探索木記憶手段と、
前記入力データxについて、前記探索木のルートノードから順に、各ノードiの混合分布P(x)に基づく尤度Pi(x)が大きい方のノード側を探索し、尤度Pi(x)に基づく事後確率γi(x)が所定閾値以上又は上位所定件数のノードiを特定する量子化手段と
を有することを特徴とする量子化装置。 - 入力データxに対して、量子化対象となる複数のノードi(=1〜N)の中から1つ以上のノードiを特定する装置の量子化方法において、
前記装置は、ルートノードから順に、各ノードiに混合分布の混合要素Piが紐付けられた探索木を記憶した探索木記憶部を有し、
前記装置は、前記入力データxについて、前記探索木のルートノードから順に、各ノードiの混合分布P(x)に基づく尤度Pi(x)が大きい方のノード側を探索し、尤度Pi(x)に基づく事後確率γi(x)が所定閾値以上又は上位所定件数のノードiを特定する
ことを特徴とする装置の量子化方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016164371A JP6601965B2 (ja) | 2016-08-25 | 2016-08-25 | 探索木を用いて量子化するプログラム、装置及び方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016164371A JP6601965B2 (ja) | 2016-08-25 | 2016-08-25 | 探索木を用いて量子化するプログラム、装置及び方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2018032232A JP2018032232A (ja) | 2018-03-01 |
| JP6601965B2 true JP6601965B2 (ja) | 2019-11-06 |
Family
ID=61303396
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016164371A Active JP6601965B2 (ja) | 2016-08-25 | 2016-08-25 | 探索木を用いて量子化するプログラム、装置及び方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6601965B2 (ja) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110889504B (zh) * | 2019-12-05 | 2022-10-21 | 北京理工大学 | 一种基于能量分布评估的多目标小行星交会序列搜索方法 |
| WO2021214935A1 (ja) * | 2020-04-23 | 2021-10-28 | 日本電信電話株式会社 | 学習装置、検索装置、学習方法、検索方法及びプログラム |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4597714B2 (ja) * | 2005-03-01 | 2010-12-15 | Kddi株式会社 | 情報検索装置および方法ならびにコンピュータプログラム |
| JP5577371B2 (ja) * | 2012-03-29 | 2014-08-20 | 楽天株式会社 | 画像検索装置、画像検索方法およびプログラム |
-
2016
- 2016-08-25 JP JP2016164371A patent/JP6601965B2/ja active Active
Also Published As
| Publication number | Publication date |
|---|---|
| JP2018032232A (ja) | 2018-03-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Melekhov et al. | Siamese network features for image matching | |
| JP6041439B2 (ja) | 画像に基づくバイナリ特徴ベクトルを用いた画像検索装置、システム、プログラム及び方法 | |
| CN110188223B (zh) | 图像处理方法、装置及计算机设备 | |
| Chen et al. | Blessing of dimensionality: High-dimensional feature and its efficient compression for face verification | |
| McCann et al. | Local naive bayes nearest neighbor for image classification | |
| CN110362677B (zh) | 文本数据类别的识别方法及装置、存储介质、计算机设备 | |
| CN108491794B (zh) | 面部识别的方法和装置 | |
| CN113254687B (zh) | 图像检索、图像量化模型训练方法、装置和存储介质 | |
| Taşdemir et al. | Approximate spectral clustering with utilized similarity information using geodesic based hybrid distance measures | |
| Bergamo et al. | Leveraging structure from motion to learn discriminative codebooks for scalable landmark classification | |
| Bergamo et al. | Classemes and other classifier-based features for efficient object categorization | |
| US9135525B2 (en) | Character recognition apparatus, character recognition method, and computer-readable medium | |
| CN108629345A (zh) | 高维图像特征匹配方法和装置 | |
| JP5794036B2 (ja) | 画像検索装置、画像検索方法、およびプログラム | |
| JP6004015B2 (ja) | 学習方法、情報処理装置および学習プログラム | |
| Altintakan et al. | Towards effective image classification using class-specific codebooks and distinctive local features | |
| Zhang et al. | Large-scale aerial image categorization using a multitask topological codebook | |
| Zhang et al. | Dataset-driven unsupervised object discovery for region-based instance image retrieval | |
| Wang et al. | Few-shot hash learning for image retrieval | |
| Iwana et al. | Efficient temporal pattern recognition by means of dissimilarity space embedding with discriminative prototypes | |
| JP2015022383A (ja) | 画像に基づくバイナリ局所特徴ベクトルを用いた検索装置、システム、プログラム及び方法 | |
| CN110390356A (zh) | 视觉词典生成方法及装置、存储介质 | |
| Bhattacharjee et al. | Query adaptive multiview object instance search and localization using sketches | |
| JP6601965B2 (ja) | 探索木を用いて量子化するプログラム、装置及び方法 | |
| CN108805280B (zh) | 一种图像检索的方法和装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181001 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190927 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191007 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191007 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6601965 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
