JP2022089883A - クロスモーダルな特徴の抽出方法、抽出装置、ならびに、プログラム - Google Patents
クロスモーダルな特徴の抽出方法、抽出装置、ならびに、プログラム Download PDFInfo
- Publication number
- JP2022089883A JP2022089883A JP2022062888A JP2022062888A JP2022089883A JP 2022089883 A JP2022089883 A JP 2022089883A JP 2022062888 A JP2022062888 A JP 2022062888A JP 2022062888 A JP2022062888 A JP 2022062888A JP 2022089883 A JP2022089883 A JP 2022089883A
- Authority
- JP
- Japan
- Prior art keywords
- item
- database
- quantization
- items
- modal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000605 extraction Methods 0.000 title 2
- 238000013139 quantization Methods 0.000 claims abstract description 142
- 239000013598 vector Substances 0.000 claims abstract description 86
- 238000012549 training Methods 0.000 claims abstract description 71
- 238000000034 method Methods 0.000 claims abstract description 64
- 238000013528 artificial neural network Methods 0.000 claims description 44
- 238000004422 calculation algorithm Methods 0.000 claims description 32
- 230000006870 function Effects 0.000 claims description 26
- 230000015654 memory Effects 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 230000006403 short-term memory Effects 0.000 claims description 3
- 230000007787 long-term memory Effects 0.000 claims 2
- 238000004364 calculation method Methods 0.000 description 6
- 235000012489 doughnuts Nutrition 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 241000220225 Malus Species 0.000 description 2
- 235000014443 Pyrus communis Nutrition 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 241000191291 Abies alba Species 0.000 description 1
- 235000021016 apples Nutrition 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/90335—Query processing
- G06F16/90348—Query processing by searching ordered data, e.g. alpha-numerically ordered data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/901—Indexing; Data structures therefor; Storage structures
- G06F16/9014—Indexing; Data structures therefor; Storage structures hash tables
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Pure & Applied Mathematics (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Algebra (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
Description
(1)異なるモーダル性の間の類似度を密な特徴ベクトルに基づいて測るクロスエントロピー損失。
(2)密な特徴ベクトルと量子化された特徴との間の違いを測る量子化損失。
(3)密な特徴ベクトルとバイナリ化された特徴との間の違いを測るバイナリハッシュ損失。
(4)バイナリコード内のビット情報を最適化するためのバランス損失。
(1)検索効率。探索空間を単純なバイナリコードで絞り込むことによって、検索プロセスの速度は、密な特徴ベクトルのみ、あるいは、量子化コードのみに基づいて探索をする手法に比べて格段に向上する。
(2)検索品質。特徴学習は、ハッシュ損失と量子化損失を用いて律則される。量子化では限られた数の連続特徴表現を学習する一方で、バイナリハッシュでは、特徴を離散化する。2つのコード化手法の組み合わせは、特徴学習における正則化として働くので、システムは、データモーダル性をまたいだ類似あるいは非類似を保存するような良いデータ表現を学習することができる。
訓練方法について、図1および3Aを参照して説明する。図1は、バイナリハッシュと量子化を使用するクロスモーダルデータ検索を実行するシステムを訓練する方法を図示している。図3Aは、1つの実施形態に係る訓練方法の例を図解して示す。図解された例においては、2つのデータモーダル性は、画像とテキストであるが、本方法は、これらのモーダル性に限定されるものではない。
システムは、異なるモーダル性を有するデータアイテムの複数ペアからなる訓練データセットを取得する(ステップ110)。特に、各ペアは、第1モーダル性を有するデータアイテムと、第2モーダル性を有するデータアイテムと、を含み、第1モーダル性と、第2モーダル性と、は異なる。データモーダル性には、たとえば、テキスト、画像、動画等がある。たとえば、ペアのおける一方のアイテムはテキストアイテムであり、他方のアイテムは画像もしくは動画である。
ニューラルネットワークを使用して、訓練データアイテムの特徴ベクトル表現を生成する。特に、システムは、第1ニューラルネットワークを、訓練データセット内の第1モーダル性を有するデータアイテムに適用して、これらのアイテムのそれぞれに対する特徴ベクトルを生成する(ステップ120)。同様に、システムは、第2ニューラルネットワークを、訓練データセット内の第2モーダル性を有するデータアイテムに適用して、これらのアイテムのそれぞれに対する特徴ベクトルを生成する(ステップ130)。たとえば、図3Aでは、鉢(bowl)に入ったりんご(apple)等の有機果実(organic fruits)が撮影された画像が訓練画像310として図示されており、「apple」「orange」「pear」「bowl」「fruits」「organic」が訓練テキストアイテム330として図示されている。本図に示すように、ニューラルネットワーク320は、画像の特徴抽出器として機能して、入力された訓練画像310のそれぞれに対する特徴ベクトルfiを生成し、ニューラルネットワーク340は、テキストの特徴抽出器として機能して、入力された訓練テキストアイテム330のそれぞれに対する特徴ベクトルfjを生成する。ある実施形態では、畳み込みニューラルネットワークを画像や動画のデータアイテムに適用し、長・短期記憶(LSTM; Long Short-Term Memory)ニューラルネットワークや多層パーセプトロンをテキストデータに適用する。ある実施形態では、特徴ベクトルは密な特徴ベクトルである。
以下に詳細に説明するように、システムは、訓練データアイテムのそれぞれに対するバイナリハッシュコードおよび量子化コードを、そのアイテムに対する特徴ベクトルから生成する(ステップ140)。
あるデータアイテムに対する特徴ベクトルx∈Rnが与えられると、システムはバイナリハッシュコードhx = H(x)∈Rnを計算する。ここで、H()は、連続値を、集合{+1,-1}に写像する関数である。たとえば、図3Aでは、バイナリハッシュコードhiが、画像特徴ベクトルfiに基づいて生成され、バイナリハッシュコードhjが、テキスト特徴ベクトルfjに基づいて生成される。
あるデータアイテムに対する特徴ベクトルx∈Rnが与えられると、システムは、量子化コードを、Cbx≒xにより計算する。
前述の通り、システムは、訓練データに対して特徴ベクトル、バイナリハッシュコード、量子化コードを繰り返し生成し(ステップ120-140)、これらの表現に基づいて損失値を計算し(ステップ150)、ニューラルネットワーク、バイナリハッシュアルゴリズム、および、量子化アルゴリズムのパラメータを、損失値を最小化するように調整する(ステップ160)。システムは、学習された特徴ならびにバイナリハッシュおよび量子化コードがモーダル性をまたがる訓練データの間の意味論的な類似関係を保存する度合を測る損失関数を使用する(すなわち、意味論的に類似する2つのデータアイテムに対するハッシュコードと量子化コードが、類似するように訓練される)。
(1)異なるモーダル性の間の類似度を密な特徴ベクトルに基づいて測るクロスエントロピー損失。
(2)密な特徴ベクトルと量子化された特徴との間の違いを測る量子化損失。
(3)密な特徴ベクトルとバイナリ化された特徴との間の違いを測るバイナリハッシュ損失。
(4)バイナリコード内のビット情報を最適化するためのバランス損失。
この種の損失関数によって、システムは、特徴ベクトル、バイナリハッシュコード、および、量子化コードを同時に最適化できるようになる。
図2Aおよび2Bは、バイナリハッシュ及び量子化を用いて、異なるモーダル性を有するクエリアイテムに対して意味論的な意味が類似するデータベースアイテムをクロスモーダル検索する方法について図示する。予測フェーズでは、システムは、訓練フェーズで訓練されたニュートラルネットワーク、バイナリハッシュアルゴリズム、および、量子化アルゴリズムを使用する。予測フェーズにおけるデータモーダル性は、訓練フェーズにおけるデータモーダル性と同じである。これを説明する目的のため、データベースアイテムは第1モーダル性(訓練フェーズにおける第1モーダル性と同じもの)を有し、クエリアイテムは第2モーダル性(訓練フェーズにおける第2モーダル性と同じもの)を有するものとする。
システムは、第1モーダル性を有するデータベースを複数持つデータベースにアクセスする(ステップ210)。システムは、第1ニューラルネットワークをデータベースアイテムに適用して、データベースアイテムの各々について、特徴ベクトルを生成する(ステップ220)。システムは、バイナリハッシュアルゴリズムと量子化アルゴリズムを使用して、データベースアイテムの各々について、バイナリハッシュコードと量子化コードを生成する(ステップ230)。これらのステップで使用される第1ニューラルネットワーク、および、バイナリハッシュならびに量子化アルゴリズムは、訓練フェーズで訓練されたものである。
予測フェーズを実行するシステムは、第2モーダル性を有するクエリアイテムを受け取り、第2ニューラルネットワークをクエリアイテムに適用して、クエリアイテムに対する特徴ベクトルを生成する(ステップ240, 250)。ついで、システムは、特徴ベクトルとバイナリハッシュアルゴリズムに基づいて、クエリアイテムに対するバイナリハッシュコードを生成する(ステップ260)。実施形態によっては、アイテム間の類似度を測るために量子化コードに基づく量子化距離(quantization distance)あるいは非対称量子化距離(AQD; Asymmetric Quantization Distance)を使用するかに応じて、システムがクエリアイテムに対する量子化コードも生成することとしても良い(後述する)。
システムは、クエリアイテムと、データベースアイテムの各々と、の間の距離(すなわち、類似性の尺度)を、クエリアイテムとデータベースアイテムのバイナリハッシュコードに基づいて計算する(ステップ260)。ある実施形態では、類似性の尺度はハミング距離
dist(hx,hy) = sum(hx XOR hy)
とする。ここで、hxおよびhyはクエリアイテムxおよびyに対するバイナリハッシュコードである。ハミング距離の値が大きくなればなるほど、アイテムxとyは意味論的に、一層非類似となる。
ついで、システムは、クエリアイテムと、絞り込まれた探索空間内のデータベースアイテムのそれぞれ(すなわち、選択された部分集合内のデータベースアイテムのそれぞれ)と、の間の量子化距離を計算する(ステップ280)。量子化距離は、
データベースアイテムの部分集合のそれぞれに対応付けられる量子化コードと、
クエリアイテムの特徴ベクトルもしくはクエリアイテムの量子化コードのいずれか一方と、
を使用して計算される。
AQD(x,y) = fx T (Cby)
ここで、
xはクエリアイテムであり、yはデータベースアイテムであり、
fxは、xの特徴ベクトルであり、
Tは転置操作であり、
Cは量子化に対する辞書であり、
byは、辞書の列を示すインデックス指示子である。
QD(x,y) = (Cbx)T(Cby)
QD値が大きくなればなるほど、両アイテムの量子化距離は小さくなり、両アイテムは一層類似することになる。
図3Bは、1つの実施形態に対する予測プロセスの例を図示して示す。この例では、システムは、画像クエリアイテム350 (本図では、ドーナツの形のオーナメントが飾られたクリスマスツリーの写真の画像を例として示す。)に対して、データベース365からマッチするテキスト記述を探す。ニューラルネットワーク360は、画像の特徴抽出器として機能して、画像クエリアイテム350に対する特徴ベクトルfを生成する。それから、バイナリハッシュコードhが特徴ベクトルに基づいて計算させる。それから、このプロセスは、以下のように進む。
図4に、ここで説明した手法によるクロスモーダル検索を実行するシステムのソフトウェアアーキテクチャの例を図示する。他のソフトウェアアーキテクチャを使用することも可能であり、ここで説明した手法は、図示するアーキテクチャに限られるものではない。
以下では、上記実施形態に対する注記をいくつか掲げる。
本願図面において記述された手法は、ソフトウェア内に具体化され、当該ソフトウェアを実行(execute)する(1以上のコンピューティングデバイスを備える)コンピュータシステムによって実行(perform)される。コンピュータシステムは、ソフトウェア指令を格納するための1以上の物理メモリユニット、ディスクあるいは他の物理的な、コンピュータ読取可能なストレージメディアを有するほか、ソフトウェア指令を実行するための1以上のプロセッサを有する。コンピュータシステムは、スタンドアロンのものでも良いし、コンピュータ通信網にサーバとして接続されたものでも良い。実施形態によっては、あるエンティティにより制御されるコンピュータシステムが訓練プロセスを実行し、別のエンティティにより制御されるコンピュータシステムが予測プロセスを実行することとしても良い。
本願においては、アメリカ合衆国に対して令和1年(2019年)12月20日(金)に出願した仮出願62/952090、および、アメリカ合衆国に対して令和2年(2020年)5月7日(木)に出願した特許出願16/869408を基礎とする優先権を主張するものとし、法令が許す限り、当該基礎出願の内容を本願に取り込むものとする。
320 ニューラルネットワーク
330 訓練テキストアイテム
340 ニューラルネットワーク
350 画像クエリアイテム
360 ニューラルネットワーク
365 テキストデータベース
370 バイナリハッシュコード
375 データベースアイテムの部分集合
380 量子化コード
400 システム
405 訓練データ
410 データベース
415 データベースインターフェース
420 クエリアイテム
430 データ表現モジュール
450 ニューラルネットワークモジュール
460 バイナリハッシュモジュール
470 量子化モジュール
480 クエリモジュール
484 ハミング距離モジュール
488 AQDモジュール
490 訓練モジュール
Claims (23)
- コンピュータシステムによって実行され、異なるモーダル性を有するクエリアイテムと意味論的な意味が類似するデータベースアイテムをクロスモーダル検索するための方法であって、
訓練フェーズでは、
(a)データアイテムのペアを複数含む訓練データセットであって、
各ペアは、第1モーダル性のデータアイテムと、第2モーダル性のデータアイテムと、を含み、第1モーダル性と第2モーダル性は異なり、
ペアの第1部分集合は、意味論的な意味が類似するデータアイテムを含み、
ペアの第2部分集合は、意味論的な意味が非類似のデータアイテムを含み、
各ペアは、ペア内のデータアイテムの意味論的な意味が類似か非類似かに基づいてラベルが付けられている
訓練データセットを取得し、
(b)第1ニューラルネットワークを当該訓練データセット内の第1モーダル性を有するデータアイテムに適用して、第1モーダル性を有するデータアイテムのそれぞれの特徴ベクトルを生成し、
(c)第2ニューラルネットワークを当該訓練データセット内の第2モーダル性を有するデータアイテムに適用して、第2モーダル性を有するデータアイテムのそれぞれの特徴ベクトルを生成し、
(d)バイナリハッシュコードと量子化コードを、訓練データセット内のデータアイテムの各々に対して、当該データアイテムの特徴ベクトルに基づいて生成し、
当該バイナリハッシュコードはバイナリハッシュアルゴリズムを使用して生成され、
当該量子化コードは量子化アルゴリズムを使用して生成され、
(e)損失関数を使用して損失値を計算し、
当該損失関数は、当該特徴ベクトルと、当該バイナリハッシュコードと、当該量子化コードと、が訓練データペア内の意味論的な類似関係を保存する度合を測り、
(f)当該第1ニューラルネットワークと、当該第2ニューラルネットワークと、当該バイナリハッシュアルゴリズムと、当該量子化アルゴリズムと、のパラメータを、当該損失値が減るように更新し、
(g) ステップ(b)-(f)を何回か繰り返し、
予測フェーズでは、
(h)当該第1モーダル性を有する複数のデータベースアイテムを持つデータベースにアクセスし、
(i)当該第1ニューラルネットワークを当該データベースアイテムに適用して、当該データベースアイテムのそれぞれに対する特徴ベクトルを生成し、
(j)当該データベースアイテムに対する特徴ベクトルと、当該バイナリハッシュアルゴリズムと、当該量子化アルゴリズムと、を使用して、当該データベースアイテムのそれぞれに対して、バイナリハッシュコードと、量子化コードと、を生成し、
(k)第2モーダル性を有するクエリアイテムを受け取り、
(l)第2ニューラルネットワークを当該クエリアイテムに適用して当該クエリアイテムに対する特徴ベクトルを生成し、
(m)当該クエリアイテムに対する特徴ベクトルに基づいて、当該クエリアイテムに対するバイナリハッシュコードを生成し、
(n)当該クエリアイテムと、当該データベースアイテムの各々と、の距離を、当該クエリアイテムと当該データベースアイテムとのバイナリハッシュコードに基づいて計算し、
(o)当該計算された距離に基づいて、当該クエリアイテムとの近さが上位のデータベースアイテムの部分集合を選択し、
(p)当該部分集合内のデータベースアイテムの各々に対する量子化コードを使用して、当該クエリアイテムと、当該部分集合内のデータベースアイテムの各々と、の量子化距離を計算し、
(q)当該部分集合内のデータベースアイテムであって前記クエリアイテムに対する量子化距離が最も近いものを検索する
ことを特徴とする方法。 - 当該第1モーダル性はテキストであり、当該第2モーダル性は画像である
ことを特徴とする請求項1に記載の方法。 - 当該第1モーダル性は画像であり、当該第2モーダル性はテキストである
ことを特徴とする請求項1に記載の方法。 - 当該損失関数は、
訓練データアイテムのペアの特徴ベクトル間の類似度を測る類似損失サブ関数と、
バイナリコード誤差を測るハッシュ損失サブ関数と、
量子化誤差を測る量子化損失サブ関数と、
を備えることを特徴とする請求項1から3のいずれか1項に記載の方法。 - 当該損失関数は、当該訓練データセットに対する当該バイナリハッシュコードにおける+1と-1のバイナリビットの数の分布を測るバランス損失サブ関数を備えることを特徴とする請求項4に記載の方法。
- 畳み込みニューラルネットワークを画像データアイテムに適用し、長・短期記憶ニューラルネットワークもしくは多層パーセプトロンをテキストデータアイテムに適用することを特徴とする請求項1から5のいずれか1項に記載の方法。
- 当該バイナリハッシュコードに基づいて計算される距離は、ハミング距離であることを特徴とする請求項1から6のいずれか1項に記載の方法。
- 当該量子化距離は、当該クエリアイテムの特徴ベクトルと、当該データベースアイテムの量子化コードと、を使用して計算される非対称量子化距離であることを特徴とする請求項1から7のいずれか1項に記載の方法。
- 量子化コードが当該クエリアイテムに対して生成され、当該量子化距離は、当該クエリアイテムの量子化コードと、当該データベースアイテムの量子化コードと、を使用して計算されることを特徴とする請求項1から7のいずれか1項に記載の方法。
- コンピュータシステムによって実行され、異なるモーダル性を有するクエリアイテムと意味論的な意味が類似するデータベースアイテムをクロスモーダル検索を実行するシステムを訓練するための方法であって、
(a)データアイテムのペアを複数含む訓練データセットであって、
各ペアは、第1モーダル性のデータアイテムと、第2モーダル性のデータアイテムと、を含み、第1モーダル性と第2モーダル性は異なり、
ペアの第1部分集合は、意味論的な意味が類似するデータアイテムを含み、
ペアの第2部分集合は、意味論的な意味が非類似のデータアイテムを含み、
各ペアは、ペア内のデータアイテムの意味論的な意味が類似か非類似かに基づいてラベルが付けられている
訓練データセットを取得し、
(b)第1ニューラルネットワークを当該訓練データセット内の第1モーダル性を有するデータアイテムに適用して、第1モーダル性を有するデータアイテムのそれぞれの特徴ベクトルを生成し、
(c)第2ニューラルネットワークを当該訓練データセット内の第2モーダル性を有するデータアイテムに適用して、第2モーダル性を有するデータアイテムのそれぞれの特徴ベクトルを生成し、
(d)バイナリハッシュコードと量子化コードを、訓練データセット内のデータアイテムの各々に対して、当該データアイテムの特徴ベクトルに基づいて生成し、
当該バイナリハッシュコードはバイナリハッシュアルゴリズムを使用して生成され、
当該量子化コードは量子化アルゴリズムを使用して生成され、
(e)損失関数を使用して損失値を計算し、
当該損失関数は、当該特徴ベクトルと、当該バイナリハッシュコードと、当該量子化コードと、が訓練データペア内の意味論的な類似関係を保存する度合を測り、
(f)当該第1ニューラルネットワークと、当該第2ニューラルネットワークと、当該バイナリハッシュアルゴリズムと、当該量子化アルゴリズムと、のパラメータを、当該損失値が減るように更新し、
(g) ステップ(b)-(f)を何回か繰り返す
ことを特徴とする方法。 - 当該第1モーダル性はテキストであり、当該第2モーダル性は画像である
ことを特徴とする請求項10に記載の方法。 - 当該第1モーダル性は画像であり、当該第2モーダル性はテキストである
ことを特徴とする請求項10に記載の方法。 - 当該損失関数は、
訓練データアイテムのペアの特徴ベクトル間の類似度を測る類似損失サブ関数と、
バイナリコード損失を測るハッシュ損失サブ関数と、
量子化コード損失を測る量子化損失サブ関数と、
を備えることを特徴とする請求項10に記載の方法。 - 当該損失関数は、当該訓練データセットに対する当該バイナリハッシュコードにおける+1と-1のバイナリビットの数の分布を測るバランス損失サブ関数を備えることを特徴とする請求項13に記載の方法。
- 畳み込みニューラルネットワークを画像データアイテムに適用し、長・短期記憶ニューラルネットワークもしくは多層パーセプトロンをテキストデータアイテムに適用することを特徴とする請求項10から14のいずれか1項に記載の方法。
- コンピュータシステムによって実行され、異なるモーダル性を有するクエリアイテムと意味論的な意味が類似するデータベースアイテムをクロスモーダル検索するための方法であって、
第1モーダル性を有する複数のデータベースアイテムを持つデータベースにアクセスし、
各データベースアイテムは、バイナリハッシュコードおよび量子化コードに対応付けられており、
各データベースアイテムに対する当該バイナリハッシュコードおよび当該量子化コードは、
当該データベースアイテムの特徴ベクトル表現に基いており、
当該データベースに対して第1ニューラルネットワークを適用することにより生成されたものであり、
第2モーダル性を有するクエリアイテムを受け取り、
第2ニューラルネットワークを当該クエリアイテムに適用して当該クエリアイテムに対する特徴ベクトルを生成し、
当該クエリアイテムに対する特徴ベクトルに基づいて、当該クエリアイテムに対するバイナリハッシュコードを生成し、
当該クエリアイテムと、当該データベースアイテムの各々と、の距離を、当該クエリアイテムと当該データベースアイテムとのバイナリハッシュコードに基づいて計算し、
当該計算された距離に基づいて、当該クエリアイテムとの近さが上位のデータベースアイテムの部分集合を選択し、
当該部分集合内のデータベースアイテムの各々に対する量子化コードを使用して、当該クエリアイテムと、当該部分集合内のデータベースアイテムの各々と、の量子化距離を計算し、
当該部分集合内のデータベースアイテムであって前記クエリアイテムに対する量子化距離が最も近いものを検索する
ことを特徴とする方法。 - 当該第1モーダル性はテキストであり、当該第2モーダル性は画像である
ことを特徴とする請求項16に記載の方法。 - 当該第1モーダル性は画像であり、当該第2モーダル性はテキストである
ことを特徴とする請求項16に記載の方法。 - 当該バイナリハッシュコードに基づいて計算される距離は、ハミング距離であることを特徴とする請求項16から18のいずれか1項に記載の方法。
- 当該量子化距離は、当該クエリアイテムの特徴ベクトルと、当該データベースアイテムの量子化コードと、を使用して計算される非対称量子化距離であることを特徴とする請求項16から19のいずれか1項に記載の方法。
- 量子化コードが当該クエリアイテムに対して生成され、当該量子化距離は、当該クエリアイテムの量子化コードと、当該データベースアイテムの量子化コードと、を使用して計算されることを特徴とする請求項16から19のいずれか1項に記載の方法。
- 異なるモーダル性を有するクエリアイテムと意味論的な意味が類似するデータベースアイテムをクロスモーダル検索するためのコンピュータシステムであって、当該コンピュータシステムは、
1以上のプロセッサと、
前記1以上のプロセッサに接続される1以上のメモリユニットと、
を備え、
前記1以上のメモリユニットは、前記1以上のプロセッサにより実行される指令を格納し、
前記指令は、前記システムに、
第1モーダル性を有する複数のデータベースアイテムを持つデータベースにアクセスし、
各データベースアイテムは、バイナリハッシュコードおよび量子化コードに対応付けられており、
各データベースアイテムに対する当該バイナリハッシュコードおよび当該量子化コードは、
当該データベースアイテムの特徴ベクトル表現に基いており、
当該データベースに対して第1ニューラルネットワークを適用することにより生成されたものであり、
第2モーダル性を有するクエリアイテムを受け取り、
第2ニューラルネットワークを当該クエリアイテムに適用して当該クエリアイテムに対する特徴ベクトルを生成し、
当該クエリアイテムに対する特徴ベクトルに基づいて、当該クエリアイテムに対するバイナリハッシュコードを生成し、
当該クエリアイテムと、当該データベースアイテムの各々と、の距離を、当該クエリアイテムと当該データベースアイテムとのバイナリハッシュコードに基づいて計算し、
当該計算された距離に基づいて、当該クエリアイテムとの近さが上位のデータベースアイテムの部分集合を選択し、
当該部分集合内のデータベースアイテムの各々に対する量子化コードを使用して、当該クエリアイテムと、当該部分集合内のデータベースアイテムの各々と、の量子化距離を計算し、
当該部分集合内のデータベースアイテムであって前記クエリアイテムに対する量子化距離が最も近いものを検索する
処理を実行させることを特徴とするコンピュータシステム。 - コンピュータに、異なるモーダル性を有するクエリアイテムと意味論的な意味が類似するデータベースアイテムをクロスモーダル検索させるためのプログラムであって、
前記プログラムは、前記コンピュータに、
第1モーダル性を有する複数のデータベースアイテムを持つデータベースにアクセスし、
各データベースアイテムは、バイナリハッシュコードおよび量子化コードに対応付けられており、
各データベースアイテムに対する当該バイナリハッシュコードおよび当該量子化コードは、
当該データベースアイテムの特徴ベクトル表現に基いており、
当該データベースに対して第1ニューラルネットワークを適用することにより生成されたものであり、
第2モーダル性を有するクエリアイテムを受け取り、
第2ニューラルネットワークを当該クエリアイテムに適用して当該クエリアイテムに対する特徴ベクトルを生成し、
当該クエリアイテムに対する特徴ベクトルに基づいて、当該クエリアイテムに対するバイナリハッシュコードを生成し、
当該クエリアイテムと、当該データベースアイテムの各々と、の距離を、当該クエリアイテムと当該データベースアイテムとのバイナリハッシュコードに基づいて計算し、
当該計算された距離に基づいて、当該クエリアイテムとの近さが上位のデータベースアイテムの部分集合を選択し、
当該部分集合内のデータベースアイテムの各々に対する量子化コードを使用して、当該クエリアイテムと、当該部分集合内のデータベースアイテムの各々と、の量子化距離を計算し、
当該部分集合内のデータベースアイテムであって前記クエリアイテムに対する量子化距離が最も近いものを検索する
処理を実行させることを特徴とするプログラム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962952090P | 2019-12-20 | 2019-12-20 | |
US62/952090 | 2019-12-20 | ||
US16/869408 | 2020-05-07 | ||
US16/869,408 US11651037B2 (en) | 2019-12-20 | 2020-05-07 | Efficient cross-modal retrieval via deep binary hashing and quantization |
JP2020209580A JP7055187B2 (ja) | 2019-12-20 | 2020-12-17 | ディープバイナリハッシュおよび量子化を介した効率的なクロスモーダル検索 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020209580A Division JP7055187B2 (ja) | 2019-12-20 | 2020-12-17 | ディープバイナリハッシュおよび量子化を介した効率的なクロスモーダル検索 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022089883A true JP2022089883A (ja) | 2022-06-16 |
JP7360497B2 JP7360497B2 (ja) | 2023-10-12 |
Family
ID=76437406
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020209580A Active JP7055187B2 (ja) | 2019-12-20 | 2020-12-17 | ディープバイナリハッシュおよび量子化を介した効率的なクロスモーダル検索 |
JP2022062888A Active JP7360497B2 (ja) | 2019-12-20 | 2022-04-05 | クロスモーダルな特徴の抽出方法、抽出装置、ならびに、プログラム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020209580A Active JP7055187B2 (ja) | 2019-12-20 | 2020-12-17 | ディープバイナリハッシュおよび量子化を介した効率的なクロスモーダル検索 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11651037B2 (ja) |
JP (2) | JP7055187B2 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11681610B2 (en) * | 2020-05-13 | 2023-06-20 | Data-Core Systems, Inc. | Synthesizing data based on topic modeling for training and testing machine learning systems |
EP4264499A1 (en) * | 2020-12-21 | 2023-10-25 | Citrix Systems, Inc. | Multimodal modelling for systems using distance metric learning |
CN113312505B (zh) * | 2021-07-29 | 2021-11-02 | 山东大学 | 一种基于离散在线哈希学习的跨模态检索方法及系统 |
CN113326289B (zh) * | 2021-08-02 | 2021-11-02 | 山东大学 | 面向携带新类别的增量数据的快速跨模态检索方法及系统 |
CN113961727B (zh) * | 2021-09-13 | 2022-10-21 | 哈尔滨工业大学(深圳) | 一种跨媒体哈希检索方法、装置、终端及存储介质 |
US11790388B2 (en) | 2021-09-30 | 2023-10-17 | Rakuten Group, Inc. | System, method, and computer program for automatic coupon code fill in a mobile application |
CN113868366B (zh) * | 2021-12-06 | 2022-04-01 | 山东大学 | 一种面向流数据的在线跨模态检索方法与系统 |
US11775740B2 (en) | 2021-12-30 | 2023-10-03 | Rakuten Group, Inc. | System, method, and computer program for testing the accuracy of software that identifies user interface elements on a webpage |
CN114531220A (zh) * | 2022-01-12 | 2022-05-24 | 重庆邮电大学 | 一种基于前向和后向隐私的高效容错动态短语搜索方法 |
CN114461839B (zh) * | 2022-04-12 | 2023-02-07 | 智者四海(北京)技术有限公司 | 基于多模态预训练的相似图片检索方法、装置及电子设备 |
CN114861016A (zh) * | 2022-07-05 | 2022-08-05 | 人民中科(北京)智能技术有限公司 | 一种跨模态检索方法、装置以及存储介质 |
CN115080880B (zh) * | 2022-08-23 | 2022-11-08 | 山东建筑大学 | 一种基于鲁棒相似保持的跨模态检索方法及系统 |
CN115687571B (zh) * | 2022-10-28 | 2024-01-26 | 重庆师范大学 | 一种基于模态融合重建哈希的深度无监督跨模态检索方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06168277A (ja) * | 1992-11-30 | 1994-06-14 | Canon Inc | 画像検索装置及び方法 |
JP2016197375A (ja) * | 2015-04-06 | 2016-11-24 | 日本電信電話株式会社 | 写像学習方法、情報圧縮方法、装置、及びプログラム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5142705B2 (ja) | 2007-12-29 | 2013-02-13 | シャープ株式会社 | 画像検索装置 |
JP5458815B2 (ja) | 2009-11-11 | 2014-04-02 | 株式会社デンソーアイティーラボラトリ | マルチメディア検索システム |
US10120879B2 (en) * | 2013-11-29 | 2018-11-06 | Canon Kabushiki Kaisha | Scalable attribute-driven image retrieval and re-ranking |
JP6397385B2 (ja) | 2015-08-21 | 2018-09-26 | 日本電信電話株式会社 | 学習装置、探索装置、方法、及びプログラム |
CN107256271B (zh) | 2017-06-27 | 2020-04-03 | 鲁东大学 | 基于映射字典学习的跨模态哈希检索方法 |
CN110019652B (zh) * | 2019-03-14 | 2022-06-03 | 九江学院 | 一种基于深度学习的跨模态哈希检索方法 |
US11604822B2 (en) * | 2019-05-30 | 2023-03-14 | Adobe Inc. | Multi-modal differential search with real-time focus adaptation |
CN110309331B (zh) * | 2019-07-04 | 2021-07-27 | 哈尔滨工业大学(深圳) | 一种基于自监督的跨模态深度哈希检索方法 |
CN110516085B (zh) * | 2019-07-11 | 2022-05-17 | 西安电子科技大学 | 基于双向注意力的图像文本互检索方法 |
-
2020
- 2020-05-07 US US16/869,408 patent/US11651037B2/en active Active
- 2020-12-17 JP JP2020209580A patent/JP7055187B2/ja active Active
-
2022
- 2022-04-05 JP JP2022062888A patent/JP7360497B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06168277A (ja) * | 1992-11-30 | 1994-06-14 | Canon Inc | 画像検索装置及び方法 |
JP2016197375A (ja) * | 2015-04-06 | 2016-11-24 | 日本電信電話株式会社 | 写像学習方法、情報圧縮方法、装置、及びプログラム |
Non-Patent Citations (1)
Title |
---|
CAO, YUE ほか: "Deep Visual-Semantic Hashing for Cross-Modal Retrieval", PROCEEDINGS OF THE 22ND ACM SIGKDD INTERNATIONAL CONFERENCE ON KNOWLEDGE DISCOVERY AND DATA MINING, JPN7023001686, 13 August 2016 (2016-08-13), pages 1445 - 1454, XP058276940, ISSN: 0005054486, DOI: 10.1145/2939672.2939812 * |
Also Published As
Publication number | Publication date |
---|---|
JP7055187B2 (ja) | 2022-04-15 |
JP7360497B2 (ja) | 2023-10-12 |
US20210191990A1 (en) | 2021-06-24 |
US11651037B2 (en) | 2023-05-16 |
JP2021099803A (ja) | 2021-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7055187B2 (ja) | ディープバイナリハッシュおよび量子化を介した効率的なクロスモーダル検索 | |
CN105912611B (zh) | 一种基于cnn的快速图像检索方法 | |
Yue et al. | Matching guided distillation | |
Vijayanarasimhan et al. | Deep networks with large output spaces | |
CN108132968A (zh) | 网络文本与图像中关联语义基元的弱监督学习方法 | |
EP3166020A1 (en) | Method and apparatus for image classification based on dictionary learning | |
CN104462196B (zh) | 多特征联合哈希信息检索方法 | |
CN112368697A (zh) | 经由对偶分解评估损失函数或损失函数的梯度的系统和方法 | |
US11023473B2 (en) | Recurrent binary embedding for information retrieval | |
CN109902714B (zh) | 一种基于多图正则化深度哈希的多模态医学图像检索方法 | |
CN110990596B (zh) | 一种基于自适应量化多模态哈希检索方法及系统 | |
JP2016042359A (ja) | 認識装置、実数行列分解方法、認識方法 | |
CN113806582B (zh) | 图像检索方法、装置、电子设备和存储介质 | |
CN112395487A (zh) | 信息推荐方法、装置、计算机可读存储介质及电子设备 | |
Yu et al. | Product quantization network for fast visual search | |
Ciaburro et al. | Python Machine Learning Cookbook: Over 100 recipes to progress from smart data analytics to deep learning using real-world datasets | |
Almiman et al. | Deep neural network approach for Arabic community question answering | |
Chen et al. | Extensible Cross-Modal Hashing. | |
CN111026887B (zh) | 一种跨媒体检索的方法及系统 | |
CN111611395B (zh) | 一种实体关系的识别方法及装置 | |
Ngueilbaye et al. | SDLER: stacked dedupe learning for entity resolution in big data era | |
CN111260074B (zh) | 一种超参数确定的方法、相关装置、设备及存储介质 | |
CN117435685A (zh) | 文档检索方法、装置、计算机设备、存储介质和产品 | |
CN116340635A (zh) | 物品推荐方法、模型训练方法、装置及设备 | |
CN115292533B (zh) | 视觉定位驱动的跨模态行人检索方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220510 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220510 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230331 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230509 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230614 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230926 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230929 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7360497 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |