JP2023523726A - 複数のポジティブ例を用いた教師あり対照学習 - Google Patents
複数のポジティブ例を用いた教師あり対照学習 Download PDFInfo
- Publication number
- JP2023523726A JP2023523726A JP2022564040A JP2022564040A JP2023523726A JP 2023523726 A JP2023523726 A JP 2023523726A JP 2022564040 A JP2022564040 A JP 2022564040A JP 2022564040 A JP2022564040 A JP 2022564040A JP 2023523726 A JP2023523726 A JP 2023523726A
- Authority
- JP
- Japan
- Prior art keywords
- computing system
- images
- anchor
- image
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 claims abstract description 48
- 238000000034 method Methods 0.000 claims abstract description 28
- 238000013528 artificial neural network Methods 0.000 claims description 37
- 230000006870 function Effects 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 11
- 238000010606 normalization Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 8
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000011156 evaluation Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 2
- 230000011218 segmentation Effects 0.000 claims description 2
- 230000000916 dilatatory effect Effects 0.000 claims 1
- 230000015654 memory Effects 0.000 description 16
- 238000013434 data augmentation Methods 0.000 description 12
- 230000008901 benefit Effects 0.000 description 11
- 230000003190 augmentative effect Effects 0.000 description 10
- 239000013598 vector Substances 0.000 description 9
- 238000013459 approach Methods 0.000 description 8
- 239000008186 active pharmaceutical agent Substances 0.000 description 7
- 238000009826 distribution Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 5
- 230000006872 improvement Effects 0.000 description 5
- 101100153586 Caenorhabditis elegans top-1 gene Proteins 0.000 description 4
- 101100370075 Mus musculus Top1 gene Proteins 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 239000000047 product Substances 0.000 description 4
- 230000003416 augmentation Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000009472 formulation Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 238000007792 addition Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000010339 dilation Effects 0.000 description 2
- 238000005065 mining Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 239000006227 byproduct Substances 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 239000013642 negative control Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 239000013641 positive control Substances 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2178—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
- Eye Examination Apparatus (AREA)
Abstract
Description
本出願は、2020年4月21日に出願された米国仮特許出願第63/013,153号の優先権および利益を主張する。米国仮特許出願第63/013,153号は、その全体が参照により本明細書に組み込まれる。
一般に、本開示は、複数のポジティブおよびネガティブのトレーニング例にわたって、教師あり対照学習を同時に実行することを可能にする、改善されたトレーニング方法を対象とする。特に、本開示の例示的な態様は、自己教師あり設定において強力な表現を学習するのに非常に効果的であることが示されているバッチ対照損失の改善された教師ありバージョンを対象とする。したがって、提案された技法は、対照学習を完全教師あり設定に適応させ、また、複数のポジティブ例にわたって学習が同時に行われることを可能にする。
このセクションは、自己教師あり表現学習のための対照学習損失をレビューすることから始まる。次に、この損失を完全教師あり学習に適したものに修正し、同時に自己教師ありアプローチに重要な特性を維持する方法を示す。
1つの例示的な表現学習フレームワークは、図3に示されており、自己教師あり対照学習に典型的に使用されるものと構造的に類似している。図3に示されるように、1つの例示的な表現学習フレームワークは、以下の構成要素からなる(教師ありシナリオと自己教師ありシナリオとの間の差の説明については、図1A~図1Bおよび図2A~図2Cも参照されたい)。
本開示の例示的な実装形態は、ラベル付きデータのインパクトのある組込みを可能にすると同時に、自己教師あり表現学習の成功に最も重要であった対照損失の有益な特性を維持する、対照損失関数を提供する。自己教師あり対照学習と同様に、本開示の例示的な実装形態は、データをランダムにサンプリングすることによってミニバッチを生成することができる。一例として、ランダムにサンプリングされた画像/ラベルN対のセット、{xk, yk}k=1...Nについて、トレーニングに使用される対応するミニバッチは、2N対
ミニバッチ内で、任意の拡張画像のインデックスをi∈{1...2N}とし、同じソース画像に由来する他の拡張画像のインデックスをj(i)とする。自己教師あり対照学習では、損失は次のような形をとる。
教師あり学習の場合、式2の対照損失は、2つ以上のサンプルが確実に同じクラスに属することが知られている場合を処理することができない。同じクラスに属する任意の数のポジティブを処理するために損失を一般化するために、以下の新しい損失関数が提案される。
ここで、本サブセクションでは、弱いもの(すなわち、アンカーを対比し続けることがエンコーダにわずかしか利益を与えないもの)ではなく、ハードポジティブおよびネガティブ(すなわち、アンカーを対比し続けることがエンコーダに大いに利益を与えるもの)に自然に学習を集中させるような構造を、その勾配が有することを示すことによって、式4の例示的な教師あり対照損失の形式について、さらなる動機付けを提供する。したがって、損失は、そのトレーニングにおいて効率的であることがわかる。トリプレット損失など他の対照損失は、トレーニングの有効性を高めるために、ハードネガティブマイニングの計算コストが高い技法を使用することが多い。この分析の副産物として、投影ネットワークの端部における正規化層の追加は、その存在によって勾配がこの構造を有することができるので有益であることが示される。
図5Aは、本開示の例示的実施形態による例示的コンピューティングシステム100のブロック図を示す。システム100は、ネットワーク180を介して通信可能に結合されている、ユーザコンピューティングデバイス102、サーバコンピューティングシステム130、およびトレーニング用コンピューティングシステム150を含む。
本明細書において論じた技術は、サーバ、データベース、ソフトウェアアプリケーション、および他のコンピュータベースのシステム、ならびに行われるアクションおよびそのようなシステムとの間で送られる情報を参照する。コンピュータベースのシステムの固有柔軟性により、構成要素の間でのタスクおよび機能性の非常に様々な可能構成、組合せ、および分割ができるようになる。たとえば、本明細書において論じるプロセスは、組合せで動く、単一のデバイスもしくは構成要素または複数のデバイスもしくは構成要素を使って実装することができる。データベースおよびアプリケーションは、単一のシステム上で実装されるか、または複数のシステムに分散されてよい。分散構成要素は、順次、または並行して動作することができる。
100 コンピューティングシステム
102 ユーザコンピューティングデバイス
112 プロセッサ
114 メモリ
116 データ
118 命令
120 機械学習済みモデル
122 ユーザ入力構成要素
130 サーバコンピューティングシステム
132 プロセッサ
134 メモリ
136 データ
138 命令
140 機械学習済みモデル
150 トレーニング用コンピューティングシステム
152 プロセッサ
154 メモリ
156 データ
158 命令
160 モデル訓練器
162 トレーニングデータのセット
180 ネットワーク
202 入力画像
203 データ拡大モジュール
204 ベースエンコーダニューラルネットワーク
206 投影ネットワーク
212 ランダムに拡張された画像
214 埋込み表現ベクトル
216 投影ネットワーク
250 タスク固有モデル
252 追加の入力
254 埋込み表現
256 タスク固有予測
Claims (17)
- 視覚表現の教師あり対照学習を実行するためのコンピューティングシステムであって、
1つまたは複数のプロセッサと、
1つまたは複数の非一時的コンピュータ可読媒体であり、
入力画像の埋込み表現を生成するために前記入力画像を処理するように構成されたベースエンコーダニューラルネットワークと、
前記入力画像の投影表現を生成するために前記入力画像の前記埋込み表現を処理するように構成された投影ヘッドニューラルネットワークと、
前記1つまたは複数のプロセッサによって実行されると、前記コンピューティングシステムに複数の動作を実行させる命令であり、前記複数の動作が、
複数のクラスのうちの第1のクラスに関連付けられたアンカー画像、前記第1のクラスに関連付けられた複数のポジティブ画像、および前記複数のクラスのうちの1つまたは複数の他のクラスに関連付けられた1つまたは複数のネガティブ画像を取得する動作であって、前記1つまたは複数の他のクラスが前記第1のクラスとは異なる、動作と、
前記ベースエンコーダニューラルネットワークにより、アンカー画像のアンカー埋込み表現を取得するために前記アンカー画像を処理し、複数のポジティブ埋込み表現をそれぞれ取得するために前記複数のポジティブ画像を処理し、1つまたは複数のネガティブ埋込み表現をそれぞれ取得するために前記1つまたは複数のネガティブ画像を処理する動作と、
前記投影ヘッドニューラルネットワークにより、前記アンカー画像のアンカー投影表現を取得するために前記アンカー埋込み表現を処理し、複数のポジティブ投影表現をそれぞれ取得するために前記複数のポジティブ埋込み表現を処理し、1つまたは複数のネガティブ投影表現をそれぞれ取得するために前記1つまたは複数のネガティブ埋込み表現を処理する動作と、
前記アンカー投影表現と、前記複数のポジティブ投影表現の各々と、前記1つまたは複数のネガティブ投影表現の各々との間の類似性メトリックを評価する損失関数を評価する動作と、
前記損失関数に少なくとも部分的に基づいて、少なくとも前記ベースエンコーダニューラルネットワークの1つまたは複数のパラメータの1つまたは複数の値を修正する動作と
を含む、命令と
をまとめて記憶する、1つまたは複数の非一時的コンピュータ可読媒体と
を含む、コンピューティングシステム。 - 前記アンカー画像、および前記1つまたは複数のポジティブ画像のうちの少なくとも1が、前記複数のクラスのうちの同じ第1のクラスに属する異なる対象を示す、請求項1に記載のコンピューティングシステム。
- 前記複数のポジティブ画像が、前記第1のクラスに関連付けられたトレーニングバッチ内に含まれるすべての画像を含み、前記1つまたは複数のネガティブアンカー画像が、前記第1のクラス以外の前記複数のクラスのいずれにも関連付けられていない前記トレーニングバッチ内に含まれるすべての画像を含む、請求項1または2に記載のコンピューティングシステム。
- 前記複数の動作が、前記アンカー画像、前記複数のポジティブ画像、および前記1つまたは複数のネガティブ画像の各々を前記ベースエンコーダニューラルネットワークで処理する前に、前記アンカー画像、前記複数のポジティブ画像、および前記1つまたは複数のネガティブ画像の各々をそれぞれ拡張することをさらに含む、請求項1から3のいずれか一項に記載のコンピューティングシステム。
- 前記投影ヘッドニューラルネットワークが、前記入力画像の前記投影表現を正規化する正規化層を含む、請求項1から4のいずれか一項に記載のコンピューティングシステム。
- 前記類似性メトリックが内積を含む、請求項1から5のいずれか一項に記載のコンピューティングシステム。
- 前記損失関数が、正規化項と、前記トレーニングバッチ内のすべての画像にわたる対照損失項の和との積を含み、前記正規化項が、前記アンカー画像の前記第1のクラスに含まれる画像の数について正規化する、請求項1から6のいずれか一項に記載のコンピューティングシステム。
- 前記正規化項が、
マイナス1を、前記アンカー画像の前記第1のクラスに含まれる前記画像の数の2倍から1を引いたもので割ったもの
を含む、請求項7に記載のコンピューティングシステム。 - 前記和による評価中の前記画像が前記第1のクラスに含まれるとき、前記アンカー画像と評価中の前記画像との間の前記類似性メトリックの指数を、前記第1のクラスに含まれないすべての画像についての、前記アンカーとそのような画像との間の類似性の指数の和で割ったものの対数
を含む、請求項7または8に記載のコンピューティングシステム。 - 前記複数の動作が、前記損失関数に少なくとも部分的に基づいて、少なくとも前記ベースエンコーダニューラルネットワークの1つまたは複数のパラメータの1つまたは複数の値を修正した後に、
前記ベースエンコーダニューラルネットワークに分類ヘッドを追加する動作と、
教師ありトレーニングデータのセットに基づいて前記分類ヘッドを微調整する動作と
をさらに含む、請求項1から9のいずれか一項に記載のコンピューティングシステム。 - 前記複数の動作が、前記損失関数に少なくとも部分的に基づいて、少なくとも前記ベースエンコーダニューラルネットワークの1つまたは複数のパラメータの1つまたは複数の値を修正した後に、
前記ベースエンコーダニューラルネットワークに追加の入力を提供する動作と、
前記ベースエンコーダニューラルネットワークの出力として前記追加の入力についての追加の埋込み表現を受信する動作と、
前記追加の埋込み表現に少なくとも部分的に基づいて、前記追加の入力の予測を生成する動作と
をさらに含む、請求項1から10のいずれか一項に記載のコンピューティングシステム。 - 前記予測が、分類予測、検出予測、認識予測、回帰予測、セグメンテーション予測、または類似性検索予測を含む、請求項11に記載のコンピューティングシステム。
- 前記アンカー画像がX線画像を含む、請求項1から12のいずれか一項に記載のコンピューティングシステム。
- 前記アンカー画像がLiDARデータのセットを含む、請求項1から13のいずれか一項に記載のコンピューティングシステム。
- 前記アンカー画像がビデオを含む、請求項1から14のいずれか一項に記載のコンピューティングシステム。
- 1つまたは複数のコンピューティングデバイスを含むコンピューティングシステムによって、請求項1から15のいずれか一項に記載の複数の動作の全部を実行することを含む、コンピュータ実装方法。
- 請求項1から15のいずれか一項に記載の複数の動作の全部の実行によってトレーニングされた少なくともベースエンコーダニューラルネットワークをまとめて記憶する、1つまたは複数の非一時的コンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063013153P | 2020-04-21 | 2020-04-21 | |
US63/013,153 | 2020-04-21 | ||
PCT/US2021/026836 WO2021216310A1 (en) | 2020-04-21 | 2021-04-12 | Supervised contrastive learning with multiple positive examples |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023523726A true JP2023523726A (ja) | 2023-06-07 |
JP7505025B2 JP7505025B2 (ja) | 2024-06-24 |
Family
ID=78081983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022564040A Active JP7505025B2 (ja) | 2020-04-21 | 2021-04-12 | 複数のポジティブ例を用いた教師あり対照学習 |
Country Status (6)
Country | Link |
---|---|
US (2) | US20230153629A1 (ja) |
EP (1) | EP4121907A1 (ja) |
JP (1) | JP7505025B2 (ja) |
KR (1) | KR20220166355A (ja) |
CN (1) | CN114830133A (ja) |
AU (1) | AU2021259170B2 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12017355B2 (en) * | 2021-06-08 | 2024-06-25 | Fanuc Corporation | Grasp learning using modularized neural networks |
US11809521B2 (en) * | 2021-06-08 | 2023-11-07 | Fanuc Corporation | Network modularization to learn high dimensional robot tasks |
KR20230037417A (ko) | 2021-09-09 | 2023-03-16 | 삼성에스디에스 주식회사 | 텍스트 데이터 증강 방법 및 장치 |
US20230281443A1 (en) * | 2022-03-01 | 2023-09-07 | Insilico Medicine Ip Limited | Structure-based deep generative model for binding site descriptors extraction and de novo molecular generation |
KR20230138314A (ko) * | 2022-03-23 | 2023-10-05 | 주식회사 Lg 경영개발원 | 제품 이미지를 기반으로 불량 제품을 감지하는 인공 지능 장치 및 그 방법 |
KR20230138335A (ko) * | 2022-03-23 | 2023-10-05 | 주식회사 Lg 경영개발원 | 제품 이미지를 기반으로 불량 제품을 감지하는 인공 지능 장치 및 그 방법 |
CN114490950B (zh) * | 2022-04-07 | 2022-07-12 | 联通(广东)产业互联网有限公司 | 编码器模型的训练方法及存储介质、相似度预测方法及系统 |
EP4273756A1 (en) * | 2022-05-06 | 2023-11-08 | Robert Bosch GmbH | Computer implemented method and apparatus for unsupervised representation learning |
CN114970716A (zh) * | 2022-05-26 | 2022-08-30 | 支付宝(杭州)信息技术有限公司 | 表征模型的训练方法、装置、可读存储介质及计算设备 |
CN115410088B (zh) * | 2022-10-10 | 2023-10-31 | 中国矿业大学 | 一种基于虚拟分类器的高光谱图像领域自适应方法 |
CN115631798B (zh) * | 2022-10-17 | 2023-08-08 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种基于图对比学习的生物分子分类方法及装置 |
US20240185078A1 (en) * | 2022-10-25 | 2024-06-06 | Qualcomm Incorporated | Purified contrastive learning for lightweight neural network training |
CN115544260B (zh) * | 2022-12-05 | 2023-04-25 | 湖南工商大学 | 用于文本情感分析的对比优化编解码方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10115032B2 (en) | 2015-11-04 | 2018-10-30 | Nec Corporation | Universal correspondence network |
US10565496B2 (en) | 2016-02-04 | 2020-02-18 | Nec Corporation | Distance metric learning with N-pair loss |
CN115097937A (zh) * | 2016-11-15 | 2022-09-23 | 奇跃公司 | 用于长方体检测的深度学习系统 |
WO2019017990A1 (en) | 2017-07-17 | 2019-01-24 | Google Llc | UNIFIED INTEGRATION OF LEARNING |
US10671888B1 (en) * | 2017-12-14 | 2020-06-02 | Perceive Corporation | Using batches of training items for training a network |
US11455807B2 (en) | 2018-09-20 | 2022-09-27 | Nvidia Corporation | Training neural networks for vehicle re-identification |
US10832062B1 (en) * | 2018-09-28 | 2020-11-10 | Zoox, Inc. | Image embedding for object tracking |
US10922574B1 (en) * | 2018-12-10 | 2021-02-16 | Zoox, Inc. | Bounding box embedding for object identifying |
-
2021
- 2021-04-12 KR KR1020227039608A patent/KR20220166355A/ko unknown
- 2021-04-12 AU AU2021259170A patent/AU2021259170B2/en active Active
- 2021-04-12 EP EP21723497.0A patent/EP4121907A1/en active Pending
- 2021-04-12 US US17/920,623 patent/US20230153629A1/en active Pending
- 2021-04-12 CN CN202180007180.4A patent/CN114830133A/zh active Pending
- 2021-04-12 JP JP2022564040A patent/JP7505025B2/ja active Active
- 2021-04-21 US US17/235,992 patent/US11347975B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP4121907A1 (en) | 2023-01-25 |
AU2021259170B2 (en) | 2024-02-08 |
US20230153629A1 (en) | 2023-05-18 |
CN114830133A (zh) | 2022-07-29 |
US11347975B2 (en) | 2022-05-31 |
KR20220166355A (ko) | 2022-12-16 |
JP7505025B2 (ja) | 2024-06-24 |
US20210326660A1 (en) | 2021-10-21 |
AU2021259170A1 (en) | 2022-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2023523726A (ja) | 複数のポジティブ例を用いた教師あり対照学習 | |
US11386302B2 (en) | Systems and methods for contrastive learning of visual representations | |
US11354778B2 (en) | Systems and methods for contrastive learning of visual representations | |
US11556581B2 (en) | Sketch-based image retrieval techniques using generative domain migration hashing | |
US10325223B1 (en) | Recurrent machine learning system for lifelong learning | |
CN111008688B (zh) | 网络训练期间使用环路内数据增加的神经网络 | |
US20190303535A1 (en) | Interpretable bio-medical link prediction using deep neural representation | |
Wu et al. | Max-pooling dropout for regularization of convolutional neural networks | |
US11775770B2 (en) | Adversarial bootstrapping for multi-turn dialogue model training | |
JP2016523402A (ja) | ベイズの最適化を実施するためのシステムおよび方法 | |
WO2021216310A1 (en) | Supervised contrastive learning with multiple positive examples | |
Li et al. | Random sketch learning for deep neural networks in edge computing | |
CN114424215A (zh) | 多任务适配器神经网络 | |
WO2020211611A1 (zh) | 用于语言处理的循环神经网络中隐状态的生成方法和装置 | |
US20240061889A1 (en) | Systems and Methods for Weighted Quantization | |
US20230147890A1 (en) | Quantum enhanced word embedding for natural language processing | |
Zhang et al. | Learning from few samples with memory network | |
Passalis et al. | Deep supervised hashing using quadratic spherical mutual information for efficient image retrieval | |
Shen et al. | StructBoost: Boosting methods for predicting structured output variables | |
US20240062057A1 (en) | Regularizing targets in model distillation utilizing past state knowledge to improve teacher-student machine learning models | |
Ramesh et al. | Hybrid manifold smoothing and label propagation technique for Kannada handwritten character recognition | |
Zhou et al. | Growth threshold for pseudo labeling and pseudo label dropout for semi-supervised medical image classification | |
Bietti | Foundations of deep convolutional models through kernel methods | |
US20220108220A1 (en) | Systems And Methods For Performing Automatic Label Smoothing Of Augmented Training Data | |
US20220108219A1 (en) | Approximate Bayesian Logistic Regression For Sparse Online Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221212 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240404 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240513 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240612 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7505025 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |