JP2019509551A - Nペア損失による距離計量学習の改善 - Google Patents
Nペア損失による距離計量学習の改善 Download PDFInfo
- Publication number
- JP2019509551A JP2019509551A JP2018540162A JP2018540162A JP2019509551A JP 2019509551 A JP2019509551 A JP 2019509551A JP 2018540162 A JP2018540162 A JP 2018540162A JP 2018540162 A JP2018540162 A JP 2018540162A JP 2019509551 A JP2019509551 A JP 2019509551A
- Authority
- JP
- Japan
- Prior art keywords
- pairs
- classes
- training
- cases
- case
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/11—Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Operations Research (AREA)
- Databases & Information Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Machine Translation (AREA)
Abstract
Description
x:入力画像、
f:出力特徴、
fi:第iのペアからの事例、
fi +:第iのペアからのポジティブ事例、
複数のfiは異なるクラスラベルを有する。
1.2ペア損失及びトリプレット損失に関する埋め込みカーネルの最適なセットは等価であり、これらの損失関数で訓練される複数のモデルの性能は類似する。
2.Mペア損失は、M<NにおけるNペア損失の近似である。
Claims (20)
- プロセッサにより、訓練事例のN個のペアと複数のクラスに対応する前記訓練事例に関するクラスラベルとを受信することであって、前記N個の各ペアは、それぞれのアンカー事例を含み、ポジティブ訓練事例またはネガティブ訓練事例となり得る、それぞれの非アンカー事例をさらに含むことと、
前記プロセッサにより、前記N個のペア及び前記クラスラベルに深層畳み込みニューラルネットワークを適用することで前記N個のペアの特徴を抽出することと、
前記プロセッサにより、前記特徴に基づき前記N個の各ペアに関して、前記アンカー事例と前記非アンカー事例との間の類似性尺度をそれぞれ算出することと、
前記プロセッサにより、前記N個の各ペアに関して、それぞれの前記類似性尺度に基づいて類似性スコアを算出することであって、前記類似性スコアは、前記N個のペアにおける全ての前記アンカー点と全てのネガティブ訓練事例との間の1つまたは複数の類似性に対する、前記N個のペアにおける全ての前記アンカー点と全てのポジティブ訓練事例の間の1つまたは複数の類似性を表すことと、
前記プロセッサにより、分布空間における複数のクラスのうちの同じクラスからの複数の前記訓練事例を共にプルし、前記分布空間における複数のクラスのうちの異なるクラスからの複数の前記訓練事例を別々にプッシュするように、前記N個の各ペアに関する前記アンカー事例の前記類似性スコアをそれぞれ最大化することと、
を有する、コンピュータ実施方法。 - 前記訓練事例のN個の各ペアは、前記複数のクラスのうちの異なるクラスに対応する、請求項1に記載のコンピュータ実施方法。
- 前記複数のクラスは、クラスのセットからサブセットとしてランダムに選択され、前記クラスのセットは、前記複数のクラスと1つまたは複数の他のクラスとを含む、請求項2に記載のコンピュータ実施方法。
- 前記最大化するステップは、前記分布空間において、前記訓練事例のN個のペアの中から、N−1個の事例を単一の参照サンプルから離れるように同時にプッシュできる、請求項1に記載のコンピュータ実施方法。
- 前記最大化するステップは、前記分布空間において、前記訓練事例のN個のペアの中から、N−1個の事例を単一の参照サンプルの方に同時にプッシュできる、請求項1に記載のコンピュータ実施方法。
- 前記深層畳み込みニューラルネットワークは、損失関数のセットにおける各損失関数に関する制約のセットを満たすために訓練される埋め込みベクトルを含むように構成され、前記深層畳み込みニューラルネットワークは、損失関数の前記セットを用いて訓練される、請求項1に記載のコンピュータ実施方法。
- 前記最大化するステップは、前記類似性スコアの対数の勾配を計算することを有する、請求項1に記載のコンピュータ実施方法。
- 前記最大化するステップは、深層計量学習のための目的関数を最大化する、請求項1に記載のコンピュータ実施方法。
- 前記複数のクラスの総数は、(i)経時的に変化する、(ii)しきい値量よりも多い、及び(iii)未知である、のうちの少なくとも1つである、請求項1に記載のコンピュータ実施方法。
- 前記深層畳み込みニューラルネットワークを用いて生成される予測に基づいてユーザを照合し、前記ユーザにエンティティへのアクセスを提供することをさらに有する、請求項1に記載のコンピュータ実施方法。
- 実行時に請求項1に記載のステップをコンピュータに実施させる、コンピュータで読み取り可能なプログラムを実体として包含する、非一時的製造品。
- 訓練事例のN個のペアと複数のクラスに対応する前記訓練事例に関するクラスラベルとを受信することであって、前記N個の各ペアは、それぞれのアンカー事例を含み、ポジティブ訓練事例またはネガティブ訓練事例となり得る、それぞれの非アンカー事例をさらに含むことと、
前記N個のペア及び前記クラスラベルに深層畳み込みニューラルネットワークを適用することで前記N個のペアの特徴を抽出することと、
前記特徴に基づき前記N個の各ペアに関して、前記アンカー事例と前記非アンカー事例との間の類似性尺度をそれぞれ算出することと、
前記N個の各ペアに関して、それぞれの前記類似性尺度に基づいて類似性スコアを算出することであって、前記類似性スコアは、前記N個のペアにおける全ての前記アンカー点と全てのネガティブ訓練事例との間の1つまたは複数の類似性に対する、前記N個のペアにおける全ての前記アンカー点と全てのポジティブ訓練事例の間の1つまたは複数の類似性を表すことと、
分布空間における複数のクラスのうちの同じクラスからの複数の前記訓練事例を共にプルし、前記分布空間における複数のクラスのうちの異なるクラスからの複数の前記訓練事例を別々にプッシュするように、前記N個の各ペアに関する前記アンカー事例の前記類似性スコアをそれぞれ最大化することと、
を実行するように構成されたプロセッサを有する、システム。 - 前記訓練事例のN個の各ペアは、前記複数のクラスのうちの異なるクラスに対応する、請求項12に記載のシステム。
- 前記プロセッサは、前記複数のクラスをクラスのセットからサブセットとしてランダムに選択するように構成され、前記クラスのセットは、前記複数のクラスと1つまたは複数の他のクラスとを含む、請求項13に記載のシステム。
- 前記プロセッサは、前記類似性スコアの最大化に応答して、前記分布空間において、前記訓練事例のN個のペアの中から、N−1個の事例を単一の参照サンプルから離れるように同時にプッシュするように構成されている、請求項12に記載のシステム。
- 前記プロセッサは、前記類似性スコアの最大化に応答して、前記分布空間において、前記訓練事例のN個のペアの中から、N−1個の事例を単一の参照サンプルの方に同時にプッシュするように構成されている、請求項12に記載のシステム。
- 前記深層畳み込みニューラルネットワークは、損失関数のセットにおける各損失関数に関する制約のセットを満たすために訓練される埋め込みベクトルを含むように構成され、前記深層畳み込みニューラルネットワークは、損失関数の前記セットを用いて訓練される、請求項12に記載のシステム。
- 前記プロセッサは、前記類似性スコアの対数の勾配を計算することで、前記類似性スコアを最大化するように構成されている、請求項12に記載のシステム。
- 前記複数のクラスの総数は、(i)経時的に変化する、(ii)しきい値量よりも多い、及び(iii)未知である、のうちの少なくとも1つである、請求項12に記載のコンピュータ実施方法。
- 前記プロセッサは、前記深層畳み込みニューラルネットワークを用いて生成される予測に基づいてユーザを照合し、前記ユーザにエンティティへのアクセスを提供するようにさらに構成されている、請求項12に記載のシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662291025P | 2016-02-04 | 2016-02-04 | |
US62/291,025 | 2016-02-04 | ||
US15/385,283 | 2016-12-20 | ||
US15/385,283 US10565496B2 (en) | 2016-02-04 | 2016-12-20 | Distance metric learning with N-pair loss |
PCT/US2016/067946 WO2017136060A1 (en) | 2016-02-04 | 2016-12-21 | Improving distance metric learning with n-pair loss |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019509551A true JP2019509551A (ja) | 2019-04-04 |
Family
ID=59497846
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018540162A Pending JP2019509551A (ja) | 2016-02-04 | 2016-12-21 | Nペア損失による距離計量学習の改善 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10565496B2 (ja) |
JP (1) | JP2019509551A (ja) |
DE (1) | DE112016006360T5 (ja) |
WO (1) | WO2017136060A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111325223A (zh) * | 2018-12-13 | 2020-06-23 | 中国电信股份有限公司 | 深度学习模型的训练方法、装置和计算机可读存储介质 |
KR20200135730A (ko) * | 2019-05-22 | 2020-12-03 | 한국전자통신연구원 | 이미지 딥러닝 모델 학습 방법 및 장치 |
JP2023007367A (ja) * | 2021-06-30 | 2023-01-18 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 語義表現モデルの訓練方法、装置、デバイス及び記憶媒体 |
US11720790B2 (en) | 2019-05-22 | 2023-08-08 | Electronics And Telecommunications Research Institute | Method of training image deep learning model and device thereof |
JP7425445B2 (ja) | 2020-07-17 | 2024-01-31 | 日本電信電話株式会社 | 特徴学習装置、特徴抽出装置、特徴学習方法及びプログラム |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10649970B1 (en) | 2013-03-14 | 2020-05-12 | Invincea, Inc. | Methods and apparatus for detection of functionality |
US9690938B1 (en) | 2015-08-05 | 2017-06-27 | Invincea, Inc. | Methods and apparatus for machine learning based malware detection |
US10115032B2 (en) * | 2015-11-04 | 2018-10-30 | Nec Corporation | Universal correspondence network |
US10318735B2 (en) | 2016-06-22 | 2019-06-11 | Invincea, Inc. | Methods and apparatus for detecting whether a string of characters represents malicious activity using machine learning |
KR102648770B1 (ko) * | 2016-07-14 | 2024-03-15 | 매직 립, 인코포레이티드 | 홍채 식별을 위한 딥 뉴럴 네트워크 |
GB2555192B (en) * | 2016-08-02 | 2021-11-24 | Invincea Inc | Methods and apparatus for detecting and identifying malware by mapping feature data into a semantic space |
US10474883B2 (en) * | 2016-11-08 | 2019-11-12 | Nec Corporation | Siamese reconstruction convolutional neural network for pose-invariant face recognition |
US10540961B2 (en) * | 2017-03-13 | 2020-01-21 | Baidu Usa Llc | Convolutional recurrent neural networks for small-footprint keyword spotting |
US10387749B2 (en) * | 2017-08-30 | 2019-08-20 | Google Llc | Distance metric learning using proxies |
CN111433843B (zh) * | 2017-10-27 | 2024-05-28 | 谷歌有限责任公司 | 语义音频表示的无监督学习 |
KR102535411B1 (ko) * | 2017-11-16 | 2023-05-23 | 삼성전자주식회사 | 메트릭 학습 기반의 데이터 분류와 관련된 장치 및 그 방법 |
CN109815971B (zh) * | 2017-11-20 | 2023-03-10 | 富士通株式会社 | 信息处理方法和信息处理装置 |
CN108922542B (zh) * | 2018-06-01 | 2023-04-28 | 平安科技(深圳)有限公司 | 样例三元组的获取方法、装置、计算机设备以及存储介质 |
CN109256139A (zh) * | 2018-07-26 | 2019-01-22 | 广东工业大学 | 一种基于Triplet-Loss的说话人识别方法 |
US11537872B2 (en) | 2018-07-30 | 2022-12-27 | International Business Machines Corporation | Imitation learning by action shaping with antagonist reinforcement learning |
US11501157B2 (en) | 2018-07-30 | 2022-11-15 | International Business Machines Corporation | Action shaping from demonstration for fast reinforcement learning |
US11734575B2 (en) | 2018-07-30 | 2023-08-22 | International Business Machines Corporation | Sequential learning of constraints for hierarchical reinforcement learning |
US11636123B2 (en) * | 2018-10-05 | 2023-04-25 | Accenture Global Solutions Limited | Density-based computation for information discovery in knowledge graphs |
CN110032645B (zh) * | 2019-04-17 | 2021-02-09 | 携程旅游信息技术(上海)有限公司 | 文本情感识别方法、系统、设备以及介质 |
JP7262290B2 (ja) * | 2019-04-26 | 2023-04-21 | 株式会社日立製作所 | 特徴ベクトルを生成するシステム |
CN110532880B (zh) * | 2019-07-29 | 2022-11-22 | 深圳大学 | 样本筛选及表情识别方法、神经网络、设备及存储介质 |
KR102635606B1 (ko) * | 2019-11-21 | 2024-02-13 | 고려대학교 산학협력단 | 거리 학습을 이용한 사용자간 유사도 반영 특징 추출 기반의 사용자 독립적 뇌-컴퓨터 인터페이스 장치 및 이를 이용한 태스크 분류 방법 |
CN111339891A (zh) * | 2020-02-20 | 2020-06-26 | 苏州浪潮智能科技有限公司 | 一种图像数据的目标检测方法及相关装置 |
CN111400591B (zh) * | 2020-03-11 | 2023-04-07 | 深圳市雅阅科技有限公司 | 资讯信息推荐方法、装置、电子设备及存储介质 |
CN111667050B (zh) * | 2020-04-21 | 2021-11-30 | 佳都科技集团股份有限公司 | 度量学习方法、装置、设备及存储介质 |
CN113742288A (zh) * | 2020-05-29 | 2021-12-03 | 伊姆西Ip控股有限责任公司 | 用于数据索引的方法、电子设备和计算机程序产品 |
US20210374553A1 (en) * | 2020-06-02 | 2021-12-02 | Salesforce.Com, Inc. | Systems and methods for noise-robust contrastive learning |
CN112329833B (zh) * | 2020-10-28 | 2022-08-12 | 浙江大学 | 一种基于球面嵌入的图像度量学习方法 |
KR102577342B1 (ko) * | 2021-01-20 | 2023-09-11 | 네이버 주식회사 | 거리 지표 학습을 위해 메모리 기반의 가상 클래스로 학습하는 컴퓨터 시스템 및 그의 방법 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5706402A (en) * | 1994-11-29 | 1998-01-06 | The Salk Institute For Biological Studies | Blind signal processing system employing information maximization to recover unknown signals through unsupervised minimization of output redundancy |
US8027977B2 (en) * | 2007-06-20 | 2011-09-27 | Microsoft Corporation | Recommending content using discriminatively trained document similarity |
US9183173B2 (en) | 2010-03-02 | 2015-11-10 | Microsoft Technology Licensing, Llc | Learning element weighting for similarity measures |
US20120323968A1 (en) * | 2011-06-14 | 2012-12-20 | Microsoft Corporation | Learning Discriminative Projections for Text Similarity Measures |
US10229190B2 (en) | 2013-12-31 | 2019-03-12 | Samsung Electronics Co., Ltd. | Latent semantic indexing in application classification |
US10115032B2 (en) * | 2015-11-04 | 2018-10-30 | Nec Corporation | Universal correspondence network |
-
2016
- 2016-12-20 US US15/385,283 patent/US10565496B2/en active Active
- 2016-12-21 JP JP2018540162A patent/JP2019509551A/ja active Pending
- 2016-12-21 DE DE112016006360.1T patent/DE112016006360T5/de active Pending
- 2016-12-21 WO PCT/US2016/067946 patent/WO2017136060A1/en active Application Filing
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111325223A (zh) * | 2018-12-13 | 2020-06-23 | 中国电信股份有限公司 | 深度学习模型的训练方法、装置和计算机可读存储介质 |
CN111325223B (zh) * | 2018-12-13 | 2023-10-24 | 中国电信股份有限公司 | 深度学习模型的训练方法、装置和计算机可读存储介质 |
KR20200135730A (ko) * | 2019-05-22 | 2020-12-03 | 한국전자통신연구원 | 이미지 딥러닝 모델 학습 방법 및 장치 |
KR102522894B1 (ko) | 2019-05-22 | 2023-04-18 | 한국전자통신연구원 | 이미지 딥러닝 모델 학습 방법 및 장치 |
US11720790B2 (en) | 2019-05-22 | 2023-08-08 | Electronics And Telecommunications Research Institute | Method of training image deep learning model and device thereof |
JP7425445B2 (ja) | 2020-07-17 | 2024-01-31 | 日本電信電話株式会社 | 特徴学習装置、特徴抽出装置、特徴学習方法及びプログラム |
JP2023007367A (ja) * | 2021-06-30 | 2023-01-18 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 語義表現モデルの訓練方法、装置、デバイス及び記憶媒体 |
JP7358698B2 (ja) | 2021-06-30 | 2023-10-11 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 語義表現モデルの訓練方法、装置、デバイス及び記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
WO2017136060A1 (en) | 2017-08-10 |
US20170228641A1 (en) | 2017-08-10 |
US10565496B2 (en) | 2020-02-18 |
DE112016006360T5 (de) | 2018-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019509551A (ja) | Nペア損失による距離計量学習の改善 | |
Iscen et al. | Label propagation for deep semi-supervised learning | |
Wang et al. | Video representation learning using discriminative pooling | |
Qiu et al. | Deep quantization: Encoding convolutional activations with deep generative model | |
CN105631398B (zh) | 识别对象的方法和设备以及训练识别器的方法和设备 | |
Ding et al. | Audio and face video emotion recognition in the wild using deep neural networks and small datasets | |
WO2016037350A1 (en) | Learning student dnn via output distribution | |
US8266083B2 (en) | Large scale manifold transduction that predicts class labels with a neural network and uses a mean of the class labels | |
US11954572B2 (en) | Optimizing training data for image classification | |
US8620837B2 (en) | Determination of a basis for a new domain model based on a plurality of learned models | |
Xu et al. | Enhancing semantic image retrieval with limited labeled examples via deep learning | |
CN116868206A (zh) | 跨域自适应学习 | |
JP2014228995A (ja) | 画像特徴学習装置、画像特徴学習方法及びプログラム | |
Bin et al. | Combining multi-representation for multimedia event detection using co-training | |
Dong et al. | A supervised dictionary learning and discriminative weighting model for action recognition | |
Kächele et al. | Fusion mappings for multimodal affect recognition | |
JP2004046621A (ja) | テキストの多重トピックス抽出方法および装置、テキストの多重トピックス抽出プログラム、ならびに該プログラムを記録した記録媒体 | |
JP7270839B2 (ja) | 顔認識のための汎用特徴表現学習 | |
CN116997908A (zh) | 用于分类类型任务的连续学习神经网络系统训练 | |
Demirdjian et al. | Recognizing events with temporal random forests | |
Bouguila | A model-based discriminative framework for sets of positive vectors classification: Application to object categorization | |
Milchevski et al. | Multimodal affective analysis combining regularized linear regression and boosted regression trees | |
CN111860556A (zh) | 一种模型的处理方法、装置及存储介质 | |
Wang et al. | Action representation using classifier decision boundaries | |
Li et al. | Foundation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180801 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190814 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190820 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190927 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20191203 |