JP2019215861A - ナレッジ・トランスファー方法、情報処理装置及び記憶媒体 - Google Patents
ナレッジ・トランスファー方法、情報処理装置及び記憶媒体 Download PDFInfo
- Publication number
- JP2019215861A JP2019215861A JP2019099109A JP2019099109A JP2019215861A JP 2019215861 A JP2019215861 A JP 2019215861A JP 2019099109 A JP2019099109 A JP 2019099109A JP 2019099109 A JP2019099109 A JP 2019099109A JP 2019215861 A JP2019215861 A JP 2019215861A
- Authority
- JP
- Japan
- Prior art keywords
- model
- loss function
- transfer method
- knowledge transfer
- training sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012546 transfer Methods 0.000 title claims abstract description 106
- 238000000034 method Methods 0.000 title claims abstract description 91
- 230000010365 information processing Effects 0.000 title claims abstract description 32
- 238000012549 training Methods 0.000 claims abstract description 134
- 238000012545 processing Methods 0.000 claims abstract description 42
- 230000006870 function Effects 0.000 description 185
- 230000008569 process Effects 0.000 description 17
- 238000003062 neural network model Methods 0.000 description 16
- 238000000605 extraction Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 238000005457 optimization Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000016507 interphase Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
Description
所定タスクについて予め訓練された第一モデルを取得し;及び
総合損失関数を用いて所定タスクについて第二モデルに対して訓練を行うことにより、第二モデルに第一モデルのナレッジを有させることを含み、
総合損失関数は、第一モデルの訓練サンプルに対しての所定タスクについての出力結果の正確性を以て加重された第一損失関数、及び第二損失関数に基づくものであり、
第一損失関数は、第二モデル及び第一モデルの訓練サンプルに対しての処理結果の間の相違を表し、第二損失関数は、第二モデルの訓練サンプルに対しての所定タスクについての出力結果の正確性を表す。
第一ユニットであって、所定タスクについて予め訓練された第一モデルを取得するためのもの;及び
第二ユニットであって、総合損失関数を用いて所定タスクについて第二モデルに対して訓練を行うことにより、第二モデルに第一モデルのナレッジを有させるためのものを含み、
総合損失関数は、第一モデルの訓練サンプルに対しての所定タスクについての出力結果の正確性を以て加重された第一損失関数、及び第二損失関数に基づくものであり、
第一損失関数は、第二モデル及び第一モデルの訓練サンプルに対しての処理結果の間の相違を表し、第二損失関数は、第二モデルの訓練サンプルに対しての所定タスクについての出力結果の正確性を表す。
所定タスクについて予め訓練された第一モデルを取得し;及び
総合損失関数を用いて所定タスクについて第二モデルに対して訓練を行うことにより、第二モデルに第一モデルのナレッジを有させることであり、
総合損失関数は、第一モデルの訓練サンプルに対しての所定タスクについての出力結果の正確性を以て加重された第一損失関数、及び第二損失関数に基づくものであり、
第一損失関数は、第二モデル及び第一モデルの訓練サンプルに対しての処理結果の間の相違を表し、第二損失関数は、第二モデルの訓練サンプルに対しての所定タスクについての出力結果の正確性を表す。
第二モデル訓練ステップS103:総合損失関数を用いて所定タスクについて第二モデルに対して訓練を行う(第二モデルを訓練する)ことにより、第二モデルに第一モデルのナレッジを有させる。
第二ユニット302:総合損失関数を用いて所定タスクについて第二モデルに対して訓練を行うことにより、第二モデルに第一モデルのナレッジを有させる。
ナレッジ・トランスファー方法であって、
所定タスクについて予め訓練された第一モデルを取得し;及び
総合損失関数を用いて所定タスクについて第二モデルに対して訓練を行うことにより、第二モデルに第一モデルのナレッジを有させることを含み、
総合損失関数は、第一モデルの訓練サンプルに対しての所定タスクについての出力結果の正確性を以て加重された第一損失関数、及び第二損失関数に基づくものであり、第一損失関数は、第二モデル及び第一モデルの訓練サンプルに対しての処理結果の間の相違を表し、第二損失関数は、第二モデルの訓練サンプルに対しての所定タスクについての出力結果の正確性を表す、ナレッジ・トランスファー方法。
付記1に記載のナレッジ・トランスファー方法であって、
第一損失関数は、第二モデルを用いて訓練サンプル中から抽出した所定特徴と、第一モデルを用いて訓練サンプル中から抽出した所定特徴との間の相違を表す第一サブ損失関数を含む、ナレッジ・トランスファー方法。
付記2に記載のナレッジ・トランスファー方法であって、
第一損失関数は、さらに、第二モデル及び第一モデルの訓練サンプルに対しての所定タスクについての出力結果の間の相違を表す第二サブ損失関数を含む、ナレッジ・トランスファー方法。
付記2に記載のナレッジ・トランスファー方法であって、
訓練サンプルは、画像サンプル、語音サンプル、及び文書サンプルのうちの1つを含む、ナレッジ・トランスファー方法。
付記2に記載のナレッジ・トランスファー方法であって、
第一モデルの訓練サンプルに対しての所定タスクについての出力結果の正確性が高いほど、第一損失関数の重みが大きい、ナレッジ・トランスファー方法。
付記2乃至5のうちの任意の1項に記載のナレッジ・トランスファー方法であって、
所定タスクは、分類タスクを含む、ナレッジ・トランスファー方法。
付記6に記載のナレッジ・トランスファー方法であって、
第一サブ損失関数は、第二モデルを用いて訓練サンプル中から抽出した所定特徴と、第一モデルを用いて訓練サンプル中から抽出した所定特徴との間のコサイン距離に基づくものである、ナレッジ・トランスファー方法。
情報処理装置であって、
処理器を含み、
処理器は、処理待ちデータを、付記1に記載のナレッジ・トランスファー方法により得られた第二モデルに入力し;及び、第二モデルの処理待ちデータに対しての処理結果を取得するように構成される、情報処理装置。
付記8に記載の情報処理装置であって、
処理待ちデータは、画像データ、語音データ、及び文書データのうちの1つを含む、情報処理装置。
付記8に記載の情報処理装置であって、
第一損失関数は、第二モデルを用いて訓練サンプル中から抽出した所定特徴と、第一モデルを用いて訓練サンプル中から抽出した所定特徴との間の相違を表す第一サブ損失関数を含む、情報処理装置。
付記9に記載の情報処理装置であって、
第一損失関数は、さらに、第二モデル及び第一モデルの訓練サンプルに対しての所定タスクについての出力結果の間の相違に基づく第二損失関数を含む、情報処理装置。
付記8乃至11のうちの任意の1項に記載の情報処理装置であって、
第一モデルの訓練サンプルに対しての所定タスクについての出力結果の正確性が高いほど、第一損失関数の重みが大きい、情報処理装置。
付記8乃至12のうちの任意の1項に記載の情報処理装置であって、
所定タスクは、分類タスクを含み、第一損失関数は、第二モデルを用いて訓練サンプル中から抽出した所定特徴と、第一モデルを用いて訓練サンプル中から抽出した所定特徴との間のコサイン距離に基づくものであり、
処理器は、第二モデルを用いて処理待ちデータ中から所定特徴を処理待ちデータに対しての処理結果として抽出し、処理待ちデータ中から抽出した所定特徴と、第二モデルを用いて目標データ中から抽出した所定特徴との間のコサイン類似度を計算し、該コサイン類似度に基づいて処理待ちデータと目標データとの類似性を確定するように構成される、情報処理装置。
記憶媒体であって、
マシン可読指令コードが記憶されており、
前記指令コードは、マシンにより読み取られて実行されるときに、マシンに、ナレッジ・トランスファー方法を実行させることができ、
前記指令コードは、指令コード部を含み、
指令コード部は、
所定タスクについて予め訓練された第一モデルを取得し;及び
総合損失関数を用いて所定タスクについて第二モデルに対して訓練を行うことにより、第二モデルに第一モデルのナレッジを有させることを行うために用いられ、
総合損失関数は、第一モデルの訓練サンプルに対しての所定タスクについての出力結果の正確性を以て加重された第一損失関数、及び第二損失関数に基づくものであり、
第一損失関数は、第二モデル及び第一モデルの訓練サンプルに対しての処理結果の間の相違を表し、第二損失関数は、第二モデルの訓練サンプルに対しての所定タスクについての出力結果の正確性を表す、記憶媒体。
付記14に記載の記憶媒体であって、
第一損失関数は、第二モデルを用いて訓練サンプル中から抽出した所定特徴と、第一モデルを用いて訓練サンプル中から抽出した所定特徴との間の相違を表す第一サブ損失関数を含む、記憶媒体。
付記15に記載の記憶媒体であって、
第一損失関数は、さらに、第二モデル及び第一モデルの訓練サンプルに対しての所定タスクについての出力結果の間の相違を表す第二サブ損失関数を含む、記憶媒体。
付記15に記載の記憶媒体であって、
訓練サンプルは、画像サンプル、語音サンプル、及び文書サンプルのうちの1つを含む、記憶媒体。
付記15に記載の記憶媒体であって、
第一モデルの訓練サンプルに対しての所定タスクについての出力結果の正確性が高いほど、第一損失関数の重みが大きい、記憶媒体。
付記15乃至18のうちの任意の1項に記載の記憶媒体であって、
所定タスクは、分類タスクを含む、記憶媒体。
付記19に記載の記憶媒体であって、
第一サブ損失関数は、第二モデルを用いて訓練サンプル中から抽出した所定特徴と、第一モデルを用いて訓練サンプル中から抽出した所定特徴との間のコサイン距離に基づくものである。
Claims (10)
- ナレッジ・トランスファー方法であって、
所定タスクについて予め訓練された第一モデルを取得し;及び
総合損失関数を用いて所定タスクについて第二モデルを訓練し、前記第二モデルに前記第一モデルのナレッジを有させることを含み、
前記総合損失関数は、前記第一モデルの訓練サンプルに対しての所定タスクについての出力結果の正確性を以て加重された第一損失関数、及び第二損失関数に基づくものであり、
前記第一損失関数は、前記第二モデルと前記第一モデルとの訓練サンプルに対しての処理結果の間の差を表し、前記第二損失関数は、前記第二モデルの訓練サンプルに対しての所定タスクについての出力結果の正確性を表す、ナレッジ・トランスファー方法。 - 請求項1に記載のナレッジ・トランスファー方法であって、
前記第一損失関数は、前記第二モデルを用いて訓練サンプルから抽出した所定特徴と、前記第一モデルを用いて訓練サンプルから抽出した所定特徴との間の差を表す第一サブ損失関数を含む、ナレッジ・トランスファー方法。 - 請求項2に記載のナレッジ・トランスファー方法であって、
前記第一損失関数は、前記第二モデルと前記第一モデルとの訓練サンプルに対しての所定タスクについての出力結果の間の差を表す第二サブ損失関数をさらに含む、ナレッジ・トランスファー方法。 - 請求項2に記載のナレッジ・トランスファー方法であって、
前記訓練サンプルは、画像サンプル、語音サンプル、及び文書サンプルのうちの1つを含む、ナレッジ・トランスファー方法。 - 請求項2に記載のナレッジ・トランスファー方法であって、
前記第一モデルの訓練サンプルに対しての所定タスクについての出力結果の正確性が高いほど、前記第一損失関数の重みが大きい、ナレッジ・トランスファー方法。 - 請求項2〜5のうちの任意の1項に記載のナレッジ・トランスファー方法であって、
前記所定タスクは、分類タスクを含む、ナレッジ・トランスファー方法。 - 請求項6に記載のナレッジ・トランスファー方法であって、
前記第一サブ損失関数は、前記第二モデルを用いて訓練サンプルから抽出した所定特徴と、前記第一モデルを用いて訓練サンプルから抽出した所定特徴との間のコサイン距離に基づくものである、ナレッジ・トランスファー方法。 - 処理器を含む情報処理装置であって、
前記処理器は、
処理待ちデータを、請求項1に記載のナレッジ・トランスファー方法により得られた前記第二モデルに入力し;及び
前記第二モデルの処理待ちデータに対しての処理結果を取得するように構成される、情報処理装置。 - 請求項8に記載の情報処理装置であって、
前記所定タスクは、分類タスクを含み、前記第一損失関数は、前記第二モデルを用いて訓練サンプルから抽出した所定特徴と、前記第一モデルを用いて訓練サンプルから抽出した所定特徴との間のコサイン距離に基づくものであり、
前記処理器は、
前記第二モデルを用いて前記処理待ちデータから所定特徴を前記処理待ちデータに対しての処理結果として抽出し、前記処理待ちデータから抽出した所定特徴と、前記第二モデルを用いて目標データから抽出した所定特徴との間のコサイン類似度を計算し、該コサイン類似度に基づいて前記処理待ちデータと前記目標データとの類似性を確定するように構成される、情報処理装置。 - コンピュータに、請求項1〜7の任意の1項に記載のナレッジ・トランスファー方法を実行させるためのプログラムを記憶したコンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810607041.5A CN110598840B (zh) | 2018-06-13 | 2018-06-13 | 知识迁移方法、信息处理设备以及存储介质 |
CN201810607041.5 | 2018-06-13 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019215861A true JP2019215861A (ja) | 2019-12-19 |
JP7306062B2 JP7306062B2 (ja) | 2023-07-11 |
Family
ID=66690264
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019099109A Active JP7306062B2 (ja) | 2018-06-13 | 2019-05-28 | ナレッジ・トランスファー方法、情報処理装置及び記憶媒体 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11586988B2 (ja) |
EP (1) | EP3582150A1 (ja) |
JP (1) | JP7306062B2 (ja) |
CN (1) | CN110598840B (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021095176A1 (ja) * | 2019-11-13 | 2021-05-20 | ||
JP2023514173A (ja) * | 2020-05-13 | 2023-04-05 | 株式会社ストラドビジョン | サブ-カーネルサーチングモジュールを利用してオン-デバイスニューラルネットワークモデルを最適化する方法及び装置 |
JP7535979B2 (ja) | 2020-07-08 | 2024-08-19 | ナノ ディメンション テクノロジーズ,リミテッド | 生徒対教師の不一致を最大化する入力を用いて、教師役ニューラルネットワークを模倣するように生徒役ニューラルネットワークを訓練する方法 |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109829849B (zh) * | 2019-01-29 | 2023-01-31 | 达闼机器人股份有限公司 | 一种训练数据的生成方法、装置和终端 |
CN110472494A (zh) * | 2019-06-21 | 2019-11-19 | 深圳壹账通智能科技有限公司 | 脸部特征提取模型训练方法、脸部特征提取方法、装置、设备及存储介质 |
US11580390B2 (en) * | 2020-01-22 | 2023-02-14 | Canon Medical Systems Corporation | Data processing apparatus and method |
CN113537483A (zh) * | 2020-04-14 | 2021-10-22 | 杭州海康威视数字技术股份有限公司 | 一种域适配方法、装置及电子设备 |
CN111639744B (zh) * | 2020-04-15 | 2023-09-22 | 北京迈格威科技有限公司 | 学生模型的训练方法、装置及电子设备 |
CN111553429B (zh) * | 2020-04-30 | 2023-11-03 | 中国银行股份有限公司 | 指纹识别模型迁移方法、装置及系统 |
CN111680631B (zh) * | 2020-06-09 | 2023-12-22 | 广州视源电子科技股份有限公司 | 模型训练方法及装置 |
CN111680636B (zh) * | 2020-06-09 | 2024-02-06 | 广州视源电子科技股份有限公司 | 模型训练方法及装置 |
CN112101172B (zh) * | 2020-09-08 | 2023-09-08 | 平安科技(深圳)有限公司 | 基于权重嫁接的模型融合的人脸识别方法及相关设备 |
CN112101551A (zh) * | 2020-09-25 | 2020-12-18 | 北京百度网讯科技有限公司 | 用于训练模型的方法、装置、设备以及存储介质 |
EP3982299A1 (en) * | 2020-10-09 | 2022-04-13 | Naver Corporation | Superloss: a generic loss for robust curriculum learning |
CN113159073B (zh) * | 2021-04-23 | 2022-11-18 | 上海芯翌智能科技有限公司 | 知识蒸馏方法及装置、存储介质、终端 |
CN113408570A (zh) * | 2021-05-08 | 2021-09-17 | 浙江智慧视频安防创新中心有限公司 | 一种基于模型蒸馏的图像类别识别方法、装置、存储介质及终端 |
CN113762585B (zh) * | 2021-05-17 | 2023-08-01 | 腾讯科技(深圳)有限公司 | 数据的处理方法、账号类型的识别方法及装置 |
CN113378940B (zh) * | 2021-06-15 | 2022-10-18 | 北京市商汤科技开发有限公司 | 神经网络训练方法、装置、计算机设备及存储介质 |
CN113627262B (zh) * | 2021-07-13 | 2024-09-13 | 深圳力维智联技术有限公司 | 文字识别方法、装置及设备 |
CN114417294A (zh) * | 2022-01-13 | 2022-04-29 | 中国银联股份有限公司 | 特征向量数据库的更新方法、装置、设备及介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170083829A1 (en) * | 2015-09-18 | 2017-03-23 | Samsung Electronics Co., Ltd. | Model training method and apparatus, and data recognizing method |
JP2017123170A (ja) * | 2016-01-06 | 2017-07-13 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 心電図認証方法及び装置並びに学習方法 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9483728B2 (en) * | 2013-12-06 | 2016-11-01 | International Business Machines Corporation | Systems and methods for combining stochastic average gradient and hessian-free optimization for sequence training of deep neural networks |
CN104732978B (zh) * | 2015-03-12 | 2018-05-08 | 上海交通大学 | 基于联合深度学习的文本相关的说话人识别方法 |
US11210589B2 (en) * | 2016-09-28 | 2021-12-28 | D5Ai Llc | Learning coach for machine learning system |
JP2018060268A (ja) * | 2016-10-03 | 2018-04-12 | 株式会社日立製作所 | 認識装置および学習システム |
CN106529427A (zh) * | 2016-10-24 | 2017-03-22 | 合肥华凌股份有限公司 | 图像中目标物体识别方法、冰箱内食品识别方法及系统 |
US10762891B2 (en) * | 2017-02-10 | 2020-09-01 | Synaptics Incorporated | Binary and multi-class classification systems and methods using connectionist temporal classification |
US11195093B2 (en) * | 2017-05-18 | 2021-12-07 | Samsung Electronics Co., Ltd | Apparatus and method for student-teacher transfer learning network using knowledge bridge |
CN107247989B (zh) * | 2017-06-15 | 2020-11-24 | 北京图森智途科技有限公司 | 一种实时的计算机视觉处理方法及装置 |
CN107423690B (zh) * | 2017-06-26 | 2020-11-13 | 广东工业大学 | 一种人脸识别方法及装置 |
CN107506702B (zh) * | 2017-08-08 | 2020-09-11 | 江西高创保安服务技术有限公司 | 基于多角度的人脸识别模型训练及测试系统及方法 |
US10885900B2 (en) * | 2017-08-11 | 2021-01-05 | Microsoft Technology Licensing, Llc | Domain adaptation in speech recognition via teacher-student learning |
CN107766873A (zh) * | 2017-09-06 | 2018-03-06 | 天津大学 | 基于排序学习的多标签零样本分类方法 |
CN107844784A (zh) * | 2017-12-08 | 2018-03-27 | 广东美的智能机器人有限公司 | 人脸识别方法、装置、计算机设备和可读存储介质 |
CN108009528B (zh) * | 2017-12-26 | 2020-04-07 | 广州广电运通金融电子股份有限公司 | 基于Triplet Loss的人脸认证方法、装置、计算机设备和存储介质 |
CN108830288A (zh) * | 2018-04-25 | 2018-11-16 | 北京市商汤科技开发有限公司 | 图像处理方法、神经网络的训练方法、装置、设备及介质 |
US10963748B1 (en) * | 2018-08-31 | 2021-03-30 | Snap Inc. | Generative neural network distillation |
CN110097130B (zh) * | 2019-05-07 | 2022-12-13 | 深圳市腾讯计算机系统有限公司 | 分类任务模型的训练方法、装置、设备及存储介质 |
US11113518B2 (en) * | 2019-06-28 | 2021-09-07 | Eygs Llp | Apparatus and methods for extracting data from lineless tables using Delaunay triangulation and excess edge removal |
US10970598B1 (en) * | 2020-05-13 | 2021-04-06 | StradVision, Inc. | Learning method and learning device for training an object detection network by using attention maps and testing method and testing device using the same |
US20220237513A1 (en) * | 2021-01-28 | 2022-07-28 | Samsung Electronics Co., Ltd. | Method and apparatus with optimization for deep learning model |
-
2018
- 2018-06-13 CN CN201810607041.5A patent/CN110598840B/zh active Active
-
2019
- 2019-05-28 JP JP2019099109A patent/JP7306062B2/ja active Active
- 2019-06-03 EP EP19177917.2A patent/EP3582150A1/en not_active Ceased
- 2019-06-12 US US16/438,664 patent/US11586988B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170083829A1 (en) * | 2015-09-18 | 2017-03-23 | Samsung Electronics Co., Ltd. | Model training method and apparatus, and data recognizing method |
JP2017123170A (ja) * | 2016-01-06 | 2017-07-13 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 心電図認証方法及び装置並びに学習方法 |
Non-Patent Citations (2)
Title |
---|
TAN Y. K., ET AL.: "Improved Recurrent Neural Networks for Session-based Recommendations", ARXIV.ORG [ONLINE], JPN6022051155, 16 September 2016 (2016-09-16), ISSN: 0004936819 * |
木村 昭悟ほか: "疑似訓練サンプル最適化によるニューラルネットワークの少数ショット学習", 一般社団法人 人工知能学会 第32回全国大会論文集DVD [DVD−ROM] 2018年度 人工知能, JPN6022051154, 8 June 2018 (2018-06-08), pages 1 - 4, ISSN: 0004936818 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021095176A1 (ja) * | 2019-11-13 | 2021-05-20 | ||
WO2021095176A1 (ja) * | 2019-11-13 | 2021-05-20 | 日本電気株式会社 | 学習装置、学習方法、及び、記録媒体 |
JP7384217B2 (ja) | 2019-11-13 | 2023-11-21 | 日本電気株式会社 | 学習装置、学習方法、及び、プログラム |
JP2023514173A (ja) * | 2020-05-13 | 2023-04-05 | 株式会社ストラドビジョン | サブ-カーネルサーチングモジュールを利用してオン-デバイスニューラルネットワークモデルを最適化する方法及び装置 |
JP7425216B2 (ja) | 2020-05-13 | 2024-01-30 | 株式会社ストラドビジョン | サブ-カーネルサーチングモジュールを利用してオン-デバイスニューラルネットワークモデルを最適化する方法及び装置 |
JP7535979B2 (ja) | 2020-07-08 | 2024-08-19 | ナノ ディメンション テクノロジーズ,リミテッド | 生徒対教師の不一致を最大化する入力を用いて、教師役ニューラルネットワークを模倣するように生徒役ニューラルネットワークを訓練する方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3582150A1 (en) | 2019-12-18 |
CN110598840A (zh) | 2019-12-20 |
JP7306062B2 (ja) | 2023-07-11 |
US20190385086A1 (en) | 2019-12-19 |
US11586988B2 (en) | 2023-02-21 |
CN110598840B (zh) | 2023-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019215861A (ja) | ナレッジ・トランスファー方法、情報処理装置及び記憶媒体 | |
KR102071582B1 (ko) | 딥 뉴럴 네트워크(Deep Neural Network)를 이용하여 문장이 속하는 클래스(class)를 분류하는 방법 및 장치 | |
JP6781415B2 (ja) | ニューラルネットワーク学習装置、方法、プログラム、およびパターン認識装置 | |
Rantzsch et al. | Signature embedding: Writer independent offline signature verification with deep metric learning | |
JP2020177647A (ja) | 画像処理装置及びその訓練装置と訓練方法 | |
JP2022141931A (ja) | 生体検出モデルのトレーニング方法及び装置、生体検出の方法及び装置、電子機器、記憶媒体、並びにコンピュータプログラム | |
CN113139664B (zh) | 一种跨模态的迁移学习方法 | |
CN108537168B (zh) | 基于迁移学习技术的面部表情识别方法 | |
JP2019049604A (ja) | 命令文推定システムおよび命令文推定方法 | |
JP2021022367A (ja) | 画像処理方法及び情報処理装置 | |
CN108171318A (zh) | 一种基于模拟退火—高斯函数的卷积神经网络集成方法 | |
WO2023165102A1 (zh) | 基于注意力的文本分类方法、装置及计算机可读介质 | |
CN117611932B (zh) | 基于双重伪标签细化和样本重加权的图像分类方法及系统 | |
CN110288085A (zh) | 一种数据处理方法、装置、系统及存储介质 | |
KR20200110064A (ko) | 변환 모델을 이용한 인증 방법 및 장치 | |
Somogyi | The Application of Artificial Intelligence | |
KR102469679B1 (ko) | 인공지능 기반의 맞춤형 음식 추천 방법 및 장치 | |
EP3910549A1 (en) | System and method for few-shot learning | |
Sugiyama et al. | Least-squares probabilistic classifier: A computationally efficient alternative to kernel logistic regression | |
KR102408042B1 (ko) | 그룹 기반 얼굴 인식 방법 및 장치 | |
Elmadhoun et al. | Facial expression recognition using uniform local binary pattern with improved firefly feature selection | |
CN114067155A (zh) | 基于元学习的图像分类方法、装置、产品及存储介质 | |
KR102263375B1 (ko) | 커널 기법을 사용한 제한된 볼츠만 머신 시스템 | |
Padman et al. | Speech Emotion Recognition using Hybrid Textual Features, MFCC and Deep Learning Technique | |
WO2022185457A1 (ja) | 特徴量抽出装置、学習装置、特徴量抽出方法、学習方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230530 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230612 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7306062 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |