JP2018529159A - トレーニングされた機械学習モデルのパフォーマンスを改善するための方法 - Google Patents
トレーニングされた機械学習モデルのパフォーマンスを改善するための方法 Download PDFInfo
- Publication number
- JP2018529159A JP2018529159A JP2018510504A JP2018510504A JP2018529159A JP 2018529159 A JP2018529159 A JP 2018529159A JP 2018510504 A JP2018510504 A JP 2018510504A JP 2018510504 A JP2018510504 A JP 2018510504A JP 2018529159 A JP2018529159 A JP 2018529159A
- Authority
- JP
- Japan
- Prior art keywords
- classifier
- objective function
- processor
- machine learning
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 85
- 238000010801 machine learning Methods 0.000 title claims abstract description 80
- 230000006870 function Effects 0.000 claims abstract description 118
- 239000013598 vector Substances 0.000 claims description 56
- 239000000203 mixture Substances 0.000 claims description 15
- 238000012545 processing Methods 0.000 description 37
- 210000002569 neuron Anatomy 0.000 description 36
- 238000013528 artificial neural network Methods 0.000 description 30
- 238000012549 training Methods 0.000 description 29
- 230000008569 process Effects 0.000 description 19
- 238000003860 storage Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 15
- 238000013473 artificial intelligence Methods 0.000 description 10
- 238000013135 deep learning Methods 0.000 description 10
- 238000005457 optimization Methods 0.000 description 9
- 230000008878 coupling Effects 0.000 description 8
- 238000010168 coupling process Methods 0.000 description 8
- 238000005859 coupling reaction Methods 0.000 description 8
- 230000008901 benefit Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 238000009826 distribution Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000007477 logistic regression Methods 0.000 description 5
- 238000010606 normalization Methods 0.000 description 5
- 230000009467 reduction Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 239000005022 packaging material Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000002087 whitening effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005538 encapsulation Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000023886 lateral inhibition Effects 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7747—Organisation of the process, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Algebra (AREA)
- Probability & Statistics with Applications (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Image Analysis (AREA)
- Feedback Control In General (AREA)
Abstract
Description
[0030]軟確率は、確率ベクトルの未知の値(dark values)または非最大確率値(non-maximum probability values)である。多くの従来の分類システムでは、確率ベクトルは、クラスラベルを予測するために使用される。このような従来のシステムでは、クラスラベルは、確率ベクトルにおける最高または最大確率値を使用して予測される。非最大確率値または軟確率は、無視される。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1] トレーニングされた機械学習モデルのパフォーマンスを改善するための方法であって、
第1の目的関数を有する第1の分類器に、第2の目的関数を有する第2の分類器を追加すること、前記第2の目的関数は、前記第1の分類器の誤差を直接的に低減させるために使用される、
を備える方法。
[C2] 前記第1の目的関数は、微分可能である、C1に記載の方法。
[C3] 前記第2の目的関数は、微分不可能である、C1に記載の方法。
[C4] 前記第2の目的関数は、前記第1の分類器と前記第2の分類器との誤差間の差の関数である、C1に記載の方法。
[C5] より高い複雑度のモデルからの確率の混合に少なくとも部分的に基づいて、前記第2の目的関数を決定することをさらに備える、C1に記載の方法。
[C6] 前記第1の分類器を再トレーニングすることなく、前記第2の分類器を追加することをさらに備える、C1に記載の方法。
[C7] 前記第1の分類器の外部に前記第2の分類器を追加することをさらに備える、C1に記載の方法。
[C8] アイデンティティ値に、前記第1の分類器によってトレーニングされたモデルによって生成される特徴に対する重みを割り当てることをさらに備える、C1に記載の方法。
[C9] ゼロに、より高い複雑度のモデルの確率ベクトルによって生成される特徴に対する重みを割り当てることをさらに備える、C8に記載の方法。
[C10] 前記第2の分類器の確率ベクトルによって生成される特徴に対する重みを割り当てることをさらに備える、C1に記載の方法。
[C11] ゼロに、より高い複雑度のモデルの確率ベクトルによって生成される特徴に対する重みを割り当てることをさらに備える、C1に記載の方法。
[C12] 前記第2の分類器の確率ベクトルによって生成される特徴に対する重みを割り当てることをさらに備える、C11に記載の方法。
[C13] 固定された温度Tによって、より高い複雑度のモデルによって生成される確率ベクトルをスケーリングすることをさらに備える、C1に記載の方法。
[C14] トレーニングされた機械学習モデルのパフォーマンスを改善するための装置であって、
メモリと、
前記メモリに結合された少なくとも1つのプロセッサと
を備え、前記少なくとも1つのプロセッサは、
第1の目的関数を有する第1の分類器に、第2の目的関数を有する第2の分類器を追加すること、前記第2の目的関数は、前記第1の分類器の誤差を直接的に低減させるために使用される、
を行うように構成される、装置。
[C15] 前記第1の目的関数は、微分可能である、C14に記載の装置。
[C16] 前記第2の目的関数は、微分不可能である、C14に記載の装置。
[C17] 前記第2の目的関数は、前記第1の分類器と前記第2の分類器との誤差間の差の関数である、C14に記載の装置。
[C18] 前記少なくとも1つのプロセッサは、より高い複雑度のモデルからの確率の混合に少なくとも部分的に基づいて、前記第2の目的関数を決定するようにさらに構成される、C14に記載の装置。
[C19] 前記少なくとも1つのプロセッサは、前記第1の分類器を再トレーニングすることなく、前記第2の分類器を追加するようにさらに構成される、C14に記載の装置。
[C20] 前記少なくとも1つのプロセッサは、前記第1の分類器の外部に前記第2の分類器を追加するようにさらに構成される、C14に記載の装置。
[C21] 前記少なくとも1つのプロセッサは、アイデンティティ値に、前記第1の分類器によってトレーニングされたモデルによって生成される特徴に対する重みを割り当てるようにさらに構成される、C14に記載の装置。
[C22] 前記少なくとも1つのプロセッサは、ゼロに、より高い複雑度のモデルの確率ベクトルによって生成される特徴に対する重みを割り当てるようにさらに構成される、C21に記載の装置。
[C23] 前記少なくとも1つのプロセッサは、前記第2の分類器の確率ベクトルによって生成される特徴に対する重みを割り当てるようにさらに構成される、C14に記載の装置。
[C24] 前記少なくとも1つのプロセッサは、ゼロに、より高い複雑度のモデルの確率ベクトルによって生成される特徴に対する重みを割り当てるようにさらに構成される、C14に記載の装置。
[C25] 前記少なくとも1つのプロセッサは、前記第2の分類器の確率ベクトルによって生成される特徴に対する重みを割り当てるようにさらに構成される、C24に記載の装置。
[C26] 前記少なくとも1つのプロセッサは、固定された温度Tによって、より高い複雑度のモデルによって生成される確率ベクトルをスケーリングするようにさらに構成される、C14に記載の装置。
[C27] トレーニングされた機械学習モデルのパフォーマンスを改善するための装置であって、
第1の目的関数を有する第1の分類器に、第2の目的関数を有する第2の分類器を追加するための手段と、前記第2の目的関数は、前記第1の分類器の誤差を直接的に低減させるために使用される、
前記トレーニングされた機械学習モデルを介して受信される入力に少なくとも部分的に基づいて、前記第2の分類器から特徴ベクトルを出力するための手段と
を備える装置。
[C28] トレーニングされた機械学習モデルのパフォーマンスを改善するためのプログラムコードをその上に符号化された非一時的なコンピュータ可読媒体であって、前記プログラムコードは、プロセッサによって実行され、第1の目的関数を有する第1の分類器に、第2の目的関数を有する第2の分類器を追加するためのプログラムコードを備え、前記第2の目的関数は、前記第1の分類器の誤差を直接的に低減させるために使用される、非一時的なコンピュータ可読媒体。
Claims (28)
- トレーニングされた機械学習モデルのパフォーマンスを改善するための方法であって、
第1の目的関数を有する第1の分類器に、第2の目的関数を有する第2の分類器を追加すること、前記第2の目的関数は、前記第1の分類器の誤差を直接的に低減させるために使用される、
を備える方法。 - 前記第1の目的関数は、微分可能である、請求項1に記載の方法。
- 前記第2の目的関数は、微分不可能である、請求項1に記載の方法。
- 前記第2の目的関数は、前記第1の分類器と前記第2の分類器との誤差間の差の関数である、請求項1に記載の方法。
- より高い複雑度のモデルからの確率の混合に少なくとも部分的に基づいて、前記第2の目的関数を決定することをさらに備える、請求項1に記載の方法。
- 前記第1の分類器を再トレーニングすることなく、前記第2の分類器を追加することをさらに備える、請求項1に記載の方法。
- 前記第1の分類器の外部に前記第2の分類器を追加することをさらに備える、請求項1に記載の方法。
- アイデンティティ値に、前記第1の分類器によってトレーニングされたモデルによって生成される特徴に対する重みを割り当てることをさらに備える、請求項1に記載の方法。
- ゼロに、より高い複雑度のモデルの確率ベクトルによって生成される特徴に対する重みを割り当てることをさらに備える、請求項8に記載の方法。
- 前記第2の分類器の確率ベクトルによって生成される特徴に対する重みを割り当てることをさらに備える、請求項1に記載の方法。
- ゼロに、より高い複雑度のモデルの確率ベクトルによって生成される特徴に対する重みを割り当てることをさらに備える、請求項1に記載の方法。
- 前記第2の分類器の確率ベクトルによって生成される特徴に対する重みを割り当てることをさらに備える、請求項11に記載の方法。
- 固定された温度Tによって、より高い複雑度のモデルによって生成される確率ベクトルをスケーリングすることをさらに備える、請求項1に記載の方法。
- トレーニングされた機械学習モデルのパフォーマンスを改善するための装置であって、
メモリと、
前記メモリに結合された少なくとも1つのプロセッサと
を備え、前記少なくとも1つのプロセッサは、
第1の目的関数を有する第1の分類器に、第2の目的関数を有する第2の分類器を追加すること、前記第2の目的関数は、前記第1の分類器の誤差を直接的に低減させるために使用される、
を行うように構成される、装置。 - 前記第1の目的関数は、微分可能である、請求項14に記載の装置。
- 前記第2の目的関数は、微分不可能である、請求項14に記載の装置。
- 前記第2の目的関数は、前記第1の分類器と前記第2の分類器との誤差間の差の関数である、請求項14に記載の装置。
- 前記少なくとも1つのプロセッサは、より高い複雑度のモデルからの確率の混合に少なくとも部分的に基づいて、前記第2の目的関数を決定するようにさらに構成される、請求項14に記載の装置。
- 前記少なくとも1つのプロセッサは、前記第1の分類器を再トレーニングすることなく、前記第2の分類器を追加するようにさらに構成される、請求項14に記載の装置。
- 前記少なくとも1つのプロセッサは、前記第1の分類器の外部に前記第2の分類器を追加するようにさらに構成される、請求項14に記載の装置。
- 前記少なくとも1つのプロセッサは、アイデンティティ値に、前記第1の分類器によってトレーニングされたモデルによって生成される特徴に対する重みを割り当てるようにさらに構成される、請求項14に記載の装置。
- 前記少なくとも1つのプロセッサは、ゼロに、より高い複雑度のモデルの確率ベクトルによって生成される特徴に対する重みを割り当てるようにさらに構成される、請求項21に記載の装置。
- 前記少なくとも1つのプロセッサは、前記第2の分類器の確率ベクトルによって生成される特徴に対する重みを割り当てるようにさらに構成される、請求項14に記載の装置。
- 前記少なくとも1つのプロセッサは、ゼロに、より高い複雑度のモデルの確率ベクトルによって生成される特徴に対する重みを割り当てるようにさらに構成される、請求項14に記載の装置。
- 前記少なくとも1つのプロセッサは、前記第2の分類器の確率ベクトルによって生成される特徴に対する重みを割り当てるようにさらに構成される、請求項24に記載の装置。
- 前記少なくとも1つのプロセッサは、固定された温度Tによって、より高い複雑度のモデルによって生成される確率ベクトルをスケーリングするようにさらに構成される、請求項14に記載の装置。
- トレーニングされた機械学習モデルのパフォーマンスを改善するための装置であって、
第1の目的関数を有する第1の分類器に、第2の目的関数を有する第2の分類器を追加するための手段と、前記第2の目的関数は、前記第1の分類器の誤差を直接的に低減させるために使用される、
前記トレーニングされた機械学習モデルを介して受信される入力に少なくとも部分的に基づいて、前記第2の分類器から特徴ベクトルを出力するための手段と
を備える装置。 - トレーニングされた機械学習モデルのパフォーマンスを改善するためのプログラムコードをその上に符号化された非一時的なコンピュータ可読媒体であって、前記プログラムコードは、プロセッサによって実行され、第1の目的関数を有する第1の分類器に、第2の目的関数を有する第2の分類器を追加するためのプログラムコードを備え、前記第2の目的関数は、前記第1の分類器の誤差を直接的に低減させるために使用される、非一時的なコンピュータ可読媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562209859P | 2015-08-25 | 2015-08-25 | |
US62/209,859 | 2015-08-25 | ||
US14/863,410 | 2015-09-23 | ||
US14/863,410 US10332028B2 (en) | 2015-08-25 | 2015-09-23 | Method for improving performance of a trained machine learning model |
PCT/US2016/046576 WO2017034820A1 (en) | 2015-08-25 | 2016-08-11 | Method for improving performance of a trained machine learning model |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018529159A true JP2018529159A (ja) | 2018-10-04 |
JP2018529159A5 JP2018529159A5 (ja) | 2019-08-29 |
JP6862426B2 JP6862426B2 (ja) | 2021-04-21 |
Family
ID=58095916
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018510504A Active JP6862426B2 (ja) | 2015-08-25 | 2016-08-11 | トレーニングされた機械学習モデルのパフォーマンスを改善するための方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10332028B2 (ja) |
EP (1) | EP3341894B1 (ja) |
JP (1) | JP6862426B2 (ja) |
KR (1) | KR20180044295A (ja) |
CN (1) | CN108027899B (ja) |
WO (1) | WO2017034820A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019045944A (ja) * | 2017-08-30 | 2019-03-22 | 株式会社日立製作所 | 機械学習装置及び機械学習方法 |
JP2020515922A (ja) * | 2017-03-30 | 2020-05-28 | アトムワイズ,インコーポレイテッド | 分類子出力を並行して評価することによる第1の分類子の誤差の訂正 |
JP2022549006A (ja) * | 2019-09-24 | 2022-11-22 | グーグル エルエルシー | 距離に基づく学習信頼度モデル |
Families Citing this family (81)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016061576A1 (en) | 2014-10-17 | 2016-04-21 | Zestfinance, Inc. | Api for implementing scoring functions |
US20170178346A1 (en) * | 2015-12-16 | 2017-06-22 | High School Cube, Llc | Neural network architecture for analyzing video data |
US9805255B2 (en) * | 2016-01-29 | 2017-10-31 | Conduent Business Services, Llc | Temporal fusion of multimodal data from multiple data acquisition systems to automatically recognize and classify an action |
JP6623947B2 (ja) * | 2016-06-17 | 2019-12-25 | 富士通株式会社 | 情報処理装置、イジング装置及び情報処理装置の制御方法 |
JP6468254B2 (ja) * | 2016-07-01 | 2019-02-13 | 富士通株式会社 | 情報処理装置、イジング装置及び情報処理装置の制御方法 |
CN109964224A (zh) | 2016-09-22 | 2019-07-02 | 恩芙润斯公司 | 用于语义信息可视化和指示生命科学实体之间显著关联的时间信号推断的系统、方法和计算机可读介质 |
US11210589B2 (en) | 2016-09-28 | 2021-12-28 | D5Ai Llc | Learning coach for machine learning system |
US11475310B1 (en) | 2016-11-29 | 2022-10-18 | Perceive Corporation | Training network to minimize worst-case error |
KR102702184B1 (ko) * | 2016-12-16 | 2024-09-04 | 에스케이하이닉스 주식회사 | 뉴로모픽 장치의 정보 인식 장치 및 방법 |
US10282668B2 (en) * | 2017-03-09 | 2019-05-07 | Thomas Danaher Harvey | Devices and methods to detect compliance with regulations |
US11915152B2 (en) | 2017-03-24 | 2024-02-27 | D5Ai Llc | Learning coach for machine learning system |
US11599783B1 (en) * | 2017-05-31 | 2023-03-07 | Databricks, Inc. | Function creation for database execution of deep learning model |
US10346724B2 (en) * | 2017-06-22 | 2019-07-09 | Waymo Llc | Rare instance classifiers |
US11228379B1 (en) | 2017-06-23 | 2022-01-18 | DeepSig Inc. | Radio signal processing network model search |
US11804112B2 (en) | 2017-07-12 | 2023-10-31 | Mastercard Asia/Pacific Pte. Ltd. | Mobile device platform for automated visual retail product recognition |
CN110019658B (zh) * | 2017-07-31 | 2023-01-20 | 腾讯科技(深圳)有限公司 | 检索项的生成方法及相关装置 |
US11941650B2 (en) | 2017-08-02 | 2024-03-26 | Zestfinance, Inc. | Explainable machine learning financial credit approval model for protected classes of borrowers |
CN111066033A (zh) * | 2017-08-30 | 2020-04-24 | 谷歌有限责任公司 | 用于生成模糊结果的标签的机器学习方法 |
EP3460685A1 (en) * | 2017-09-12 | 2019-03-27 | Bricsys NV | Improved semantic classification of an entity in a building information model |
US11416738B1 (en) * | 2017-11-21 | 2022-08-16 | Amazon Technologies, Inc. | Model reutilization with heterogeneous sensor stacks via sensor data auto-normalization |
US11615129B2 (en) | 2017-11-28 | 2023-03-28 | International Business Machines Corporation | Electronic message text classification framework selection |
JP7179853B2 (ja) * | 2017-12-12 | 2022-11-29 | アマゾン テクノロジーズ インコーポレイテッド | オンチップの計算ネットワーク |
US10803379B2 (en) | 2017-12-12 | 2020-10-13 | Amazon Technologies, Inc. | Multi-memory on-chip computational network |
US10846621B2 (en) | 2017-12-12 | 2020-11-24 | Amazon Technologies, Inc. | Fast context switching for computational networks |
US11321612B2 (en) | 2018-01-30 | 2022-05-03 | D5Ai Llc | Self-organizing partially ordered networks and soft-tying learned parameters, such as connection weights |
TWI729352B (zh) * | 2018-02-09 | 2021-06-01 | 宏達國際電子股份有限公司 | 卷積神經網路的調整方法及電子裝置 |
US10834227B2 (en) * | 2018-02-13 | 2020-11-10 | International Business Machines Corporation | Conversational agent learning model service selection to address a client service request |
WO2019173734A1 (en) | 2018-03-09 | 2019-09-12 | Zestfinance, Inc. | Systems and methods for providing machine learning model evaluation by using decomposition |
JP7108702B2 (ja) * | 2018-03-22 | 2022-07-28 | アマゾン テクノロジーズ インコーポレイテッド | 複数の入力データセットのための処理 |
US11475306B2 (en) | 2018-03-22 | 2022-10-18 | Amazon Technologies, Inc. | Processing for multiple input data sets |
US20190302707A1 (en) * | 2018-03-28 | 2019-10-03 | Mitsubishi Electric Research Laboratories, Inc. | Anomaly Detection in Manufacturing Systems Using Structured Neural Networks |
CA3098838A1 (en) | 2018-05-04 | 2019-11-07 | Zestfinance, Inc. | Systems and methods for enriching modeling tools and infrastructure with semantics |
CN112106081A (zh) * | 2018-05-07 | 2020-12-18 | 谷歌有限责任公司 | 提供综合机器学习服务的应用开发平台和软件开发套件 |
CN108898060A (zh) * | 2018-05-30 | 2018-11-27 | 珠海亿智电子科技有限公司 | 车载环境下基于卷积神经网络的车型识别方法 |
WO2019236997A1 (en) * | 2018-06-08 | 2019-12-12 | Zestfinance, Inc. | Systems and methods for decomposition of non-differentiable and differentiable models |
US11625609B2 (en) | 2018-06-14 | 2023-04-11 | International Business Machines Corporation | Integration of external applications into deep neural networks |
US10839791B2 (en) * | 2018-06-27 | 2020-11-17 | International Business Machines Corporation | Neural network-based acoustic model with softening target-layer |
KR102631031B1 (ko) | 2018-07-27 | 2024-01-29 | 삼성전자주식회사 | 반도체 장치의 불량 검출 방법 |
KR102170756B1 (ko) * | 2018-08-01 | 2020-10-27 | 가톨릭대학교 산학협력단 | 이중 머신 러닝 모델을 이용한 데이터 분류 방법 및 장치 |
US11810010B2 (en) * | 2018-08-02 | 2023-11-07 | The Boeing Company | Two tier automatic cost estimation for automatic manufacture of spare parts |
CN110826721A (zh) * | 2018-08-09 | 2020-02-21 | 松下电器(美国)知识产权公司 | 信息处理方法及信息处理系统 |
DE102018216298A1 (de) * | 2018-09-25 | 2020-03-26 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Betreiben eines Steuerungssystems |
US11568179B2 (en) * | 2018-10-19 | 2023-01-31 | Oracle International Corporation | Selecting an algorithm for analyzing a data set based on the distribution of the data set |
US11573962B2 (en) * | 2018-10-19 | 2023-02-07 | Oracle International Corporation | Dynamic performance tuning based on implied data characteristics |
CN109522949B (zh) * | 2018-11-07 | 2021-01-26 | 北京交通大学 | 目标识别模型建立方法及装置 |
KR102228196B1 (ko) * | 2018-11-15 | 2021-03-16 | 주식회사 에이아이트릭스 | 기초 메타학습장치에 대한 앙상블가중치를 결정하는 방법 및 장치 |
KR102692218B1 (ko) | 2018-12-19 | 2024-08-05 | 에스케이하이닉스 주식회사 | 오류 역전파를 이용하여 지도 학습을 수행하는 뉴로모픽 시스템 |
KR102211604B1 (ko) | 2019-02-01 | 2021-02-04 | 재단법인대구경북과학기술원 | Gpu 기반의 채널 단위 딥뉴럴 네트워크 구조 검색을 사용하는 인공지능 시스템 |
US11816541B2 (en) | 2019-02-15 | 2023-11-14 | Zestfinance, Inc. | Systems and methods for decomposition of differentiable and non-differentiable models |
CA3134043A1 (en) | 2019-03-18 | 2020-09-24 | Sean Javad Kamkar | Systems and methods for model fairness |
US11900238B1 (en) | 2019-04-25 | 2024-02-13 | Perceive Corporation | Removing nodes from machine-trained network based on introduction of probabilistic noise during training |
US11531879B1 (en) | 2019-04-25 | 2022-12-20 | Perceive Corporation | Iterative transfer of machine-trained network inputs from validation set to training set |
US12112254B1 (en) | 2019-04-25 | 2024-10-08 | Perceive Corporation | Optimizing loss function during training of network |
US11610154B1 (en) | 2019-04-25 | 2023-03-21 | Perceive Corporation | Preventing overfitting of hyperparameters during training of network |
US11605025B2 (en) * | 2019-05-14 | 2023-03-14 | Msd International Gmbh | Automated quality check and diagnosis for production model refresh |
US11487902B2 (en) | 2019-06-21 | 2022-11-01 | nference, inc. | Systems and methods for computing with private healthcare data |
US11545242B2 (en) | 2019-06-21 | 2023-01-03 | nference, inc. | Systems and methods for computing with private healthcare data |
US11676034B2 (en) * | 2019-06-27 | 2023-06-13 | The Nielsen Company (Us), Llc | Initialization of classification layers in neural networks |
US11417087B2 (en) | 2019-07-17 | 2022-08-16 | Harris Geospatial Solutions, Inc. | Image processing system including iteratively biased training model probability distribution function and related methods |
US10984507B2 (en) | 2019-07-17 | 2021-04-20 | Harris Geospatial Solutions, Inc. | Image processing system including training model based upon iterative blurring of geospatial images and related methods |
US11068748B2 (en) | 2019-07-17 | 2021-07-20 | Harris Geospatial Solutions, Inc. | Image processing system including training model based upon iteratively biased loss function and related methods |
CN112308233B (zh) * | 2019-08-02 | 2024-07-19 | 伊姆西Ip控股有限责任公司 | 用于处理数据的方法、设备和计算机程序产品 |
EP3786918B1 (en) | 2019-08-30 | 2023-11-08 | Zenuity AB | Method and arrangement for determining a current location speed-limit in a road-vehicle |
US20210073669A1 (en) * | 2019-09-06 | 2021-03-11 | American Express Travel Related Services Company | Generating training data for machine-learning models |
US20210073612A1 (en) * | 2019-09-10 | 2021-03-11 | Nvidia Corporation | Machine-learning-based architecture search method for a neural network |
JP6869589B1 (ja) * | 2019-12-24 | 2021-05-12 | 株式会社エイシング | 情報処理装置、方法及びプログラム |
CN111114541B (zh) * | 2019-12-31 | 2021-08-20 | 华为技术有限公司 | 车辆控制方法、装置、控制器和智能车 |
US11941496B2 (en) * | 2020-03-19 | 2024-03-26 | International Business Machines Corporation | Providing predictions based on a prediction accuracy model using machine learning |
JP2023521893A (ja) * | 2020-04-15 | 2023-05-25 | チャン ザッカーバーグ バイオハブ, インコーポレイテッド | 機械学習モデルを用いた局所的祖先推論 |
US11593714B2 (en) * | 2020-05-06 | 2023-02-28 | Citrix Systems, Inc. | Adaptive anomaly detector |
US10949907B1 (en) * | 2020-06-23 | 2021-03-16 | Price Technologies Inc. | Systems and methods for deep learning model based product matching using multi modal data |
US11687780B2 (en) | 2020-07-02 | 2023-06-27 | Samsung Electronics Co., Ltd | Method and apparatus for data efficient semantic segmentation |
CN115812210A (zh) | 2020-08-17 | 2023-03-17 | 西门子股份公司 | 用于增强机器学习分类任务的性能的方法和设备 |
JP7466429B2 (ja) * | 2020-10-22 | 2024-04-12 | 株式会社日立製作所 | 計算機システム及び計画評価方法 |
US12112112B2 (en) * | 2020-11-12 | 2024-10-08 | Samsung Electronics Co., Ltd. | Method for co-design of hardware and neural network architectures using coarse-to-fine search, two-phased block distillation and neural hardware predictor |
US11720962B2 (en) | 2020-11-24 | 2023-08-08 | Zestfinance, Inc. | Systems and methods for generating gradient-boosted models with improved fairness |
KR102307003B1 (ko) * | 2020-12-24 | 2021-10-01 | 주식회사 알고리즘랩스 | 프로그래밍 학습 가이드 방법 및 장치 |
WO2023017647A1 (ja) * | 2021-08-12 | 2023-02-16 | ソニーセミコンダクタソリューションズ株式会社 | 行動分析装置、行動分析方法、行動分析プログラム、撮影装置および行動分析システム |
US20230132070A1 (en) | 2021-10-27 | 2023-04-27 | International Business Machines Corporation | Features for black-box machine-learning models |
CN114494774B (zh) * | 2022-01-24 | 2024-09-06 | 腾讯科技(深圳)有限公司 | 一种图像分类方法、装置、电子设备及存储介质 |
CN117437459B (zh) * | 2023-10-08 | 2024-03-22 | 昆山市第一人民医院 | 基于决策网络实现用户膝关节髌骨软化状态分析方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05290013A (ja) * | 1992-04-06 | 1993-11-05 | Sharp Corp | ニューラルネットワーク演算装置 |
JPH09185394A (ja) * | 1995-12-28 | 1997-07-15 | Meidensha Corp | 離散単語音声認識システムにおける音素認識方法 |
JP2011048262A (ja) * | 2009-08-28 | 2011-03-10 | Nippon Telegr & Teleph Corp <Ntt> | 音響モデルパラメータ学習装置、音響モデルパラメータ学習方法、音響モデルパラメータ学習プログラム |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6728690B1 (en) * | 1999-11-23 | 2004-04-27 | Microsoft Corporation | Classification system trainer employing maximum margin back-propagation with probabilistic outputs |
EP1299783A2 (en) * | 2000-06-19 | 2003-04-09 | The Dow Chemical Company | Rotating equipment diagnostic system and adaptive controller |
US6778705B2 (en) * | 2001-02-27 | 2004-08-17 | Koninklijke Philips Electronics N.V. | Classification of objects through model ensembles |
US7103219B2 (en) * | 2001-04-12 | 2006-09-05 | Eastman Kodak Company | Population mixture modeling with an indeterminate number of sub-populations |
WO2005015366A2 (en) | 2003-08-08 | 2005-02-17 | Electric Power Group, Llc | Real-time performance monitoring and management system |
WO2005022343A2 (en) | 2003-08-29 | 2005-03-10 | Exscientia, Llc | System and methods for incrementally augmenting a classifier |
US7890438B2 (en) | 2007-12-12 | 2011-02-15 | Xerox Corporation | Stacked generalization learning for document annotation |
US20090182538A1 (en) * | 2008-01-14 | 2009-07-16 | Fujitsu Limited | Multi-objective optimum design support device using mathematical process technique, its method and program |
CA2715825C (en) | 2008-02-20 | 2017-10-03 | Mcmaster University | Expert system for determining patient treatment response |
US8315465B1 (en) | 2009-01-12 | 2012-11-20 | Google Inc. | Effective feature classification in images |
CA2718579C (en) | 2009-10-22 | 2017-10-03 | National Research Council Of Canada | Text categorization based on co-classification learning from multilingual corpora |
US8369611B2 (en) * | 2010-04-22 | 2013-02-05 | Microsoft Corporation | Compact handwriting recognition |
US8554701B1 (en) | 2011-03-18 | 2013-10-08 | Amazon Technologies, Inc. | Determining sentiment of sentences from customer reviews |
US9060685B2 (en) | 2012-03-26 | 2015-06-23 | Nec Laboratories America, Inc. | Whole tissue classifier for histology biopsy slides |
CN104598972A (zh) * | 2015-01-22 | 2015-05-06 | 清华大学 | 一种大规模数据回归神经网络快速训练方法 |
CN104573731B (zh) * | 2015-02-06 | 2018-03-23 | 厦门大学 | 基于卷积神经网络的快速目标检测方法 |
-
2015
- 2015-09-23 US US14/863,410 patent/US10332028B2/en active Active
-
2016
- 2016-08-11 KR KR1020187005492A patent/KR20180044295A/ko not_active Application Discontinuation
- 2016-08-11 CN CN201680048630.3A patent/CN108027899B/zh active Active
- 2016-08-11 WO PCT/US2016/046576 patent/WO2017034820A1/en active Application Filing
- 2016-08-11 JP JP2018510504A patent/JP6862426B2/ja active Active
- 2016-08-11 EP EP16753803.2A patent/EP3341894B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05290013A (ja) * | 1992-04-06 | 1993-11-05 | Sharp Corp | ニューラルネットワーク演算装置 |
JPH09185394A (ja) * | 1995-12-28 | 1997-07-15 | Meidensha Corp | 離散単語音声認識システムにおける音素認識方法 |
JP2011048262A (ja) * | 2009-08-28 | 2011-03-10 | Nippon Telegr & Teleph Corp <Ntt> | 音響モデルパラメータ学習装置、音響モデルパラメータ学習方法、音響モデルパラメータ学習プログラム |
Non-Patent Citations (1)
Title |
---|
GEOFFREY HINTON ET AL.: ""Distilling the Knowledge in a Neural Network"", ARXIV.ORG [ONLINE], vol. arXiv:1503.02531, JPN6020034008, March 2015 (2015-03-01), pages 1 - 9, ISSN: 0004341800 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020515922A (ja) * | 2017-03-30 | 2020-05-28 | アトムワイズ,インコーポレイテッド | 分類子出力を並行して評価することによる第1の分類子の誤差の訂正 |
JP7121725B2 (ja) | 2017-03-30 | 2022-08-18 | アトムワイズ,インコーポレイテッド | 分類子出力を並行して評価することによる第1の分類子の誤差の訂正 |
US12056607B2 (en) | 2017-03-30 | 2024-08-06 | Atomwise Inc. | Systems and methods for correcting error in a first classifier by evaluating classifier output in parallel |
JP2019045944A (ja) * | 2017-08-30 | 2019-03-22 | 株式会社日立製作所 | 機械学習装置及び機械学習方法 |
JP2022549006A (ja) * | 2019-09-24 | 2022-11-22 | グーグル エルエルシー | 距離に基づく学習信頼度モデル |
JP7292506B2 (ja) | 2019-09-24 | 2023-06-16 | グーグル エルエルシー | 距離に基づく学習信頼度モデル |
Also Published As
Publication number | Publication date |
---|---|
BR112018003434A2 (pt) | 2018-09-25 |
EP3341894B1 (en) | 2024-09-18 |
WO2017034820A1 (en) | 2017-03-02 |
US20170061326A1 (en) | 2017-03-02 |
CN108027899A (zh) | 2018-05-11 |
KR20180044295A (ko) | 2018-05-02 |
CN108027899B (zh) | 2023-02-24 |
EP3341894A1 (en) | 2018-07-04 |
JP6862426B2 (ja) | 2021-04-21 |
US10332028B2 (en) | 2019-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6862426B2 (ja) | トレーニングされた機械学習モデルのパフォーマンスを改善するための方法 | |
JP7037478B2 (ja) | 分類のための強制的なスパース性 | |
JP6776331B2 (ja) | 未知クラスの検出および未知クラスのための分類器の初期化 | |
JP6869948B2 (ja) | ニューラルネットワークにおける転移学習 | |
US10019631B2 (en) | Adapting to appearance variations when tracking a target object in video sequence | |
US10275719B2 (en) | Hyper-parameter selection for deep convolutional networks | |
JP6859332B2 (ja) | 選択的バックプロパゲーション | |
JP2018514852A (ja) | 逐次画像サンプリングおよび微調整された特徴の記憶 | |
US20160321540A1 (en) | Filter specificity as training criterion for neural networks | |
JP2018506785A (ja) | モデル圧縮および微調整 | |
JP2018526723A (ja) | 画像中のオブジェクト検出のためのコンテキストベースの事前分布 | |
JP2018528521A (ja) | メディア分類 | |
WO2021247944A1 (en) | Federated mixture models | |
EP3332362B1 (en) | Detection of unknown classes and initialization of classifiers for unknown classes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180514 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190719 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190719 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200908 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210302 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210331 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6862426 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |