JP2023134499A - ラベルノイズが存在する状態でのロバストな訓練 - Google Patents

ラベルノイズが存在する状態でのロバストな訓練 Download PDF

Info

Publication number
JP2023134499A
JP2023134499A JP2023102500A JP2023102500A JP2023134499A JP 2023134499 A JP2023134499 A JP 2023134499A JP 2023102500 A JP2023102500 A JP 2023102500A JP 2023102500 A JP2023102500 A JP 2023102500A JP 2023134499 A JP2023134499 A JP 2023134499A
Authority
JP
Japan
Prior art keywords
training samples
labeled training
loss
labeled
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023102500A
Other languages
English (en)
Inventor
ヂャン,ズーヂャオ
Zizhao Zhang
アリク,セルジャン・オメール
Omer Arik Sercan
フィスター,トマス・ジョン
Jon Pfister Tomas
ヂャン,ハン
Han Zhang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2023134499A publication Critical patent/JP2023134499A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2115Selection of the most significant subset of features by evaluating different subsets according to an optimisation criterion, e.g. class separability, forward selection or backward elimination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Image Analysis (AREA)
  • Machine Translation (AREA)

Abstract

【課題】ラベルノイズが存在する状態でのモデルのロバストな訓練のための方法を提供する。【解決手段】方法は、所与のラベルに各々関連付けられた1組のラベル付き訓練サンプルを取得し、各ラベル付き訓練サンプルについて、疑似ラベルを生成し、所与のラベルの精度を示すラベル付き訓練サンプルの重みを推定し、ラベル付き訓練サンプルの重みが重みしきい値を満たすかどうかを判定し、ラベル付き訓練サンプルの重みが重みしきい値を満たす場合、ラベル付き訓練サンプルを、1組のクリーンにラベル付けされた訓練サンプルに追加し、ラベル付き訓練サンプルを、1組の間違ってラベル付けされた訓練サンプルに追加し、対応する所与のラベルを使用する1組のクリーンにラベル付けされた訓練サンプルと、対応する疑似ラベルを使用する1組の間違ってラベル付けされた訓練サンプルとを用いて、機械学習モデルを訓練する。【選択図】図5

Description

本開示は、ラベルノイズが存在する状態でのモデルのロバストな訓練に関する。
背景
ディープニューラルネットを訓練することは通常、大規模なラベル付きデータを必要とする。しかしながら、大規模なデータセットのためにクリーンなラベルを取得することは実際には、特にヘルスケアなどのラベル付けコストが高いデータドメインでは、達成するのが非常に困難であり、かつ費用がかかる。ディープニューラルネットはまた、高容量の記憶を有する。多くの訓練技術はニューラルネットを正規化してノイズのあるラベルの侵入を防止するよう試みるが、ノイズのあるラベルが顕著になると、ニューラルネットは必然的にノイズのあるラベル付きデータに適合する。
典型的には、小さい信頼できる訓練データセットは通常、取得が実行可能である。実用上現実的な設定は、訓練データのサイズを、所与の小さい信頼できるセットに基づいて、安価で信頼できないやり方(たとえば、クラウドソーシング、ウェブ検索、安価なラベル付け作業など)で増加させることである。この設定が明らかな利点を実証できるならば、それは機械学習作業を著しく変更し得るであろう。しかしながら、訓練データのサイズを増加させるために、多くの方法は依然として、ニューラルネットをうまく一般化させるためにかなりの量の信頼できるデータを必要とする。このため、小さい信頼できるデータセットの単純な使用は迅速な過剰適合を引き起こす場合があり、最終的に悪影響をもたらす。
概要
この開示の一局面は、ラベルノイズが存在する状態でのモデルのロバストな訓練のための方法を提供する。方法は、データ処理ハードウェアで、1組のラベル付き訓練サンプルを取得するステップを含む。各ラベル付き訓練サンプルは所与のラベルに関連付けられる。方法はまた、複数の訓練反復の各訓練反復中、1組のラベル付き訓練サンプルにおける各ラベル付き訓練サンプルについて、データ処理ハードウェアが、ラベル付き訓練サンプルのための疑似ラベルを生成するステップを含む。方法はまた、データ処理ハードウェアが、所与のラベルの精度を示すラベル付き訓練サンプルの重みを推定するステップと、データ処理ハードウェアが、ラベル付き訓練サンプルの重みが重みしきい値を満たすかどうかを判定するステップとを含む。方法はまた、ラベル付き訓練サンプルの重みが重みしきい値を満たす場合、データ処理ハードウェアが、ラベル付き訓練サンプルを、1組のクリーンにラベル付けされた訓練サンプルに追加するステップを含む。方法はまた、ラベル付き訓練サンプルの重みが重みしきい値を満たさない場合、データ処理ハードウェアが、ラベル付き訓練サンプルを、1組の間違ってラベル付けされた訓練サンプルに追加するステップを含む。方法はまた、データ処理ハードウェアが、対応する所与のラベルを使用する1組のクリーンにラベル付けされた訓練サンプルと、対応する疑似ラベルを使用する1組の間違ってラベル付けされた訓練サンプルとを用いて、機械学習モデルを訓練するステップを含む。
この開示の実現化例は、以下のオプションの特徴のうちの1つ以上を含んでいてもよい。いくつかの実現化例では、ラベル付き訓練サンプルのための疑似ラベルを生成するステップは、ラベル付き訓練サンプルに基づいて複数の拡張された(augmented)訓練サンプ
ルを生成するステップと、各拡張された訓練サンプルについて、機械学習モデルを使用して、予測されるラベルを生成するステップとを含む。この実現化例はまた、対応するラベル付き訓練サンプルのための疑似ラベルを生成するために、複数の拡張された訓練サンプルの各拡張された訓練サンプルについて生成された各予測されるラベルを平均化するステップを含む。
いくつかの例では、ラベル付き訓練サンプルの重みを推定するステップは、ラベル付き訓練サンプルの最適な重みのオンライン近似を判定するステップを含む。ラベル付き訓練サンプルの最適な重みのオンライン近似を判定するステップは、確率的勾配降下最適化を使用するステップを含んでいてもよい。オプションで、最適な重みは、機械学習モデルの訓練損失を最小化する。
いくつかの実現化例では、機械学習モデルを訓練するステップは、1組の信頼できる訓練サンプルを取得するステップを含む。各信頼できる訓練サンプルは信頼できるラベルに関連付けられる。この実現化例はまた、1組の信頼できる訓練サンプルと1組のラベル付き訓練サンプルとを使用して凸結合を生成するステップを含む。凸結合を生成するステップは、1組の信頼できる訓練サンプルと1組のラベル付き訓練サンプルとにペアのMixUpを適用するステップを含んでいてもよい。機械学習モデルを訓練するステップはさらに、対応する所与のラベルを使用する1組のクリーンにラベル付けされた訓練サンプルに基づいて、第1の損失を判定するステップと、対応する疑似ラベルを使用する1組の間違ってラベル付けされた訓練サンプルに基づいて、第2の損失を判定するステップと、1組の信頼できる訓練サンプルの凸結合に基づいて、第3の損失を判定するステップと、1組のラベル付き訓練サンプルの凸結合に基づいて、第4の損失を判定するステップと、1組のラベル付き訓練サンプルの所与のラベルと1組のラベル付き訓練サンプルの疑似ラベルとの間のカルバック・ライブラー(Kullback-Leibler)発散に基づいて、第5の損失を判定するステップとを含んでいてもよい。機械学習モデルを訓練するステップはさらに、第1の損失、第2の損失、第3の損失、第4の損失、および第5の損失に基づいて、総損失を判定するステップも含んでいてもよい。いくつかの例では、第3の損失および第4の損失は、softmax交差エントロピー損失である。1組のラベル付き訓練サンプルの各ラベル付き訓練サンプルは画像であり、所与のラベルは画像のテキスト記述子である。
この開示の別の局面は、ラベルノイズが存在する状態でモデルを訓練するためのシステムを提供する。システムは、データ処理ハードウェアと、データ処理ハードウェアと通信しているメモリハードウェアとを含む。メモリハードウェアは、データ処理ハードウェア上で実行されるとデータ処理ハードウェアに動作を行なわせる命令を格納する。動作は、1組のラベル付き訓練サンプルを取得することを含む。各ラベル付き訓練サンプルは所与のラベルに関連付けられる。動作はまた、複数の訓練反復の各訓練反復中、1組のラベル付き訓練サンプルにおける各ラベル付き訓練サンプルについて、ラベル付き訓練サンプルのための疑似ラベルを生成することを含む。動作はまた、所与のラベルの精度を示すラベル付き訓練サンプルの重みを推定することと、ラベル付き訓練サンプルの重みが重みしきい値を満たすかどうかを判定することとを含む。動作はまた、ラベル付き訓練サンプルの重みが重みしきい値を満たす場合、ラベル付き訓練サンプルを、1組のクリーンにラベル付けされた訓練サンプルに追加することを含む。動作はまた、ラベル付き訓練サンプルの重みが重みしきい値を満たさない場合、ラベル付き訓練サンプルを、1組の間違ってラベル付けされた訓練サンプルに追加することを含む。動作はまた、対応する所与のラベルを使用する1組のクリーンにラベル付けされた訓練サンプルと、対応する疑似ラベルを使用する1組の間違ってラベル付けされた訓練サンプルとを用いて、機械学習モデルを訓練することを含む。
この局面は、以下のオプションの特徴のうちの1つ以上を含んでいてもよい。いくつか
の実現化例では、ラベル付き訓練サンプルのための疑似ラベルを生成することは、ラベル付き訓練サンプルに基づいて複数の拡張された訓練サンプルを生成することと、各拡張された訓練サンプルについて、機械学習モデルを使用して、予測されるラベルを生成することとを含む。この実現化例はまた、対応するラベル付き訓練サンプルのための疑似ラベルを生成するために、複数の拡張された訓練サンプルの各拡張された訓練サンプルについて生成された各予測されるラベルを平均化することを含む。
いくつかの例では、ラベル付き訓練サンプルの重みを推定することは、ラベル付き訓練サンプルの最適な重みのオンライン近似を判定することを含む。ラベル付き訓練サンプルの最適な重みのオンライン近似を判定することは、確率的勾配降下最適化を使用することを含んでいてもよい。オプションで、最適な重みは、機械学習モデルの訓練損失を最小化する。
いくつかの実現化例では、機械学習モデルを訓練することは、1組の信頼できる訓練サンプルを取得することを含む。各信頼できる訓練サンプルは信頼できるラベルに関連付けられる。この実現化例はまた、1組の信頼できる訓練サンプルと1組のラベル付き訓練サンプルとを使用して凸結合を生成することを含む。凸結合を生成することは、1組の信頼できる訓練サンプルと1組のラベル付き訓練サンプルとにペアのMixUpを適用することを含んでいてもよい。機械学習モデルを訓練することはさらに、対応する所与のラベルを使用する1組のクリーンにラベル付けされた訓練サンプルに基づいて、第1の損失を判定することと、対応する疑似ラベルを使用する1組の間違ってラベル付けされた訓練サンプルに基づいて、第2の損失を判定することと、1組の信頼できる訓練サンプルの凸結合に基づいて、第3の損失を判定することと、1組のラベル付き訓練サンプルの凸結合に基づいて、第4の損失を判定することと、1組のラベル付き訓練サンプルの所与のラベルと1組のラベル付き訓練サンプルの疑似ラベルとの間のカルバック・ライブラー発散に基づいて、第5の損失を判定することとを含んでいてもよい。機械学習モデルを訓練することはさらに、第1の損失、第2の損失、第3の損失、第4の損失、および第5の損失に基づいて、総損失を判定することも含んでいてもよい。いくつかの例では、第3の損失および第4の損失は、softmax交差エントロピー損失である。1組のラベル付き訓練サンプルの各ラベル付き訓練サンプルは画像であり、所与のラベルは画像のテキスト記述子である。
この開示の1つ以上の実現化例の詳細が、添付図面および以下の説明において述べられる。他の局面、特徴、および利点は、説明および図面から、ならびに請求項から明らかになるであろう。
ノイズのある訓練サンプルを使用してモデルを訓練するための例示的なシステムの概略図である。 図1のシステムの疑似ラベル生成器の例示的なコンポーネントの概略図である。 図のシステムの追加の例示的なコンポーネントの概略図である。 目標モデルを訓練するためのアルゴリズムの概略図である。 ラベルノイズが存在する状態でのロバストな訓練の方法のための動作の例示的な構成のフローチャートである。 ここに説明されるシステムおよび方法を実現するために使用され得る例示的なコンピューティングデバイスの概略図である。
さまざまな図面における同じ参照符号は、同じ要素を示す。
詳細な説明
最新のディープニューラルネットワークを高精度になるよう訓練することは通常、大量のラベル付き訓練データを必要とする。しかしながら、高品質のラベル付き訓練データを(たとえば人間の注釈を介して)取得するプロセスはしばしば困難であり、かつ費用がかかる。ノイズのある(すなわち不正確な)ラベルを用いる訓練データはしばしば、はるかに安価で取得されるため、ノイズのあるラベルを用いるデータセットからニューラルネットワークを訓練するための方法(たとえば、緩やかに制御された手順、クラウドソーシング、ウェブ検索、テキスト抽出など)は、研究の盛んな分野である。しかしながら、多くのディープニューラルネットワークは記憶のための大きな容量を有するため、ノイズのあるラベルが顕著になり、過剰適合を引き起こす場合がある。
従来の技術は主として、訓練データのセット全体が同じラベル付け技術を使用して取得される設定を考慮する。しかしながら、主要訓練セットを、信頼性の高いクリーンなラベルを含むより小さいデータセットで補うことが、しばしば有利である。より小さいデータセットは、主要訓練セットが極めてノイズのあるものであっても、モデルが高いロバスト性を実証するのを助け得る。
ここでの実現化例は、ノイズのあるラベルを用いたロバストなニューラルネットワーク訓練を提供するモデル訓練器に向けられる。モデル訓練器は、分離、拡大、および誘導(isolation, escalation, and guidance:IEG)という3つの主要戦略を実現する。モ
デル訓練器はまず、間違ってラベル付けされたデータがニューラルネットワーク訓練を間違った方向に導くのを防止するように訓練サンプルを再重み付けすることにより、ノイズのあるラベル付き訓練データとクリーンなラベル付き訓練データとを分離する。モデル訓練器は次に、間違ってラベル付けされたデータ内の情報を利用するために、疑似ラベルを介して、間違ってラベル付けされたデータからの監視を拡大する。最後に、モデル訓練器は、過剰適合を防止するように、強い正規化を用いる小さい信頼できる訓練データセットを使用して訓練を誘導する。
このため、モデル訓練器は、データごとの重要性を重み付けすることと、所与のラベルへの置換として疑似ラベルを使用して訓練データの監視される損失を漸進的に拡大することとを同時に学習するために、メタ学習ベースの再重み付け目的および再ラベル付け目的を実現する。モデル訓練器は、メタ再ラベル付けの初期化として機能するように、および、間違ってラベル付けされたデータからの監視を拡大するように、ラベル推定目的を使用する。監視されない正規化目的は、ラベル推定を強化し、表現学習全体を改良する。
図1を参照して、いくつかの実現化例では、例示的なシステム100は処理システム10を含む。処理システム10は、固定された、またはスケーラブル/柔軟なコンピューティングリソース12(たとえばデータ処理ハードウェア)および/またはストレージリソース14(たとえばメモリハードウェア)を有する、単一のコンピュータ、複数のコンピュータ、または分散システム(たとえばクラウド環境)であってもよい。処理システム10は、モデル訓練器110を実行する。モデル訓練器110は、入力データに基づいて予測を立てるように目標モデル150(たとえばディープニューラルネットワーク(deep neural network :DNN))を訓練する。たとえば、モデル訓練器110は、畳み込みニューラルネットワーク(convolutional neural network:CNN)を訓練する。モデル訓練器110は、1組のラベル付き訓練サンプル112、112Gについて目標モデル150を訓練する。ラベル付き訓練サンプルは、訓練データと、当該訓練データのためのラベルとの双方を含む。ラベルは、目標モデル150のための正しい結果の注釈または他の表示を含む。対照的に、ラベルなし訓練サンプルは、対応するラベルのない訓練データのみを含む。
たとえば、音声データを文字に起こすように訓練されるモデルのためのラベル付きデータは、当該音声データと、当該音声データの対応する文字起こしとを含む。同じ目標モデル150のためのラベルなしデータは、文字起こしのない当該音声データを含むであろう。ラベル付きデータを用いて、目標モデル150は、訓練サンプルに基づいて予測を立て、次に、当該予測をグラウンドトゥルースとして機能するラベルと比較して、当該予測がどれくらい正確だったかを判定してもよい。このため、各ラベル付き訓練サンプル112Gは、訓練データ114Gと、関連付けられた所与のラベル116Gとの双方を含む。
ラベル付き訓練サンプル112Gは、目標モデル150がその予測を立てるために必要とするあらゆるデータを表わしていてもよい。たとえば、訓練データ114Gは、(たとえば物体検出、分類などのための)画像データのフレーム、(たとえば文字起こし、音声認識などのための)音声データのフレーム、および/または(たとえば自然言語分類などのための)テキストを含んでいてもよい。いくつかの実現化例では、1組の訓練サンプル112Gの各訓練サンプル112Gは画像であり、所与のラベル116Gは当該画像のテキスト記述子である。ラベル付き訓練サンプル112Gは、処理システム10上(たとえばメモリハードウェア14内)に格納されてもよく、もしくは、別のエンティティからネットワークまたは他の通信チャネルを介して受信されてもよい。モデル訓練器110は、1組の訓練サンプル112Gからラベル付き訓練サンプル112Gをバッチ単位(すなわち、訓練の反復ごとに異なるバッチ)で選択してもよい。
モデル訓練器110は、疑似ラベル生成器210を含む。複数の訓練反復の各訓練反復中、および1組のラベル付き訓練サンプル112Gにおける各訓練サンプル112Gについて、疑似ラベル生成器210は、対応するラベル付き訓練サンプル112Gのための疑似ラベル116Pを生成する。疑似ラベル116Pは、疑似ラベル生成器210によって生成された疑似ラベル116Pを用いた訓練サンプル112Gの再ラベル付けを表わす。
ここで図2を参照して、いくつかの実現化例では、疑似ラベル生成器210は、サンプル拡張器220と、サンプル平均計算器230とを含む。サンプル拡張器220は、疑似ラベル生成器210が訓練サンプル112Gのための疑似ラベル116Pを生成すると、ラベル付き訓練サンプル112Gに基づいて複数の拡張された訓練サンプル112A、112Aa~nを生成する。サンプル拡張器220は、拡張された訓練サンプル112Aごとに異なる変更を入力された訓練サンプル112Gに導入することにより、拡張された訓練サンプル112Aを生成する。たとえば、サンプル拡張器220は、ラベル付き訓練サンプル112Gから拡張された訓練サンプル112Aを生成するために、予め定められた量またはランダムな量だけ、値を増加または減少させる。別の例として、ラベル付き訓練サンプル112Gが画像データのフレームを含む場合、サンプル拡張器220は、画像を回転させたり、画像をフリップしたり、画像をトリミングするなどしてもよい。サンプル拡張器220は、データを拡大するかまたはデータを攪乱させる他の従来の手段も使用してもよい。
拡張された訓練サンプル112Aにラベルを追加するために、疑似ラベル生成器210は、いくつかの例では、目標モデル150(すなわち、機械学習モデル)を使用して、拡張された訓練サンプル112Aの各々について、予測されるラベル222、220a~nを生成する。サンプル平均計算器230は、拡張された訓練サンプル112Aの各々について目標モデル150によって生成された各予測されるラベル222を平均化して、入力されたラベル訓練サンプル112Gのための疑似ラベル116Pを生成してもよい。すなわち、いくつかの実現化例では、疑似ラベル生成器210は、所与のラベル付き訓練サンプル112Gのために、複数の拡張された訓練サンプル112Aを生成し、拡張された訓練サンプル112Aの各々について予測されるラベル222を生成し、生成された拡張さ
れた訓練サンプル112Aの各々についての予測されるラベル222を平均化して、対応するラベル付き訓練サンプル112Gのための疑似ラベル116Pを生成する。
図1を再度参照して、モデル訓練器110は、重み推定器130も含む。重み推定器130は、各訓練反復中、1組の訓練サンプル112Gにおける各訓練サンプル112Gについて、訓練サンプル112Gの重み132を推定する。訓練サンプル112Gの重み132は、ラベル付き訓練サンプル112Gの所与のラベル116Gの精度を示す。たとえば、より高い重みは、所与のラベル116Gが正確である確率がより高いことを示す。このため、重み推定器130は、ラベル付き訓練サンプル112Gが間違ってラベル付けされる可能性を判定する。
いくつかの例では、重み推定器130は、ラベル付き訓練サンプル112Gから、および、1組の信頼できる訓練サンプル112Tからの信頼できる訓練サンプル112Tから目標モデル150によって立てられた予測に基づいて、重み132を判定する。モデル訓練器110は、信頼できるサンプル112Tの信頼できるラベル116Tは高品質であり、および/またはクリーンであると仮定する。すなわち、信頼できるラベル116Tは正確である。モデル訓練器110は、訓練された目標モデル150が1組の信頼できる訓練サンプル112Tに対する最高の性能を取得するように各ラベル付き訓練サンプル112Gについての最適な重み132を判定することにより、重み132を学習可能パラメータとして扱ってもよい。
重み132を判定することは(各更新ステップが収束まで目標モデル150を訓練することを必要とするため)計算上の費用(コスト)がかかるかもしれないため、オプションで、重み推定器130は、ラベル付き訓練サンプル112Gの最適な重み132のオンライン近似を判定することによって、重み132を推定する。オンライン近似は、確率的勾配降下最適化を使用することを含んでいてもよい。いくつかの実現化例では、最適な重み132は、目標モデル150の訓練損失を最小化する。すなわち、最適な重み132は、目標モデル150の最低の訓練損失をもたらす重みである。モデル訓練器110は、二次導関数を用いた逆伝搬に基づいて重み132を最適化してもよい。
サンプル区分器140は、各訓練サンプル112Gと、関連付けられた重み132と、関連付けられた疑似ラベル116Pとを受信する。サンプル区分器140は、重みしきい値142を含む。各ラベル付き訓練サンプル112Gについて、サンプル区分器140は、ラベル付き訓練サンプル112Gの重み132が重みしきい値142を満たすかどうかを判定する。たとえば、サンプル区分器140は、重み132が重みしきい値142を上回るかどうかを判定する。
ラベル付き訓練サンプル112Gの重み132が重みしきい値142を満たす場合、サンプル区分器140は、訓練サンプル112Gを、1組のクリーンにラベル付けされた訓練サンプル112Cに追加する。クリーンにラベル付けされた訓練サンプル112Cは、訓練データ114と、クリーンなラベル116C(すなわち、サンプル区分器140によってクリーンであると判定された所与のラベル116G)とを含む。ラベル付き訓練サンプル112Gの重み132が重みしきい値142を満たさない場合、サンプル区分器140は、ラベル付き訓練サンプル112Gを、1組の間違ってラベル付けされた訓練サンプル112Mに追加する。このため、間違ってラベル付けされたと思われる訓練サンプル112Gは、間違ってラベル付けされたデータからの監視を拡大するために、クリーンにラベル付けされたと思われる訓練サンプル112Gから分離される。
ノイズ比が高い(すなわち、ラベル付き訓練サンプルの112Gの多くがノイズを有する)場合、モデル訓練器によるメタ最適化ベースの再重み付けおよび再ラベル付けは、間
違った方向に導く最適化を効果的に防止する(すなわち、多くのラベル付き訓練サンプル112Gがゼロのまたはゼロに近い重み132を有するであろう)。しかしながら、間違ってラベル付けされた訓練サンプル112Mは依然として、貴重な訓練データを提供する場合がある。このため、かなりの量のデータを破棄する可能性を避けるために、間違ってラベル付けされた訓練サンプル112Mは、訓練データ114と、所与のラベル116Gの代わりに、関連付けられた疑似ラベル116Pとを含む。すなわち、間違ってラベル付けされた訓練サンプル112Mのために、疑似ラベル116Pが、所与のラベル116Gの代わりに用いられる。
いくつかの例では、モデル訓練器110は、対応する所与のラベル116Gを使用する1組のクリーンにラベル付けされた訓練サンプル112Cと、対応する疑似ラベル116Pを使用する1組の間違ってラベル付けされた訓練サンプル112Mとを用いて、目標モデル150を訓練する。目標モデル150は、上述のステップのうちのいくつかまたはすべてを繰り返す任意の数の訓練反復を使用して徐々に訓練されてもよい。
ここで図3を参照して、いくつかの実現化例では、モデル訓練器110は、凸結合生成器310を含む。凸結合生成器310は、訓練データ114と、関連付けられた信頼できるラベル116Tとを含む、1組の信頼できる訓練サンプル112Tを取得する。凸結合生成器310は、目標モデル150を訓練するための凸結合312を生成する。いくつかの例では、凸結合生成器310は、1組の信頼できる訓練サンプル112Tと1組のラベル付き訓練サンプル112GとにペアのMixUpを適用する。MixUp正規化は、モデル訓練器110が、過剰適合のおそれなく、信頼できる訓練サンプル112Tからの信頼できる情報を活用することを可能にする。MixUp正規化は、凸結合の形をした訓練サンプル112G、112TとMixUp係数とを使用して、追加の監視損失を構成する。
いくつかの例では、モデル訓練器110は、損失計算器320を含む。損失計算器320は、対応する所与のラベル116Gを使用する1組のクリーンにラベル付けされた訓練サンプル112Cに基づいて、第1の損失322、322aを判定する。損失計算器320は、対応する疑似ラベル116Pを使用する1組の間違ってラベル付けされた訓練サンプル112Mに基づいて、第2の損失322bを判定してもよい。損失計算器320は、1組の信頼できる訓練サンプル112Tの凸結合310aに基づいて、第3の損失322cを判定してもよく、1組のラベル付き訓練サンプル112Gの凸結合310bに基づいて、第4の損失322dを判定してもよい。いくつかの実現化例では、損失計算器320は、1組のラベル付き訓練サンプル112Gの所与のラベル116Gと1組のラベル付き訓練サンプル112Gの疑似ラベル116Pとの間のカルバック・ライブラー(KL)発散に基づいて、第5の損失322eを判定する。KL発散損失322eは、拡張された訓練サンプル112Aの矛盾を減少させることによって、疑似ラベル116Pの生成を鋭敏にする。これは、理想的な疑似ラベル116Pが正確なラベルにできるだけ近づくべきであるためである。拡張された訓練サンプル112Aについての予測が互いに矛盾することになっている(たとえば、訓練データ114の小さい変化が予測の大きい変化をもたらす)場合、疑似ラベル116Pからの寄与は、目標モデル150を識別的になるよう促さない。このため、KL発散損失322eは、疑似ラベル116Pの整合性を実施するのを助ける。
損失計算器320は、第1の損失322a、第2の損失322b、第3の損失322c、第4の損失322d、および第5の損失322eのうちの1つ以上に基づいて、総損失330を判定してもよい。いくつかの例では、損失322a~eのうちの1つ以上(すなわち、第3の損失322cおよび第4の損失322d)は、softmax交差エントロピー損失である。総損失330に基づいて、損失計算器320は、目標モデル150のモ
デルパラメータ340を更新する。損失計算器は、更新されたモデルパラメータ340を判定するために、総損失330に基づいてワンステップの確率的勾配を適用してもよい。
ここで図4を参照して、いくつかの実現化例では、モデル訓練器110は、目標モデル150を訓練するためのアルゴリズム400を実現する。ここで、モデル訓練器は、ラベル付き訓練サンプル112G(すなわちDu)と、信頼できる訓練サンプル112T(すなわちDp)とを、入力として受け入れる。モデル訓練器110は、各訓練反復(すなわち時間ステップt)について、目標モデル150のモデルパラメータ340を更新する。アルゴリズム400を使用して、モデル訓練器110は、ステップ1で拡張された訓練サンプル112Aを生成し、ステップ2で疑似ラベル116Pを推定または生成することによって、目標モデル150を訓練する。ステップ3で、モデル訓練器110は、最適な重み132を判定し、および/または、重み推定器130(すなわちλ)を更新する。ステップ4で、モデル訓練器110は、1組のラベル付き訓練サンプル112Gを、1組のクリーンにラベル付けされた訓練サンプル112Cと、1組の間違ってラベル付けされた訓練サンプル112Mとに分割する。ステップ5で、モデル訓練器はMixUp凸結合312を計算する。ステップ6で、モデル訓練器110は総損失330を判定し、ステップ6で、ワンステップの確率的勾配を実行して、次の訓練反復のための更新されたモデルパラメータ340を取得する。いくつかの例では、モデル訓練器110は、ワンステップの確率的勾配最適化中に運動量値を使用して厳密な運動量更新を判定する。
図5は、ラベルノイズが存在する状態でのロバストな訓練のための方法500のための動作の例示的な構成のフローチャートである。方法500は、動作502で、データ処理ハードウェア12で、1組のラベル付き訓練サンプル112Gを取得するステップを含む。各ラベル付き訓練サンプル112Gは、所与のラベル116Gに関連付けられる。動作504で、複数の訓練反復の各訓練反復中、方法500は、1組のラベル付き訓練サンプル112Gにおける各ラベル付き訓練サンプル112Gについて、データ処理ハードウェア12が、ラベル付き訓練サンプル112Gのための疑似ラベル116Pを生成することを含む。動作506で、方法500は、データ処理ハードウェア12が、所与のラベル116Gの精度を示すラベル付き訓練サンプル112Gの重み132を推定することを含む。
方法500は、動作508で、データ処理ハードウェア12が、ラベル付き訓練サンプル112Gの重み132が重みしきい値142を満たすかどうかを判定することを含む。ラベル付き訓練サンプル111Gの重み132が重みしきい値142を満たす場合、方法500は、動作510で、データ処理ハードウェア12が、ラベル付き訓練サンプル112Gを、1組のクリーンにラベル付けされた訓練サンプル112Cに追加することを含む。動作512で、方法500は、ラベル付き訓練サンプル112Gの重み132が重みしきい値142を満たさない場合、データ処理ハードウェア12が、ラベル付き訓練サンプル112Gを、1組の間違ってラベル付けされた訓練サンプル112Mに追加することを含む。動作514で、方法500は、データ処理ハードウェア12が、対応する所与のラベル116Gを使用する1組のクリーンにラベル付けされた訓練サンプル112Cと、対応する疑似ラベル116Pを使用する1組の間違ってラベル付けされた訓練サンプル112Mとを用いて、機械学習モデル150を訓練することを含む。
図6は、この文書で説明されるシステムおよび方法を実現するために使用され得る例示的なコンピューティングデバイス600の概略図である。コンピューティングデバイス600は、ラップトップ、デスクトップ、ワークステーション、携帯情報端末、サーバ、ブレードサーバ、メインフレーム、および他の適切なコンピュータといった、さまざまな形態のデジタルコンピュータを表わすよう意図されている。ここに示すコンポーネント、それらの接続および関係、ならびにそれらの機能は単なる例示であることが意図されており
、この文書で説明される、および/または請求項に記載されるこの発明の実現化例を限定するよう意図されてはいない。
コンピューティングデバイス600は、プロセッサ610と、メモリ620と、記憶装置630と、メモリ620および高速拡張ポート650に接続している高速インターフェイス/コントローラ640と、低速バス670および記憶装置630に接続している低速インターフェイス/コントローラ660とを含む。コンポーネント610、620、630、640、650、および660の各々は、さまざまなバスを使用して相互接続されており、共通のマザーボード上にまたは他の態様で適宜搭載されてもよい。プロセッサ610は、コンピューティングデバイス600内で実行される命令を処理可能であり、これらの命令は、グラフィカルユーザインターフェイス(graphical user interface:GUI)のためのグラフィック情報を、高速インターフェイス640に結合されたディスプレイ680などの外部入力/出力デバイス上に表示するために、メモリ620内または記憶装置630上に格納された命令を含む。他の実現化例では、複数のプロセッサおよび/または複数のバスが、複数のメモリおよび複数のタイプのメモリとともに適宜使用されてもよい。また、複数のコンピューティングデバイス600が接続されてもよく、各デバイスは(たとえば、サーババンク、ブレードサーバのグループ、またはマルチプロセッサシステムとして)必要な動作の部分を提供する。
メモリ620は、情報をコンピューティングデバイス600内に非一時的に格納する。メモリ620は、コンピュータ読取可能媒体、揮発性メモリユニット、または不揮発性メモリユニットであってもよい。非一時的メモリ620は、プログラム(たとえば命令のシーケンス)またはデータ(たとえばプログラム状態情報)を、コンピューティングデバイス600による使用のために一時的または永続的に格納するために使用される物理デバイスであってもよい。不揮発性メモリの例は、フラッシュメモリおよび読出専用メモリ(read-only memory:ROM)/プログラマブル読出専用メモリ(programmable read-only memory:PROM)/消去可能プログラマブル読出専用メモリ(erasable programmable read-only memory:EPROM)/電子的消去可能プログラマブル読出専用メモリ(electronically erasable programmable read-only memory:EEPROM)(たとえば、典型的にはブートプログラムなどのファームウェアのために使用される)を含むものの、それらに限定されない。揮発性メモリの例は、ランダムアクセスメモリ(random access memory:RAM)、ダイナミックランダムアクセスメモリ(dynamic random access memory:DRAM)、スタティックランダムアクセスメモリ(static random access memory:S
RAM)、相変化メモリ(phase change memory:PCM)、およびディスクまたはテー
プを含むものの、それらに限定されない。
記憶装置630は、コンピューティングデバイス600のための大容量記憶を提供可能である。いくつかの実現化例では、記憶装置630は、コンピュータ読取可能媒体である。さまざまな異なる実現化例では、記憶装置630は、フロッピー(登録商標)ディスクデバイス、ハードディスクデバイス、光ディスクデバイス、もしくはテープデバイス、フラッシュメモリまたは他の同様のソリッドステートメモリデバイス、もしくは、ストレージエリアネットワークまたは他の構成におけるデバイスを含むデバイスのアレイであってもよい。追加の実現化例では、コンピュータプログラム製品が情報担体において有形に具現化される。コンピュータプログラム製品は、実行されると上述のような1つ以上の方法を行なう命令を含む。情報担体は、メモリ620、記憶装置630、またはプロセッサ610上のメモリといった、コンピュータ読取可能媒体または機械読取可能媒体である。
高速コントローラ640はコンピューティングデバイス600のための帯域幅集約的な動作を管理し、一方、低速コントローラ660はより低い帯域幅集約的な動作を管理する。役目のそのような割当ては例示に過ぎない。いくつかの実現化例では、高速コントロー
ラ640は、メモリ620、ディスプレイ680に(たとえば、グラフィックスプロセッサまたはアクセラレータを介して)結合されるとともに、さまざまな拡張カード(図示せず)を受け付け得る高速拡張ポート650に結合される。いくつかの実現化例では、低速コントローラ660は、記憶装置630および低速拡張ポート690に結合される。さまざまな通信ポート(たとえば、USB、ブルートゥース(登録商標)、イーサネット(登録商標)、無線イーサネット)を含み得る低速拡張ポート690は、キーボード、ポインティングデバイス、スキャナなどの1つ以上の入力/出力デバイスに、もしくは、スイッチまたはルータなどのネットワーキングデバイスに、たとえばネットワークアダプタを介して結合されてもよい。
コンピューティングデバイス600は、図に示すように多くの異なる形態で実現されてもよい。たとえばそれは、標準サーバ600aとして、またはそのようなサーバ600aのグループで複数回実現されてもよく、ラップトップコンピュータ600bとして、またはラックサーバシステム600cの一部として実現されてもよい。
ここに説明されるシステムおよび技術のさまざまな実現化例は、デジタル電子および/または光学回路、集積回路、特別に設計されたASIC(application specific integrated circuit:特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、
ソフトウェア、および/またはそれらの組合せにおいて実現され得る。これらのさまざまな実現化例は、データおよび命令を記憶システムとの間で送受信するように結合された、専用または汎用であり得る少なくとも1つのプログラマブルプロセッサと、少なくとも1つの入力デバイスと、少なくとも1つの出力デバイスとを含むプログラマブルシステム上で実行可能および/または解釈可能である1つ以上のコンピュータプログラムにおける実現を含み得る。
ソフトウェアアプリケーション(すなわち、ソフトウェアリソース)とは、コンピューティングデバイスにタスクを行なわせるコンピュータソフトウェアを指していてもよい。いくつかの例では、ソフトウェアアプリケーションは、「アプリケーション」、「アプリ」、または「プログラム」と呼ばれてもよい。例示的なアプリケーションは、システム診断アプリケーション、システム管理アプリケーション、システム保守アプリケーション、文書処理アプリケーション、表計算アプリケーション、メッセージングアプリケーション、メディアストリーミングアプリケーション、ソーシャルネットワーキングアプリケーション、およびゲーミングアプリケーションを含むものの、それらに限定されない。
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、またはコードとしても知られている)は、プログラマブルプロセッサのための機械命令を含み、高レベルの手続き型および/またはオブジェクト指向プログラミング言語で、および/またはアセンブリ/機械語で実現され得る。ここに使用されるように、「機械読取可能媒体」および「コンピュータ読取可能媒体」という用語は、機械命令および/またはデータをプログラマブルプロセッサに提供するために使用される任意のコンピュータプログラム製品、非一時的コンピュータ読取可能媒体、機器および/またはデバイス(たとえば磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(Programmable Logic Device:PLD))を指し、機械命令を機械読取可能信号として受信す
る機械読取可能媒体を含む。「機械読取可能信号」という用語は、機械命令および/またはデータをプログラマブルプロセッサに提供するために使用される任意の信号を指す。
この明細書で説明されるプロセスおよび論理フローは、データ処理ハードウェアとも呼ばれる1つ以上のプログラマブルプロセッサが、入力データに基づいて動作することおよび出力を生成することによって機能を行なうために1つ以上のコンピュータプログラムを実行することによって行なわれ得る。プロセスおよび論理フローはまた、たとえばFPG
A(field programmable gate array:フィールドプログラマブルゲートアレイ)または
ASIC(特定用途向け集積回路)といった専用論理回路によって行なわれ得る。コンピュータプログラムの実行にとって好適であるプロセッサは、一例として、汎用および専用マイクロプロセッサと、任意の種類のデジタルコンピュータの任意の1つ以上のプロセッサとを含む。一般に、プロセッサは、命令およびデータを、読出専用メモリまたはランダムアクセスメモリまたはそれら双方から受信するであろう。コンピュータの本質的要素は、命令を行なうためのプロセッサと、命令およびデータを格納するための1つ以上のメモリデバイスとである。一般に、コンピュータはまた、たとえば磁気ディスク、光磁気ディスク、または光ディスクといった、データを格納するための1つ以上の大容量記憶装置を含むであろう。もしくは、当該大容量記憶装置からデータを受信し、または当該大容量記憶装置にデータを転送し、またはそれら双方を行なうように動作可能に結合されるであろう。しかしながら、コンピュータは、そのようなデバイスを有する必要はない。コンピュータプログラム命令およびデータを格納するのに好適であるコンピュータ読取可能媒体は、あらゆる形態の不揮発性メモリ、媒体、およびメモリデバイスを含み、一例として、半導体メモリ装置、たとえばEPROM、EEPROM、およびフラッシュメモリデバイス;磁気ディスク、たとえば内部ハードディスクまたはリムーバブルディスク;光磁気ディスク;ならびに、CD ROMおよびDVD-ROMディスクを含む。プロセッサおよびメモリは、専用論理回路によって補足され、または専用論理回路に組込まれ得る。
ユーザとの相互作用を提供するために、この開示の1つ以上の局面は、情報をユーザに表示するためのディスプレイデバイス、たとえばCRT(cathode ray tube:陰極線管)、LCD(liquid crystal display:液晶ディスプレイ)モニター、またはタッチスクリーンと、オプションで、ユーザがコンピュータへの入力を提供できるようにするキーボードおよびポインティングデバイス、たとえばマウスまたはトラックボールとを有するコンピュータ上で実現され得る。他の種類のデバイスも同様に、ユーザとの相互作用を提供するために使用され得る。たとえば、ユーザに提供されるフィードバックは、任意の形態の感覚フィードバック、たとえば視覚フィードバック、聴覚フィードバック、または触覚フィードバックであり得る。また、ユーザからの入力は、音響入力、音声入力、または触覚入力を含む任意の形態で受信され得る。加えて、コンピュータは、ユーザによって使用されるデバイスに文書を送信し、当該デバイスから文書を受信することによって、たとえば、ユーザのクライアントデバイス上のウェブブラウザから受信された要求に応答してウェブページを当該ウェブブラウザに送信することによって、ユーザと相互作用することができる。
多くの実現化例が説明されてきた。にもかかわらず、この開示の精神および範囲から逸脱することなく、さまざまな変更を行なってもよいということが理解されるであろう。したがって、他の実現化例は、請求の範囲内にある。
いくつかの例では、モデル訓練器110は、損失計算器320を含む。損失計算器320は、対応する所与のラベル116Gを使用する1組のクリーンにラベル付けされた訓練サンプル112Cに基づいて、第1の損失322、322aを判定する。損失計算器320は、対応する疑似ラベル116Pを使用する1組の間違ってラベル付けされた訓練サンプル112Mに基づいて、第2の損失322bを判定してもよい。損失計算器320は、1組の信頼できる訓練サンプル112Tの凸結合31aに基づいて、第3の損失322cを判定してもよく、1組のラベル付き訓練サンプル112Gの凸結合31bに基づいて、第4の損失322dを判定してもよい。いくつかの実現化例では、損失計算器320は、1組のラベル付き訓練サンプル112Gの所与のラベル116Gと1組のラベル付き訓練サンプル112Gの疑似ラベル116Pとの間のカルバック・ライブラー(KL)発散に基づいて、第5の損失322eを判定する。KL発散損失322eは、拡張された訓練サンプル112Aの矛盾を減少させることによって、疑似ラベル116Pの生成を鋭敏にする。これは、理想的な疑似ラベル116Pが正確なラベルにできるだけ近づくべきであるためである。拡張された訓練サンプル112Aについての予測が互いに矛盾することになっている(たとえば、訓練データ114の小さい変化が予測の大きい変化をもたらす)場合、疑似ラベル116Pからの寄与は、目標モデル150を識別的になるよう促さない。このため、KL発散損失322eは、疑似ラベル116Pの整合性を実施するのを助ける。
ここで図4を参照して、いくつかの実現化例では、モデル訓練器110は、目標モデル150を訓練するためのアルゴリズム400を実現する。ここで、モデル訓練器は、ラベル付き訓練サンプル112G(すなわちDu)と、信頼できる訓練サンプル112T(すなわちDp)とを、入力として受け入れる。モデル訓練器110は、各訓練反復(すなわち時間ステップt)について、目標モデル150のモデルパラメータ340を更新する。アルゴリズム400を使用して、モデル訓練器110は、ステップ1で拡張された訓練サンプル112Aを生成し、ステップ2で疑似ラベル116Pを推定または生成することによって、目標モデル150を訓練する。ステップ3で、モデル訓練器110は、最適な重み132を判定し、および/または、重み推定器130(すなわちλ)を更新する。ステップ4で、モデル訓練器110は、1組のラベル付き訓練サンプル112Gを、1組のクリーンにラベル付けされた訓練サンプル112Cと、1組の間違ってラベル付けされた訓練サンプル112Mとに分割する。ステップ5で、モデル訓練器はMixUp凸結合312を計算する。ステップ6で、モデル訓練器110は総損失330を判定し、ステップで、ワンステップの確率的勾配を実行して、次の訓練反復のための更新されたモデルパラメータ340を取得する。いくつかの例では、モデル訓練器110は、ワンステップの確率的勾配最適化中に運動量値を使用して厳密な運動量更新を判定する。

Claims (20)

  1. 機械学習モデル(150)を訓練するための方法(500)であって、前記方法(500)は、
    データ処理ハードウェア(12)で、1組のラベル付き訓練サンプル(112G)を取得するステップを含み、各ラベル付き訓練サンプル(112G)は所与のラベル(116G)に関連付けられており、前記方法(500)はさらに、
    複数の訓練反復の各訓練反復中、
    前記1組のラベル付き訓練サンプル(112G)における各ラベル付き訓練サンプル(112G)について、
    前記データ処理ハードウェア(12)が、前記ラベル付き訓練サンプル(112G)のための疑似ラベル(116P)を生成するステップと、
    前記データ処理ハードウェア(12)が、前記所与のラベル(116G)の精度を示す前記ラベル付き訓練サンプル(112G)の重み(132)を推定するステップと、
    前記データ処理ハードウェア(12)が、前記ラベル付き訓練サンプル(112G)の前記重み(132)が重みしきい値(142)を満たすかどうかを判定するステップと、
    前記ラベル付き訓練サンプル(112G)の前記重み(132)が前記重みしきい値(142)を満たす場合、前記データ処理ハードウェア(12)が、前記ラベル付き訓練サンプル(112G)を、1組のクリーンにラベル付けされた訓練サンプル(112C)に追加するステップと、
    前記ラベル付き訓練サンプル(112G)の前記重み(132)が前記重みしきい値(142)を満たさない場合、前記データ処理ハードウェア(12)が、前記ラベル付き訓練サンプル(112G)を、1組の間違ってラベル付けされた訓練サンプル(112M)に追加するステップと、
    前記データ処理ハードウェア(12)が、対応する所与のラベル(116G)を使用する前記1組のクリーンにラベル付けされた訓練サンプル(112C)と、対応する疑似ラベル(116P)を使用する前記1組の間違ってラベル付けされた訓練サンプル(112M)とを用いて、前記機械学習モデル(150)を訓練するステップとを含む、方法。
  2. 前記ラベル付き訓練サンプル(112G)のための前記疑似ラベル(116P)を生成するステップは、
    前記ラベル付き訓練サンプル(112G)に基づいて複数の拡張された訓練サンプル(112A)を生成するステップと、
    各拡張された訓練サンプル(112A)について、前記機械学習モデル(150)を使用して、予測されるラベル(222)を生成するステップと、
    対応する前記ラベル付き訓練サンプル(112G)のための前記疑似ラベル(116P)を生成するために、前記複数の拡張された訓練サンプル(112A)の各拡張された訓練サンプル(112A)について生成された各予測されるラベル(222)を平均化するステップとを含む、請求項1に記載の方法(500)。
  3. 前記ラベル付き訓練サンプル(112G)の前記重み(132)を推定するステップは、前記ラベル付き訓練サンプル(112G)の最適な重み(132)のオンライン近似を判定するステップを含む、請求項1または2に記載の方法(500)。
  4. 前記ラベル付き訓練サンプル(112G)の前記最適な重み(132)の前記オンライン近似を判定するステップは、確率的勾配降下最適化を使用するステップを含む、請求項3に記載の方法(500)。
  5. 前記最適な重み(132)は、前記機械学習モデル(150)の訓練損失(322)を最小化する、請求項3または4に記載の方法(500)。
  6. 前記機械学習モデル(150)を訓練するステップは、
    1組の信頼できる訓練サンプル(112T)を取得するステップを含み、各信頼できる訓練サンプル(112T)は信頼できるラベル(116T)に関連付けられており、前記機械学習モデル(150)を訓練するステップはさらに、
    前記1組の信頼できる訓練サンプル(112T)と前記1組のラベル付き訓練サンプル(112G)とを使用して凸結合(312)を生成するステップを含む、請求項1~5のいずれか1項に記載の方法(500)。
  7. 前記凸結合(312)を生成するステップは、前記1組の信頼できる訓練サンプル(112T)と前記1組のラベル付き訓練サンプル(112G)とにペアのMixUpを適用するステップを含む、請求項6に記載の方法(500)。
  8. 前記機械学習モデル(150)を訓練するステップはさらに、
    対応する所与のラベル(116G)を使用する前記1組のクリーンにラベル付けされた訓練サンプル(112C)に基づいて、第1の損失(322a)を判定するステップと、
    対応する疑似ラベル(116P)を使用する前記1組の間違ってラベル付けされた訓練サンプル(112M)に基づいて、第2の損失(322b)を判定するステップと、
    前記1組の信頼できる訓練サンプル(112T)の前記凸結合(312)に基づいて、第3の損失(322c)を判定するステップと、
    前記1組のラベル付き訓練サンプル(112G)の前記凸結合(312)に基づいて、第4の損失(322d)を判定するステップと、
    前記1組のラベル付き訓練サンプル(112G)の前記所与のラベル(116G)と前記1組のラベル付き訓練サンプル(112G)の前記疑似ラベル(116P)との間のカルバック・ライブラー発散に基づいて、第5の損失(322e)を判定するステップと、
    前記第1の損失(322a)、前記第2の損失(322b)、前記第3の損失(322c)、前記第4の損失(322d)、および前記第5の損失(322e)に基づいて、総損失(330)を判定するステップとを含む、請求項6または7に記載の方法(500)。
  9. 前記第3の損失(322c)および前記第4の損失(322d)は、softmax交差エントロピー損失である、請求項8に記載の方法(500)。
  10. 前記1組のラベル付き訓練サンプル(112G)の各ラベル付き訓練サンプル(112G)は画像であり、前記所与のラベル(116G)は前記画像のテキスト記述子である、請求項1~9のいずれか1項に記載の方法(500)。
  11. システム(100)であって、
    データ処理ハードウェア(12)と、
    前記データ処理ハードウェア(12)と通信しているメモリハードウェア(14)とを含み、前記メモリハードウェア(14)は、前記データ処理ハードウェア(12)上で実行されると前記データ処理ハードウェア(12)に動作を行なわせる命令を格納しており、前記動作は、
    1組のラベル付き訓練サンプル(112G)を取得することを含み、各ラベル付き訓練サンプル(112G)は所与のラベル(116G)に関連付けられており、前記動作はさらに、
    複数の訓練反復の各訓練反復中、
    前記1組のラベル付き訓練サンプル(112G)における各ラベル付き訓練サンプル
    (112G)について、
    前記ラベル付き訓練サンプル(112G)のための疑似ラベル(116P)を生成することと、
    前記所与のラベル(116G)の精度を示す前記ラベル付き訓練サンプル(112G)の重み(132)を推定することと、
    前記ラベル付き訓練サンプル(112G)の前記重み(132)が重みしきい値(142)を満たすかどうかを判定することと、
    前記ラベル付き訓練サンプル(112G)の前記重み(132)が前記重みしきい値(142)を満たす場合、前記ラベル付き訓練サンプル(112G)を、1組のクリーンにラベル付けされた訓練サンプル(112C)に追加することと、
    前記ラベル付き訓練サンプル(112G)の前記重み(132)が前記重みしきい値(142)を満たさない場合、前記ラベル付き訓練サンプル(112G)を、1組の間違ってラベル付けされた訓練サンプル(112M)に追加することと、
    対応する所与のラベル(116G)を使用する前記1組のクリーンにラベル付けされた訓練サンプル(112C)と、対応する疑似ラベル(116P)を使用する前記1組の間違ってラベル付けされた訓練サンプル(112M)とを用いて、機械学習モデル(150)を訓練することとを含む、システム。
  12. 前記ラベル付き訓練サンプル(112G)のための前記疑似ラベル(116P)を生成することは、
    前記ラベル付き訓練サンプル(112G)に基づいて複数の拡張された訓練サンプル(112A)を生成することと、
    各拡張された訓練サンプル(112A)について、前記機械学習モデル(150)を使用して、予測されるラベル(222)を生成することと、
    対応する前記ラベル付き訓練サンプル(112G)のための前記疑似ラベル(116P)を生成するために、前記複数の拡張された訓練サンプル(112A)の各拡張された訓練サンプル(112A)について生成された各予測されるラベル(222)を平均化することとを含む、請求項11に記載のシステム(100)。
  13. 前記ラベル付き訓練サンプル(112G)の前記重み(132)を推定することは、前記ラベル付き訓練サンプル(112G)の最適な重み(132)のオンライン近似を判定することを含む、請求項11または12に記載のシステム(100)。
  14. 前記ラベル付き訓練サンプル(112G)の前記最適な重み(132)の前記オンライン近似を判定することは、確率的勾配降下最適化を使用することを含む、請求項13に記載のシステム(100)。
  15. 前記最適な重み(132)は、前記機械学習モデル(150)の訓練損失(322)を最小化する、請求項13または14に記載のシステム(100)。
  16. 前記機械学習モデル(150)を訓練することは、
    1組の信頼できる訓練サンプル(112T)を取得することを含み、各信頼できる訓練サンプル(112T)は信頼できるラベル(116T)に関連付けられており、前記機械学習モデル(150)を訓練することはさらに、
    前記1組の信頼できる訓練サンプル(112T)と前記1組のラベル付き訓練サンプル(112G)とを使用して凸結合(312)を生成することを含む、請求項11~15のいずれか1項に記載のシステム(100)。
  17. 前記凸結合(312)を生成することは、前記1組の信頼できる訓練サンプル(112T)と前記1組のラベル付き訓練サンプル(112G)とにペアのMixUpを適用する
    ことを含む、請求項16に記載のシステム(100)。
  18. 前記機械学習モデル(150)を訓練することはさらに、
    対応する所与のラベル(116G)を使用する前記1組のクリーンにラベル付けされた訓練サンプル(112C)に基づいて、第1の損失(322a)を判定することと、
    対応する疑似ラベル(116P)を使用する前記1組の間違ってラベル付けされた訓練サンプル(112M)に基づいて、第2の損失(322b)を判定することと、
    前記1組の信頼できる訓練サンプル(112T)の前記凸結合(312)に基づいて、第3の損失(322c)を判定することと、
    前記1組のラベル付き訓練サンプル(112G)の前記凸結合(312)に基づいて、第4の損失(322d)を判定することと、
    前記1組のラベル付き訓練サンプル(112G)の前記所与のラベル(116G)と前記1組のラベル付き訓練サンプル(112G)の前記疑似ラベル(116P)との間のカルバック・ライブラー発散に基づいて、第5の損失(322e)を判定することと、
    前記第1の損失(322a)、前記第2の損失(322b)、前記第3の損失(322c)、前記第4の損失(322d)、および前記第5の損失(322e)に基づいて、総損失(330)を判定することとを含む、請求項16または17に記載のシステム(100)。
  19. 前記第3の損失(322c)および前記第4の損失(322d)は、softmax交差エントロピー損失である、請求項18に記載のシステム(100)。
  20. 前記1組のラベル付き訓練サンプル(112G)の各ラベル付き訓練サンプル(112G)は画像であり、前記所与のラベル(116G)は前記画像のテキスト記述子である、請求項11~19のいずれか1項に記載のシステム(100)。
JP2023102500A 2019-09-20 2023-06-22 ラベルノイズが存在する状態でのロバストな訓練 Pending JP2023134499A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962903413P 2019-09-20 2019-09-20
US62/903,413 2019-09-20
JP2022517892A JP7303377B2 (ja) 2019-09-20 2020-09-19 ラベルノイズが存在する状態でのロバストな訓練
PCT/US2020/051698 WO2021055904A1 (en) 2019-09-20 2020-09-19 Robust training in the presence of label noise

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022517892A Division JP7303377B2 (ja) 2019-09-20 2020-09-19 ラベルノイズが存在する状態でのロバストな訓練

Publications (1)

Publication Number Publication Date
JP2023134499A true JP2023134499A (ja) 2023-09-27

Family

ID=72886161

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022517892A Active JP7303377B2 (ja) 2019-09-20 2020-09-19 ラベルノイズが存在する状態でのロバストな訓練
JP2023102500A Pending JP2023134499A (ja) 2019-09-20 2023-06-22 ラベルノイズが存在する状態でのロバストな訓練

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2022517892A Active JP7303377B2 (ja) 2019-09-20 2020-09-19 ラベルノイズが存在する状態でのロバストな訓練

Country Status (6)

Country Link
US (2) US20210089964A1 (ja)
EP (1) EP4032026A1 (ja)
JP (2) JP7303377B2 (ja)
KR (1) KR20220062065A (ja)
CN (1) CN114424210A (ja)
WO (1) WO2021055904A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210166080A1 (en) * 2019-12-02 2021-06-03 Accenture Global Solutions Limited Utilizing object oriented programming to validate machine learning classifiers and word embeddings
US11640345B1 (en) * 2020-05-15 2023-05-02 Amazon Technologies, Inc. Safe reinforcement learning model service
US11710168B2 (en) * 2020-11-30 2023-07-25 Beijing Wodong Tianjun Information Technology Co., Ltd. System and method for scalable tag learning in e-commerce via lifelong learning
US20220309292A1 (en) * 2021-03-12 2022-09-29 International Business Machines Corporation Growing labels from semi-supervised learning
US20240211768A1 (en) * 2021-04-28 2024-06-27 Telefonaktiebolaget Lm Ericsson (Publ) Signaling of training policies
CN113378895B (zh) * 2021-05-24 2024-03-01 成都欧珀通信科技有限公司 一种分类模型生成方法、装置、存储介质及电子设备
JP2022190289A (ja) * 2021-06-14 2022-12-26 株式会社日立製作所 画像認識支援装置、画像認識支援方法、及び画像認識支援プログラム
CN113255849B (zh) * 2021-07-14 2021-10-01 南京航空航天大学 一种基于双重主动查询的标签带噪图像学习方法
CN113688986A (zh) * 2021-08-25 2021-11-23 深圳前海微众银行股份有限公司 纵向联邦预测优化方法、设备、介质及计算机程序产品
CN113470031B (zh) * 2021-09-03 2021-12-03 北京字节跳动网络技术有限公司 息肉分型方法、模型训练方法及相关装置
CN113505120B (zh) * 2021-09-10 2021-12-21 西南交通大学 一种大规模人脸数据集的双阶段噪声清洗方法
CN118043885A (zh) * 2021-09-30 2024-05-14 谷歌有限责任公司 用于半监督语音识别的对比孪生网络
CN113989579A (zh) * 2021-10-27 2022-01-28 腾讯科技(深圳)有限公司 图像检测方法、装置、设备以及存储介质
CN114881129A (zh) * 2022-04-25 2022-08-09 北京百度网讯科技有限公司 一种模型训练方法、装置、电子设备及存储介质
CN114638322B (zh) * 2022-05-20 2022-09-13 南京大学 开放场景下基于给定描述的全自动目标检测系统和方法
CN115496924A (zh) * 2022-09-29 2022-12-20 北京瑞莱智慧科技有限公司 一种数据处理方法、相关设备及存储介质
CN115618237A (zh) * 2022-12-12 2023-01-17 支付宝(杭州)信息技术有限公司 一种模型训练的方法、装置、存储介质及电子设备

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009110064A (ja) * 2007-10-26 2009-05-21 Toshiba Corp 分類モデル学習装置および分類モデル学習方法
JP6729457B2 (ja) * 2017-03-16 2020-07-22 株式会社島津製作所 データ解析装置
US11436428B2 (en) * 2017-06-06 2022-09-06 Sightline Innovation Inc. System and method for increasing data quality in a machine learning process
JP7197971B2 (ja) * 2017-08-31 2022-12-28 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
JP6647632B2 (ja) * 2017-09-04 2020-02-14 株式会社Soat 機械学習用訓練データの生成
US11238365B2 (en) * 2017-12-29 2022-02-01 Verizon Media Inc. Method and system for detecting anomalies in data labels
US11669724B2 (en) * 2018-05-17 2023-06-06 Raytheon Company Machine learning using informed pseudolabels
US10937169B2 (en) * 2018-12-18 2021-03-02 Qualcomm Incorporated Motion-assisted image segmentation and object detection

Also Published As

Publication number Publication date
WO2021055904A1 (en) 2021-03-25
JP2022548952A (ja) 2022-11-22
US20210089964A1 (en) 2021-03-25
KR20220062065A (ko) 2022-05-13
EP4032026A1 (en) 2022-07-27
CN114424210A (zh) 2022-04-29
US20230351192A1 (en) 2023-11-02
JP7303377B2 (ja) 2023-07-04

Similar Documents

Publication Publication Date Title
JP7303377B2 (ja) ラベルノイズが存在する状態でのロバストな訓練
US10606982B2 (en) Iterative semi-automatic annotation for workload reduction in medical image labeling
JP7507287B2 (ja) サンプル一致度評価による能動学習
JP7304488B2 (ja) 強化学習ベースの局所解釈可能モデル
US11823058B2 (en) Data valuation using reinforcement learning
JP2023549070A (ja) 意味特徴の学習を介したUnseenドメインからの顔認識
US20210034976A1 (en) Framework for Learning to Transfer Learn
JP2023116599A (ja) 距離に基づく学習信頼度モデル
JP7513804B2 (ja) 強化学習を用いたデータ評価
US20230245302A1 (en) Image scoring using error prediction
WO2024063937A1 (en) Leveraging intermediate checkpoints to improve the performance of trained differentially private models

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230711

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230711