JP2019507442A - 機械学習システムのトレーニング方法及びトレーニングシステム - Google Patents

機械学習システムのトレーニング方法及びトレーニングシステム Download PDF

Info

Publication number
JP2019507442A
JP2019507442A JP2018546445A JP2018546445A JP2019507442A JP 2019507442 A JP2019507442 A JP 2019507442A JP 2018546445 A JP2018546445 A JP 2018546445A JP 2018546445 A JP2018546445 A JP 2018546445A JP 2019507442 A JP2019507442 A JP 2019507442A
Authority
JP
Japan
Prior art keywords
loss function
training
current
function value
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018546445A
Other languages
English (en)
Other versions
JP7004661B2 (ja
Inventor
ジュン ジョウ
ジュン ジョウ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Group Holding Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Publication of JP2019507442A publication Critical patent/JP2019507442A/ja
Application granted granted Critical
Publication of JP7004661B2 publication Critical patent/JP7004661B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/045Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Numerical Control (AREA)

Abstract

機械学習システムのトレーニング方法及びトレーニングシステムを本出願に開示する。機械学習システムをトレーニングするためにトレーニングデータが使用される。トレーニング方法は、トレーニングデータを複数の作業マシンに割り当てることと、各作業マシンによって割り当てられたトレーニングデータを複数のデータに分割することと、各データを基に各作業マシンによって計算されたローカル重み及びローカル損失関数値を取得することと、各データを基に各作業マシンによって計算されたローカル重み及びローカル損失関数値を集計して現在の重み及び現在の損失関数値を取得することと、現在の重み及び/または現在の損失関数値を使用してモデル異常検出を行うことと、モデル異常検出の結果が第1のタイプの異常であることに応じて、トレーニング用の機械学習システムに前回の集計の重み及び損失関数値を入力することと、モデル異常検出の結果が第2のタイプの異常であることに応じて、現在の重み及び/または現在の損失関数値を第1の閾値内にある現在の重み及び/または現在の損失関数値に修正し、トレーニング用の機械学習システムにそれらを入力することとを含む。

Description

本出願は、ビッグデータ処理の技術分野に関し、特に、機械学習システムのトレーニング方法及びシステムに関する。
今日、優れたサービスをユーザに提供することは、全てのインターネット企業が達成しようとする目標である。このため、大半の企業は、機械学習を使用してユーザの好み及び習慣を把握し、個別サービスを提供している。例えば、各ウェブサイトは、ユーザの好みに応じて最大限にサービスを提供するために、機械学習システムを使用してユーザのオンライン行動データを収集し、異なる性別/年齢のユーザに異なる検索結果を提供することができる。
上記の機械学習システムは、ユーザブラウジング/クリック/購入/トップポスティング/ポストへのコメント投稿等などの多数のユーザの行動データを収集し、いくつかの機械学習アルゴリズムを使用して機械学習システムをオフラインでトレーニングすることができる。予測モデルを取得した後、予測モデルをオンラインシステムに配置して、ユーザにサービスを提供する。例えば、Amazonの推奨システムでは、ユーザの好みを学習後、ユーザの過去の行動履歴(昨日の履歴及び昨日から2週間以外を含むなど)に基づいて、様々なユーザに様々な製品を推奨することができる。
この方法は、過去のユーザの行動データを使用してオフラインでトレーニングを行ってモデルを取得するものであり、オフライン学習と呼ばれる。ただし、通常の状況では、ユーザの行動及び関心は1日以内に大幅に変化する可能性がある。オフライン学習システムでユーザによって生成された履歴はトレーニング用のシステムにすぐには追加できないため、当然ながら、オフライン学習はこの変化を把握することができない。
オンライン学習とは、新しいトレーニングデータが受信される度に、モデルが継続的にモデル自体を更新することを意味し、したがって、より優れた結果を得ることができる。オンライン学習の精度は比較的高いが、データ収集期間が比較的短いため、モデルはデータ内のノイズの影響を受けやすく、これによりモデルのトレーニングが不安定になる。同時に、オンライン学習では非同期更新モデルの手法が採用されているため、トレーニングデータはモデルに継続的に流入し、モデルは常に更新されて学習する。モデルのトレーニングは、特定の制御不能な問題により中断することが多く、トレーニングが失敗することがある。その結果、使用可能なモデルの生成が失敗するため、オンラインサービスに影響が生じ、ユーザ体験が損なわれる。
上記の問題に鑑みて、本出願の実施形態は、上記の問題を解決するか、または上記の問題を少なくとも部分的に解決する機械学習システムのトレーニング方法及びトレーニングシステムを提供するように提案される。
上記の問題を解決するために、本出願は機械学習システムのトレーニング方法を開示し、これはトレーニングデータを使用して機械学習システムをトレーニングするものである。トレーニング方法は、トレーニングデータを複数の作業マシンに割り当てることと、各作業マシンによって割り当てられたトレーニングデータを複数のデータに分割することと、各データを基に各作業マシンによって計算されたローカル重み及びローカル損失関数値を取得することと、各データを基に各作業マシンによって計算されたローカル重み及びローカル損失関数値を集計して現在の重み及び現在の損失関数値を取得することと、現在の重み及び/または現在の損失関数値を使用してモデル異常検出を行うことと、モデル異常検出の結果が第1のタイプの異常であることに応じて、トレーニング用の機械学習システムに前回の集計の重み及び損失関数値を入力することと、モデル異常検出の結果が第2のタイプの異常であることに応じて、現在の重み及び/または現在の損失関数値を第1の閾値内にある現在の重み及び/または現在の損失関数値に修正し、トレーニング用の機械学習システムにそれらを入力することとを含む。
本出願の実施形態は少なくとも以下の利点を有する。
本出願の実施形態によって提案される機械学習システムのトレーニング方法及びトレーニングシステムによれば、各作業マシンが一度に1つのデータのみを処理し、データに従って計算されたローカル重み及びローカル損失関数値を集計し、これにより、各計算後に僅かな重み及び損失関数値を正確に更新し、オンライン学習が既存技術のデータ内のノイズの影響を受けやすいという問題を回避する効果を達成することができる。同時に、現在の重み及び/または現在の損失関数値を取得した後に異常検出が行われる。取得した現在の重み及び/または取得した現在の損失関数値が第1のタイプの異常または第2のタイプの異常に属することを検出することに応じて、この計算で計算される現在の重み及び/または現在の損失関数値は破棄されてよく、前回の集計から取得された重み及び損失関数値は機械学習モデルに入力されるか、あるいは、今回計算される現在の重み及び/または現在の損失関数値は修正され、各計算及び集計によって取得される重み及び損失関数値の更新は有効範囲に限定される。これにより、モデルトレーニングが不安定になることを回避し、データノイズに耐えるシステム機能が向上し、オンライン学習の機械学習システムの安定性を改善し、機械学習システムの正常出力を保証し、オンライン後の機械学習システムのサービス機能を改善する。
本出願の第1の実施形態による、機械学習システムのトレーニング方法のフロー図である。 本出願の第2の実施形態による、機械学習システムのトレーニング方法のフロー図である。 本出願の第3の実施形態による、機械学習システムのトレーニング方法のフロー図である。 本出願の第4の実施形態による、機械学習システムのトレーニングシステムのブロック図である。 本出願の第5の実施形態による、機械学習システムのトレーニングシステムのブロック図である。 本出願の第6の実施形態による、機械学習システムのトレーニングシステムのブロック図である。
本出願の実施形態における技術的解決策は、本出願の実施形態における図面を参照して以降に明確かつ完全に説明される。当然ながら、説明される実施形態は本出願の実施形態の一部を表すに過ぎず、全てを表すわけではない。当業者が本出願の実施形態を基に取得するその他全ての実施形態は、本開示の保護範囲内に該当する。
本出願は、機械学習システムのトレーニング方法を提案する。トレーニング方法は、トレーニングデータを複数の作業マシンに最初に割り当てることと、各作業マシンによって割り当てられたトレーニングデータを複数のデータに分割することと、各データを基に各作業マシンによって計算されたローカル重み及びローカル損失関数値を取得することと、各データを基に各作業マシンによって計算されたローカル重み及びローカル損失関数値を集計して現在の重み及び現在の損失関数値を取得することと、現在の重み及び/または現在の損失関数値を使用してモデル異常検出を行うことと、モデル異常検出の結果が第1のタイプの異常であることに応じて、トレーニング用の機械学習システムに前回の集計の重み及び損失関数値を入力することと、モデル異常検出の結果が第2のタイプの異常であることに応じて、現在の重み及び/または現在の損失関数値を第1の閾値内にある現在の重み及び/または現在の損失関数値に修正し、トレーニング用の機械学習システムにそれらを入力することとを含む。
第1の実施形態
本出願の第1の実施形態は、機械学習システムのトレーニング方法を提供する。図1は、本出願の第1の実施形態による、機械学習システムのトレーニング方法のフロー図である。機械学習システムは、好適には分散型の機械学習システムであり、パラメータサーバを含む。パラメータサーバは、例えば、複数の作業マシン(作業者またはスレーブ)、複数のサーバ及びコーディネータを含んでよい。図1に示すように、トレーニング方法は以下のステップを含む。
ステップS101:トレーニングデータを複数の作業マシンに割り当てる。
このステップでは、例えば、各作業マシンはその識別に従って各作業マシンのトレーニングデータを読み取ることができ、データは作業マシン間で重複しない。このステップは、例えば、コーディネータによって、各作業マシンの識別に従って各作業マシンに属するトレーニングデータに分割されてよく、それぞれのトレーニングデータは対応する作業マシンによって読み取られる。
ステップS102:各作業マシンに割り当てられたトレーニングデータを複数のデータに分割する。
このステップでは、例えば、各作業マシンは、各作業マシンに割り当てられたトレーニングデータを作業マシン自体のシステム構成を基に複数のデータに分割し、各作業マシンの各処理は1つのデータを基に処理を行う。換言すると、各作業マシンは一度に1つのデータのみを処理する。
ステップS103:各データを基に各作業マシンによって計算されたローカル重み及びローカル損失関数値を取得する。
このステップでは、例えば、各作業マシンにおいて、それぞれの作業マシンによって取得されたトレーニングデータのデータを基に、この計算におけるそれぞれの作業マシンに対応するローカル重み及びローカル損失関数値を計算して取得する。機械学習システムは複数の作業マシンを含むため、この計算において複数の作業マシンによって取得される多数のローカル重み及びローカル損失関数値はこのステップで取得することができる。
ステップS104:各データを基に各作業マシンによって計算されたローカル重み及びローカル損失関数値を集計し、現在の重み及び現在の損失関数値を取得する。
このステップでは、例えば、各作業マシンは、計算されたローカル重み及び計算されたローカル損失関数値をサーバに送信する。サーバは、現時点における複数の作業マシンによって計算された複数のローカル重み及びローカル損失関数値を集計し、現在の重み及び現在の損失関数値を取得する。集計の過程は、加算、加算後の平均化及びその他を含むがこれらに限定されず、本発明によって特に限定されるわけではない。
ステップS103で各作業マシンによってローカル重み及びローカル損失関数値を計算した後、ローカル重み及びローカル損失関数値を非同期的にサーバに送信してよい。コーディネータは、ステップS104において、サーバを作動して複数のローカル重み及びローカル損失関数の集計を行わせてよい。
ステップS105:現在の重み及び/または現在の損失関数値を使用して、モデル異常検出を行う。
このステップでは、例えば、集計された現在の重み及び/または現在の損失関数値をモデル異常検出装置に入力し、所定の条件に従って、モデルが異常であるかどうかを検出してよい。検出結果は、例えば、正常、第1のタイプの異常及び第2のタイプの異常であり得る。この3つの場合について、対応する処理が個別に行われる。
一実施形態では、モデル異常検出装置の入力値は、現在の重み、現在の損失関数値、前回の集計の重み及び前回の集計の損失関数値である。前回の集計の重みは、前回の計算で使用されたデータを基に各作業マシンによって計算された前回のローカル重み損失関数値を合計することによって取得される。前回の集計の損失関数値は、前回の計算で使用されたデータを基に各作業マシンによって計算された前回の損失関数値を合計することによって計算される。
ステップS106:モデル異常検出の結果が第1のタイプの異常であることに応じて、前回の集計の重み及び前回の集計の損失関数値をトレーニング用の機械学習システムに入力する。
このステップでは、例えば、検出結果が第1のタイプの異常である場合、現在の計算において各作業マシンが取得したローカル重み及びローカル損失関数値、集計後の現在の重み及び現在の損失関数値は無視されるか、削除される。前回の集計の重み及び前回の集計の損失関数値をトレーニング用の機械学習システムに入力する。
ステップS107:モデル異常検出の結果が第2のタイプの異常であることに応じて、現在の重み及び/または現在の損失関数値を、第1の閾値内にある現在の重み及び/または現在の損失関数値に修正し、それらをトレーニング用の機械学習システムに入力する。
このステップでは、例えば、検出結果が第2のタイプの異常であり、モデル微調整装置に入力することができ、現在の重み及び/または現在の損失関数値を所定の第1の閾値ずつ減算して、第1の閾値内にある現在の重み及び/または現在の損失関数値の各要素の値を取得し、これらはトレーニング用の機械学習システムに入力される。特に、現在の重み及び/または現在の損失関数値が、最初に所定の第1の閾値ずつ減算した後でも第1の閾値の範囲外である場合、各要素の値が第1の閾値の範囲内となるまで、現在の重み及び/または現在の損失関数値を第1の閾値ずつ減算する処理を1回以上行ってよい。
本出願の第1の実施形態によって提案される機械学習システムのトレーニング方法によれば、各作業マシンが一度に1つのデータのみを処理し、データに従って計算されたローカル重み及びローカル損失関数値を集計し、これにより、各計算後に僅かな重み及び損失関数値を正確に更新し、オンライン学習が既存技術のデータ内のノイズの影響を受けやすいという問題を回避する効果を達成することができる。同時に、現在の重み及び/または現在の損失関数値を取得した後に異常検出が行われる。取得した現在の重み及び/または取得した現在の損失関数値が第1のタイプの異常または第2のタイプの異常に属することを検出することに応じて、この計算で計算される現在の重み及び/または現在の損失関数値は破棄されてよく、前回の集計から取得された重み及び損失関数値は機械学習モデルに入力されるか、あるいは、今回計算される現在の重み及び/または現在の損失関数値は修正され、各計算及び集計によって取得される重み及び損失関数値の更新は有効範囲に限定される。これにより、モデルトレーニングが不安定になることを回避し、データノイズに耐えるシステム機能が向上し、オンライン学習の機械学習システムの安定性を改善し、機械学習システムの正常出力を保証し、オンライン後の機械学習システムのサービス機能を改善する。
第2の実施形態
本出願の第2の実施形態は、機械学習システムのトレーニング方法を提供する。図2は、本出願の第2の実施形態による、機械学習システムのトレーニング方法のフロー図である。機械学習システムは、好適には分散型の機械学習システムである。図2に示すように、トレーニング方法は以下のステップを含む。
S201:トレーニングデータを複数の作業マシンに割り当てる。
S202:各作業マシンに割り当てられたトレーニングデータを複数のデータに分割する。
S203:各データを基に各作業マシンによって計算されたローカル重み及びローカル損失関数値を取得する。
S204:各データを基に各作業マシンによって計算されたローカル重み及びローカル損失関数値を集計し、現在の重み及び現在の損失関数値を取得する。
S205:現在の重み及び/または現在の損失関数値を使用して、モデル異常検出を行う。
S206:モデル異常検出の結果が第1のタイプの異常であることに応じて、前回の集計の重み及び前回の集計の損失関数値をトレーニング用の機械学習システムに入力する。
S207:モデル異常検出の結果が第2のタイプの異常であることに応じて、現在の重み及び/または現在の損失関数値を、第1の閾値内にある現在の重み及び/または現在の損失関数値に修正し、それらをトレーニング用の機械学習システムに入力する。
上記のステップS201〜S207の部分は第1の実施形態のステップS101〜S107の部分と同じであり、本明細書には繰り返して説明しない。
本実施形態では、ステップS205、つまり、現在の重み及び/または現在の損失関数値を使用してモデル異常検出を行うことは以下を含む。
サブステップS205a:現在の損失関数値が前回の集計の損失関数値のk倍より大きいかどうかを判定する。
このサブステップでは、現在の損失関数値が異常であるかどうかを判定するための基準として、値kを事前に設定することができる。
サブステップS205b:現在の損失関数値が前回の集計の損失関数値のk倍より大きいかどうかを判定することに応じて、モデル異常検出の結果が第1のタイプの異常であると判定する。
このサブステップでは、現在の損失関数値が前回の集計の損失関数値のk倍より大きいと判定することに応じて、今回計算されて集計された現在の損失関数値を第1のタイプの異常、つまり、重大な異常として考慮することができる。モデルにこのような異常があると判定することに応じて、今回計算された現在の重み及び現在の損失関数値をそのまま破棄することができる。
本実施形態では、ステップS205、つまり、現在の重み及び/または現在の損失関数値を使用してモデル異常検出を行うことはさらに以下を含んでよい。
サブステップS205c:現在の重みの要素の最大値及び/または最小値の絶対値が所定の第2の閾値より大きいかどうかを判定する。
このサブステップでは、現在の重みはN要素から構成されるベクトルである。現在の重みを集計した後、ベクトルの各要素(すなわち、各次元)の最大値及び/または最小値の絶対値が所定の第2の閾値より大きいかどうかに関して判定を行うことができる。第2の閾値は事前に指定することができる。
サブステップS205d:現在の重みの要素の最大値及び/または最小値の絶対値が所定の第2の閾値より大きいかどうかを判定することに応じて、モデル異常検出の結果が第2のタイプの異常であると判定する。
このサブステップでは、現在の重みの要素の最大値及び最小値のうちの少なくとも1つの絶対値が所定の第2の閾値より大きいと判定することに応じて、モデルには第2のタイプの異常、つまり、比較的軽微な異常があると考えられる。現在の計算で計算された現在の重み及び現在の損失関数値は、修正によって第1の閾値内の現在の重み及び/または現在の損失関数値に修正されてよく、これらはトレーニング用の機械学習システムに入力される。
好適には、現在の重み及び/または現在の損失関数値を第1の閾値内のローカル重み及び/またはローカル損失関数値に修正することは、所定の第2の閾値より大きい最大値及び/または最小値の絶対値を有する要素(複数可)を第2の閾値ずつ減算し、各要素が第2の閾値内に収まる現在の重みを取得することを含んでよい。
本実施形態では、ステップS205、つまり、現在の重み及び/または現在の損失関数値を使用してモデル異常検出を行うことはさらに以下を含んでよい。
サブステップS205e:第1のn集計の損失関数値の平均値が第1の集計の損失関数値より大きいかどうかを判定する。
このサブステップでは、第1のn集計から取得された損失関数値が、例えば、特定の記憶領域に記憶され、第1のn集計の損失関数値の平均値を計算することができる。値が第1の集計から取得された損失関数値より大きいかどうかに関する判定が行われる。
サブステップS205f:第1のn集計の損失関数値の平均値が第1の集計の損失関数値より大きいと判定することに応じて、モデル異常検出の結果が第1のタイプの異常であると判定する。
このサブステップでは、第1のn集計の損失関数値の平均値が第1の集計の損失関数値より大きいと判定することに応じて、モデルには第1のタイプの異常、つまり、比較的重大な異常があると考えられてよい。モデルにこのような異常があると判定することに応じて、今回計算された現在の重み及び現在の損失関数値をそのまま破棄することができる。
本出願の第2の実施形態によって提案される機械学習システムのトレーニング方法によれば、各作業マシンが一度に1つのデータのみを処理し、データに従って計算されたローカル重み及びローカル損失関数値を集計し、これにより、各計算後に僅かな重み及び損失関数値を正確に更新し、オンライン学習が既存技術のデータ内のノイズの影響を受けやすいという問題を回避する効果を達成することができる。同時に、現在の重み及び/または現在の損失関数値を取得した後に異常検出が行われる。取得した現在の重み及び/または取得した現在の損失関数値が第1のタイプの異常または第2のタイプの異常に属することを検出することに応じて、この計算で計算される現在の重み及び/または現在の損失関数値は破棄されてよく、前回の集計から取得された重み及び損失関数値は機械学習モデルに入力されるか、あるいは、今回計算される現在の重み及び/または現在の損失関数値は修正され、各計算及び集計によって取得される重み及び損失関数値の更新は有効範囲に限定される。これにより、モデルトレーニングが不安定になることを回避し、データノイズに耐えるシステム機能が向上し、オンライン学習の機械学習システムの安定性を改善し、機械学習システムの正常出力を保証し、オンライン後の機械学習システムのサービス機能を改善する。
第3の実施形態
本出願の第3の実施形態は、機械学習システムのトレーニング方法を提供する。図3は、本出願の第3の実施形態による、機械学習システムのトレーニング方法のフロー図である。機械学習システムは、好適には分散型の機械学習システムである。図3に示すように、トレーニング方法は以下のステップを含む。
S301:トレーニングデータを複数の作業マシンに割り当てる。
S302:各作業マシンに割り当てられたトレーニングデータを複数のデータに分割する。
S303:各データを基に各作業マシンによって計算されたローカル重み及びローカル損失関数値を取得する。
S304:各データを基に各作業マシンによって計算されたローカル重み及びローカル損失関数値を集計し、現在の重み及び現在の損失関数値を取得する。
S305:現在の重み及び/または現在の損失関数値を使用して、モデル異常検出を行う。
S306:モデル異常検出の結果が第1のタイプの異常であることに応じて、前回の集計の重み及び前回の集計の損失関数値をトレーニング用の機械学習システムに入力する。
S307:モデル異常検出の結果が第2のタイプの異常であることに応じて、現在の重み及び/または現在の損失関数値を、第1の閾値内にある現在の重み及び/または現在の損失関数値に修正し、それらをトレーニング用の機械学習システムに入力する。
上記のステップS301〜S307の部分は第1の実施形態のステップS101〜S107の部分と同じであり、本明細書には繰り返して説明しない。
本実施形態では、ステップS205の後、つまり、現在の重み及び/または現在の損失関数値を使用してモデル異常検出を行った後、トレーニング方法はさらに以下を含んでよい。
S308。モデル異常検出の結果が正常であることに応じて、現在の重み及び/または現在の損失関数値をトレーニング用の機械学習システムに入力する。
本実施形態では、現在の計算及び集計後に現在の重み及び現在の損失関数値においてモデルが正常である場合、現在の重み及び/または現在の損失関数値は有効な計算結果として機能してよく、トレーニング用の機械学習システムに入力される。
さらに、好適な実施形態では、ステップS308の後、つまり、モデル異常検出の結果が正常であることに応じて、現在の重み及び/または現在の損失関数値をトレーニング用の機械学習システムに入力した後、方法はさらに以下を含む。
S309:トレーニングが終了したかどうかを判定する。
このステップでは、例えば、現在の損失関数値及び前回の集計後の損失関数値が第3の閾値より小さいことを検出することに応じて、トレーニングが終了したと判定する。第3の閾値はシステムによって検出される閾値であってよい。
しかしながら、当業者であれば、判定ステップは、第3の閾値との差異を比較することによって行われることに限定されないと明確に理解することができる。トレーニングが終了したかどうかを確認するための様々な方法が当技術分野に存在し、その詳細は本明細書で完全に説明するわけではない。
S310:トレーニングが終了したと判定することに応じて、モデルを生成する。
このステップでは、トレーニングが終了した、つまり、モデルが既に使用可能であると判定することに応じて、モデルが生成される。例えば、モデルをオンラインで適用することができる。
S311:トレーニングが終了していないと判定することに応じて、各データを基に各作業マシンによって計算されたローカル重み及びローカル損失関数値を再度取得することを行う。
このステップでは、例えば、現在の損失関数値及び前回の集計の損失関数値が第3の閾値より大きいことを検出することに応じて、トレーニングが終了していないと判定される。この場合、各データを基に各作業マシンによって計算されたローカル重み及びローカル損失関数値の取得は繰り返し行われてよい。換言すると、各作業マシンは、使用要件を満たすモデルが取得されるまで、他のデータを基にローカル重み及びローカル損失関数値を計算し続け、次の集計(複数可)で取得される現在の重み(複数可)及び現在の損失関数値(複数可)にトレーニング方法が繰り返される。
追加的には、第1〜第3の実施形態に開示された解決策において、好適には、複数の作業マシンにトレーニングデータを割り当てる前に、方法はトレーニングデータを取得することをさらに含む。
トレーニングデータを複数の作業マシンに割り当てることは、各作業マシンの識別に従って、複数の作業マシンにトレーニングデータを割り当てることをさらに含む。
さらに、第1〜第3の実施形態に開示された解決策において、好適には、各データを基に各作業マシンによって計算されたローカル重み及びローカル損失関数値を集計して現在の重み及び現在の損失関数値を取得することは、各データを基に各作業マシンによって計算されたローカル重みを合計して現在の重みを取得することと、各データを基に各作業マシンによって取得されたローカル損失関数値を合計して現在のローカル損失関数を取得することとを含むことができる。
本出願の第3の実施形態によって提案される機械学習システムのトレーニング方法によれば、各作業マシンが一度に1つのデータのみを処理し、データに従って計算されたローカル重み及びローカル損失関数値を集計し、これにより、各計算後に僅かな重み及び損失関数値を正確に更新し、オンライン学習が既存技術のデータ内のノイズの影響を受けやすいという問題を回避する効果を達成することができる。同時に、現在の重み及び/または現在の損失関数値を取得した後に異常検出が行われる。取得した現在の重み及び/または取得した現在の損失関数値が第1のタイプの異常または第2のタイプの異常に属することを検出することに応じて、この計算で計算される現在の重み及び/または現在の損失関数値は破棄されてよく、前回の集計から取得された重み及び損失関数値は機械学習モデルに入力されるか、あるいは、今回計算される現在の重み及び/または現在の損失関数値は修正され、各計算及び集計によって取得される重み及び損失関数値の更新は有効範囲に限定される。これにより、モデルトレーニングが不安定になることを回避し、データノイズに耐えるシステム機能が向上し、オンライン学習の機械学習システムの安定性を改善し、機械学習システムの正常出力を保証し、オンライン後の機械学習システムのサービス機能を改善する。
第4の実施形態
本出願の第4の実施形態は、機械学習システムのトレーニングシステムを提供する。図4は、本出願の第4の実施形態による、機械学習システムのトレーニングシステムのブロック図である。機械学習システムは、好適には分散型の機械学習システムである。図4に示すように、トレーニングシステム400は、トレーニングデータを複数の作業マシンに割り当てるように構成されるトレーニングデータ割り当てモジュール401と、各作業マシンに割り当てられたトレーニングデータを複数のデータに分割するように構成されるトレーニングデータ分割モジュール402と、各データを基に各作業マシンによって計算されたローカル重み及びローカル損失関数値を取得するように構成される取得モジュール403と、各データを基に各作業マシンによって計算されたローカル重み及びローカル損失関数値を集計して現在の重み及び現在の損失関数値を取得するように構成される集計モジュール404と、現在の重み及び/または現在の損失関数値を使用してモデル異常検出を行うように構成される異常検出モジュール405と、モデル異常検出の結果が第1のタイプの異常であることに応じて、トレーニング用の機械学習システムに前回の集計の重み及び損失関数値を入力するように構成される第1の処理モジュール406と、モデル異常検出の結果が第2のタイプの異常であることに応じて、現在の重み及び/または現在の損失関数値を第1の閾値内にある現在の重み及び/または現在の損失関数値に修正し、トレーニング用の機械学習システムにそれらを入力するように構成される第2の処理モジュール407とを含む。
本出願の第4の実施形態によって提案される機械学習システムのトレーニングシステムによれば、各作業マシンが一度に1つのデータのみを処理し、データに従って計算されたローカル重み及びローカル損失関数値を集計し、これにより、各計算後に僅かな重み及び損失関数値を正確に更新し、オンライン学習が既存技術のデータ内のノイズの影響を受けやすいという問題を回避する効果を達成することができる。同時に、現在の重み及び/または現在の損失関数値を取得した後に異常検出が行われる。取得した現在の重み及び/または取得した現在の損失関数値が第1のタイプの異常または第2のタイプの異常に属することを検出することに応じて、この計算で計算される現在の重み及び/または現在の損失関数値は破棄されてよく、前回の集計から取得された重み及び損失関数値は機械学習モデルに入力されるか、あるいは、今回計算される現在の重み及び/または現在の損失関数値は修正され、各計算及び集計によって取得される重み及び損失関数値の更新は有効範囲に限定される。これにより、モデルトレーニングが不安定になることを回避し、データノイズに耐えるシステム機能が向上し、オンライン学習の機械学習システムの安定性を改善し、機械学習システムの正常出力を保証し、オンライン後の機械学習システムのサービス機能を改善する。
第5の実施形態
本出願の第5の実施形態は、機械学習システムのトレーニングシステムを提供する。図5は、本出願の第5の実施形態による、機械学習システムのトレーニングシステムのブロック図である。機械学習システムは、好適には分散型の機械学習システムである。図5に示すように、トレーニングシステム500は、トレーニングデータを複数の作業マシンに割り当てるように構成されるトレーニングデータ割り当てモジュール501と、各作業マシンに割り当てられたトレーニングデータを複数のデータに分割するように構成されるトレーニングデータ分割モジュール502と、各データを基に各作業マシンによって計算されたローカル重み及びローカル損失関数値を取得するように構成される取得モジュール503と、各データを基に各作業マシンによって計算されたローカル重み及びローカル損失関数値を集計して現在の重み及び現在の損失関数値を取得するように構成される集計モジュール504と、現在の重み及び/または現在の損失関数値を使用してモデル異常検出を行うように構成される異常検出モジュール505と、モデル異常検出の結果が第1のタイプの異常であることに応じて、トレーニング用の機械学習システムに前回の集計の重み及び損失関数値を入力するように構成される第1の処理モジュール506と、モデル異常検出の結果が第2のタイプの異常であることに応じて、現在の重み及び/または現在の損失関数値を第1の閾値内にある現在の重み及び/または現在の損失関数値に修正し、トレーニング用の機械学習システムにそれらを入力するように構成される第2の処理モジュール507とを含む。
実施形態では、異常検出モジュール505は、現在の損失関数値が前回の集計の損失関数値のk倍より大きいかどうかを判定するように構成される第1の判定サブモジュール505aと、現在の損失関数値が前回の集計の損失関数値のk倍より大きいかどうかを判定することに応じて、モデル異常検出の結果が第1のタイプの異常であると判定するように構成される第1の決定サブモジュール505bと、現在の重みの要素の最大値及び/または最小値の絶対値が所定の第2の閾値より大きいかどうかを判定するように構成される第2の判定サブモジュール505cと、現在の重みの要素の最大値及び/または最小値の絶対値が所定の第2の閾値より大きいかどうかを判定することに応じて、モデル異常検出の結果が第2のタイプの異常であると判定するように構成される第2の決定サブモジュール505dとを含む。
異常検出モジュール505はさらに、第1のn集計の損失関数値の平均値が第1の集計の損失関数値より大きいかどうかを判定するように構成される第3の判定サブモジュール505eと、第1のn集計の損失関数値の平均値が第1の集計の損失関数値より大きいと判定することに応じて、モデル異常検出の結果が第1のタイプの異常であると判定するように構成される第3の決定サブモジュール505fとを含む。
好適には、モデル異常検出の結果が第2のタイプの異常である場合、現在の重み及び/または現在の損失関数値を第2の閾値内の現在の重み及び/または現在の損失関数値に修正することは、所定の第2の閾値より大きい最大値及び/または最小値の絶対値を有する要素を第2の閾値ずつ減算し、各要素が第2の閾値内に収まる現在の重みを取得することを含む。
本出願の第5の実施形態によって提案される機械学習システムのトレーニングシステムによれば、各作業マシンが一度に1つのデータのみを処理し、データに従って計算されたローカル重み及びローカル損失関数値を集計し、これにより、各計算後に僅かな重み及び損失関数値を正確に更新し、オンライン学習が既存技術のデータ内のノイズの影響を受けやすいという問題を回避する効果を達成することができる。同時に、現在の重み及び/または現在の損失関数値を取得した後に異常検出が行われる。取得した現在の重み及び/または取得した現在の損失関数値が第1のタイプの異常または第2のタイプの異常に属することを検出することに応じて、この計算で計算される現在の重み及び/または現在の損失関数値は破棄されてよく、前回の集計から取得された重み及び損失関数値は機械学習モデルに入力されるか、あるいは、今回計算される現在の重み及び/または現在の損失関数値は修正され、各計算及び集計によって取得される重み及び損失関数値の更新は有効範囲に限定される。これにより、モデルトレーニングが不安定になることを回避し、データノイズに耐えるシステム機能が向上し、オンライン学習の機械学習システムの安定性を改善し、機械学習システムの正常出力を保証し、オンライン後の機械学習システムのサービス機能を改善する。
第6の実施形態
本出願の第6の実施形態は、機械学習システムのトレーニングシステムを提供する。図6は、本出願の第6の実施形態による、機械学習システムのトレーニングシステムのブロック図である。機械学習システムは、好適には分散型の機械学習システムである。図6に示すように、トレーニングシステムは、トレーニングデータを複数の作業マシンに割り当てるように構成されるトレーニングデータ割り当てモジュール601と、各作業マシンに割り当てられたトレーニングデータを複数のデータに分割するように構成されるトレーニングデータ分割モジュール602と、各データを基に各作業マシンによって計算されたローカル重み及びローカル損失関数値を取得するように構成される取得モジュール603と、各データを基に各作業マシンによって計算されたローカル重み及びローカル損失関数値を集計して現在の重み及び現在の損失関数値を取得するように構成される集計モジュール604と、現在の重み及び/または現在の損失関数値を使用してモデル異常検出を行うように構成される異常検出モジュール605と、モデル異常検出の結果が第1のタイプの異常であることに応じて、トレーニング用の機械学習システムに前回の集計の重み及び損失関数値を入力するように構成される第1の処理モジュール606と、モデル異常検出の結果が第2のタイプの異常であることに応じて、現在の重み及び/または現在の損失関数値を第1の閾値内にある現在の重み及び/または現在の損失関数値に修正し、トレーニング用の機械学習システムにそれらを入力するように構成される第2の処理モジュール607とを含む。
本実施形態では、システムはさらに、モデル異常検出の結果が正常であることに応じて、現在の重み及び/または現在の損失関数値をトレーニング用の機械学習システムに入力するように構成されるトレーニングモジュール608を含む。
本実施形態では、システムはさらに、トレーニングが終了したかどうかを判定するように構成される終了判定モジュール609と、トレーニングが終了したと判定することに応じて、モデルを生成するように構成されるモデル生成モジュール610と、トレーニングが終了していないと判定することに応じて、各データを基に各作業マシンによって計算されたローカル重み及びローカル損失関数値を再度取得することを行うように構成されるリターン実行モジュール611とを含む。
本実施形態では、終了判定モジュールは、現在の損失関数値及び前回の集計の損失関数値が第3の閾値より小さいことを検出することに応じて、トレーニングが終了したことを判定するように構成される。
本実施形態では、システムはさらに、トレーニングデータを取得するように構成されるトレーニングデータ取得モジュールを含んでよい。トレーニングデータ割り当てモジュールは、各作業マシンの識別に従って、トレーニングデータを複数の作業マシンに割り当てるように構成される。
好適には、集計モジュールは、各データを基に各作業マシンによって計算されたローカル重みを合計して現在の重みを取得するように構成される重み集積モジュールと、各データを基に各作業マシンによって取得されたローカル損失関数値を合計して現在のローカル損失関数を取得するように構成される損失関数値集積モジュールとを含む。
本出願の第6の実施形態によって提案される機械学習システムのトレーニングシステムによれば、各作業マシンが一度に1つのデータのみを処理し、データに従って計算されたローカル重み及びローカル損失関数値を集計し、これにより、各計算後に僅かな重み及び損失関数値を正確に更新し、オンライン学習が既存技術のデータ内のノイズの影響を受けやすいという問題を回避する効果を達成することができる。同時に、現在の重み及び/または現在の損失関数値を取得した後に異常検出が行われる。取得した現在の重み及び/または取得した現在の損失関数値が第1のタイプの異常または第2のタイプの異常に属することを検出することに応じて、この計算で計算される現在の重み及び/または現在の損失関数値は破棄されてよく、前回の集計から取得された重み及び損失関数値は機械学習モデルに入力されるか、あるいは、今回計算される現在の重み及び/または現在の損失関数値は修正され、各計算及び集計によって取得される重み及び損失関数値の更新は有効範囲に限定される。これにより、モデルトレーニングが不安定になることを回避し、データノイズに耐えるシステム機能が向上し、オンライン学習の機械学習システムの安定性を改善し、機械学習システムの正常出力を保証し、オンライン後の機械学習システムのサービス機能を改善する。
実施形態の方法と基本的に類似しているため、装置の実施形態の説明は比較的簡素であり、関連部分は実施形態の方法の説明を参照することができる。
本明細書における各実施形態は漸進的に説明されており、各実施形態は他の実施形態とは異なる点を強調している。実施形態の中で同一または類似の部分を相互に参照することができる。
当業者は、本出願の実施形態が、方法、装置またはコンピュータプログラム製品として提供可能であることを理解すべきである。したがって、本出願の実施形態は、完全なハードウェアの実施形態、完全なソフトウェアの実施形態またはソフトウェアとハードウェアの組み合わせである実施形態の形態をとってよい。さらに、本出願の実施形態は、コンピュータが使用可能なコードを内蔵した1つ以上のコンピュータが使用可能な記憶媒体(これには、磁気ストレージデバイス、CD−ROM、光ストレージデバイスなどが含まれるが、これらに限定されない)の形態で実装されるコンピュータプログラム製品の形態をとってよい。
典型的な構成では、計算デバイスは1つ以上のプロセッサ(CPU)、入出力インターフェース、ネットワークインターフェース及びメモリを含む。メモリは、例えば、不揮発性メモリ、ランダムアクセスメモリ(RAM)及び/または、例えば、読み出し専用メモリ(ROM)もしくはフラッシュRAMなどの不揮発性メモリなどのコンピュータ可読媒体の形態を含んでよい。メモリはコンピュータ可読媒体の一例である。コンピュータ可読媒体は、揮発性または不揮発性タイプ、取り外し可能または取り外し不可能な媒体を含んでよく、任意の方法または技術を使用して情報の記憶を実現してよい。情報は、コンピュータ可読命令、データ構造、プログラムモジュールまたは他のデータを含んでよい。コンピュータ記憶媒体の例は、相変化メモリ(PRAM)、スタティックランダムアクセスメモリ(SRAM)、ダイナミックランダムアクセスメモリ(DRAM)、他のタイプのランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、電気的に消去可能でプログラム可能な読み出し専用メモリ(EEPROM)、クイックフラッシュメモリもしくは他の内部記憶技術、コンパクトディスク読み出し専用メモリ(CD−ROM)、デジタル多用途ディスク(DVD)もしくは他の光ストレージ、磁気カセットテープ、磁気ディスクストレージもしくは他の磁気ストレージデバイス、または計算デバイスによってアクセスされ得る情報を記憶するために使用され得る任意の他の非伝送媒体を含むが、これらに限定されるものではない。本明細書に定義される通り、コンピュータ可読媒体は変調されたデータ信号及び搬送波などの一時的な媒体を含まない。
本出願の実施形態は、本出願の実施形態による方法、端末デバイス(システム)及びコンピュータプログラム製品のフロー図及び/またはブロック図を参照して説明される。フロー図及び/またはブロック図の各フロー及び/または各ブロック、ならびにフロー図及び/またはブロック図のフロー及び/またはブロックの組み合わせは、コンピュータプログラム命令によって実施され得ることを理解すべきである。コンピュータプログラム命令は、汎用コンピュータ、専用コンピュータ、組込みプロセッサまたはマシンを製造する他のプログラム可能なデータ処理端末デバイスのプロセッサに提供されてよく、そのため、コンピュータまた他のプログラム可能なデータ処理端末デバイスのプロセッサによる命令の実行を通じて、フロー図の1つ以上のフロー及び/またはブロック図の1つ以上のブロックで指定される機能を実施するための装置が作成される。
これらのコンピュータプログラム命令は、コンピュータまたは他のプログラム可能なデータ処理端末デバイスに特定の方法で動作するように指示することが可能なコンピュータ可読ストレージデバイスに記憶されてもよく、これによって、コンピュータ可読ストレージデバイスに記憶される命令は、命令装置を含む製品を製造する。命令装置は、フロー図の1つ以上のフロー及び/またはブロック図の1つ以上のブロックに指定される機能を実施する。
これらのコンピュータプログラム命令は、コンピュータまたは他のプログラム可能なデータ処理端末デバイス上にロードされてもよく、これにより、一連の動作ステップがコンピュータまたは他のプログラム可能な端末デバイス上で行われ、コンピュータ実施プロセスを生成する。コンピュータまたは他のプログラム可能な端末デバイスで実行される命令は、フロー図の1つ以上のフロー及び/またはブロック図の1つ以上のブロックに指定される機能を実施するステップを提供する。
本出願の実施形態の好適な実施形態について説明したが、当業者は、基本的な発明概念を学べば、これらの実施形態に追加の変更及び修正を加えることができる。したがって、添付の特許請求の範囲は、本出願の実施形態の範囲内に該当する好適な実施形態ならびに全ての変更及び修正を含むものとして解釈されることが意図される。
最後に、第1の及び第2のなどの関係語は、本明細書において、あるエンティティまたは動作を他のエンティティまたは動作と区別するためにのみ使用され、これらの動作またはエンティティ間の任意のそのような関係もしくは順序の存在を必ずしも必要としたり示唆したりするわけではないことも留意すべきである。さらに、用語「include(含む)」、「contain(含む)」またはそれらの任意の変形例は、非排他的包含をカバーすることを意図する。したがって、一連の要素を含むプロセス、方法、商品または端末デバイスは、これらの要素だけでなく、明示的に列挙されていない他の要素も含むか、あるいはこのようなプロセス、方法、商品または端末デバイスに固有の要素も含む。それ以上の制約なく、「・・・を含む」の文により定義される要素は、要素を含むプロセス、方法、商品または端末デバイスが別の同一要素をさらに含むことを排除しない。
本出願に提供される機械学習システムのトレーニング方法及びトレーニングシステムを上記に詳細に説明した。本明細書は本出願の趣旨及び実装を例示するために特定の例を使用している。上記の実施形態の説明は、本出願の方法及び主要な概念の理解を容易にするために使用されるにすぎない。同時に、当業者は、本出願の概念に基づいて、特定の実装及び適用範囲を変更することができる。要約すると、本明細書の内容は、本出願に対する制限として解釈されるべきではない。

Claims (20)

  1. 機械学習システムのトレーニング方法であって、トレーニングデータは前記機械学習システムをトレーニングするために使用され、前記トレーニング方法は、
    前記トレーニングデータを複数の作業マシンに割り当てることと、
    各作業マシンによって割り当てられたトレーニングデータを複数のデータに分割し、各データを基に各作業マシンによって計算されたローカル重み及びローカル損失関数値を取得することと、
    各データを基に各作業マシンによって計算された前記ローカル重み及び前記ローカル損失関数値を集計し、現在の重み及び現在の損失関数値を取得することと、
    前記現在の重み及び/または前記現在の損失関数値を使用して、モデル異常検出を行うことと、
    前記モデル異常検出の結果が第1のタイプの異常であることに応じて、前回の集計の重み及び損失関数値を前記トレーニング用の機械学習システムに入力することと、
    前記モデル異常検出の前記結果が第2のタイプの異常であることに応じて、前記現在の重み及び/または前記現在の損失関数値を第1の閾値内にある現在の重み及び/または現在の損失関数値に修正し、前記トレーニング用の機械学習システムにそれらを入力することと
    を備える、前記方法。
  2. 前記現在の重み及び/または前記現在の損失関数値を使用して前記モデル異常検出を行うことは、
    前記現在の損失関数値が前回の集計の損失関数値のk倍より大きいかどうかを判定することと、
    前記現在の損失関数値が前記前回の集計の前記損失関数値のk倍より大きいかどうかを判定することに応じて、前記モデル異常検出の結果が第1のタイプの異常であると判定することと
    を備える、請求項1に記載のトレーニング方法。
  3. 前記現在の重み及び/または前記現在の損失関数値を使用して前記モデル異常検出を行うことは、
    前記現在の重みの要素の最大値及び/または最小値の絶対値が所定の第2の閾値より大きいかどうかを判定することと、
    前記現在の重みの前記要素の前記最大値及び/または前記最小値の前記絶対値が前記所定の第2の閾値より大きいかどうかを判定することに応じて、前記モデル異常検出の前記結果が第2のタイプの異常であると判定することと
    を備える、請求項1に記載のトレーニング方法。
  4. 前記モデル異常検出の前記結果が前記第2のタイプの異常であることに応じて、前記現在の重み及び/または前記現在の損失関数値を前記第1の閾値内の前記現在の重み及び/または前記現在の損失関数値に修正することは、前記第1の閾値より大きい前記最大値及び/または前記最小値の前記絶対値を有する要素を前記第1の閾値ずつ減算し、各要素が前記第1の閾値内に収まる現在の重みを取得することを備える、請求項3に記載のトレーニング方法。
  5. 前記現在の重み及び/または前記現在の損失関数値を使用して前記モデル異常検出を行うことは、
    第1のn集計の損失関数値の平均値が第1の集計の損失関数値より大きいかどうかを判定することと、
    前記第1のn集計の前記損失関数値の前記平均値が前記第1の集計の前記損失関数値より大きいかどうかを判定することに応じて、前記モデル異常検出の前記結果が前記第1のタイプの異常であると判定することと
    を備える、請求項1に記載のトレーニング方法。
  6. 前記現在の重み及び/または前記現在の損失関数値を使用して前記モデル異常検出を行った後、前記方法はさらに、前記モデル異常検出の結果が正常であることに応じて、前記現在の重み及び/または前記現在の損失関数値を前記トレーニング用の機械学習システムに入力することを備える、請求項1に記載のトレーニング方法。
  7. 前記モデル異常検出の前記結果が正常であることに応じて、前記現在の重み及び/または前記現在の損失関数値を前記トレーニング用の機械学習システムに入力した後、前記方法はさらに、
    前記トレーニングが終了したかどうかを判定することと、
    前記トレーニングが終了したと判定することに応じて、モデルを生成することと、
    前記トレーニングが終了していないと判定することに応じて、各データを基に各作業マシンによって計算された前記ローカル重み及び前記ローカル損失関数値の前記取得を再度繰り返すことと
    を備える、請求項6に記載のトレーニング方法。
  8. 前記トレーニングが終了したかどうかを判定することは、前記現在の損失関数値及び前記前回の集計の前記損失関数値が第3の閾値より小さいことを検出することに応じて、前記トレーニングが終了したことを判定することを備える、請求項6に記載のトレーニング方法。
  9. 前記複数の作業マシンに前記トレーニングデータを割り当てる前に、前記方法はさらに、前記トレーニングデータを取得することを備え、前記トレーニングデータを前記複数の作業マシンに割り当てることはさらに、各作業マシンの識別に従って、前記複数の作業マシンに前記トレーニングデータを割り当てることを備える、請求項1に記載のトレーニング方法。
  10. 各データを基に各作業マシンによって計算された前記ローカル重み及び前記ローカル損失関数値を集計し、前記現在の重み及び前記現在の損失関数値を取得することは、
    各データを基に各作業マシンによって計算されたローカル重みを合計して、前記現在の重みを取得することと、
    各データを基に各作業マシンによって取得されたローカル損失関数値を合計して、前記現在のローカル損失関数を取得することと
    を備える、請求項1に記載のトレーニング方法。
  11. 機械学習システムのトレーニングシステムであって、トレーニングデータは前記機械学習システムをトレーニングするために使用され、前記トレーニングシステムは、
    前記トレーニングデータを複数の作業マシンに割り当てるように構成されるトレーニングデータ割り当てモジュールと、
    各作業マシンに割り当てられたトレーニングデータを複数のデータに分割するように構成されるトレーニングデータ分割モジュールと、
    各データを基に各作業マシンによって計算されたローカル重み及びローカル損失関数値を取得するように構成される取得モジュールと、
    各データを基に各作業マシンによって計算された前記ローカル重み及び前記ローカル損失関数値を集計し、現在の重み及び現在の損失関数値を取得するように構成される集計モジュールと、
    前記現在の重み及び/または前記現在の損失関数値を使用して、モデル異常検出を行うように構成される異常検出モジュールと、
    前記モデル異常検出の結果が第1のタイプの異常であることに応じて、前回の集計の重み及び損失関数値を前記トレーニング用の機械学習システムに入力するように構成される第1の処理モジュールと、
    前記モデル異常検出の前記結果が第2のタイプの異常であることに応じて、前記現在の重み及び/または前記現在の損失関数値を、第1の閾値内にある現在の重み及び/または現在の損失関数値に修正し、それらを前記トレーニング用の機械学習システムに入力するように構成される第2の処理モジュールと
    を備える、前記トレーニングシステム。
  12. 前記異常検出モジュールは、
    前記現在の損失関数値が前回の集計の損失関数値のk倍より大きいかどうかを判定するように構成される第1の判定サブモジュールと、
    前記現在の損失関数値が前記前回の集計の前記損失関数値のk倍より大きいかどうかを判定することに応じて、前記モデル異常検出の結果が第1のタイプの異常であると判定するように構成される第1の決定サブモジュールと
    を備える、請求項11に記載のトレーニングシステム。
  13. 前記異常検出モジュールは、
    前記現在の重みの要素の最大値及び/または最小値の絶対値が所定の第2の閾値より大きいかどうかを判定するように構成される第2の判定サブモジュールと、
    前記現在の重みの前記要素の前記最大値及び/または前記最小値の前記絶対値が前記所定の第2の閾値より大きいかどうかを判定することに応じて、前記モデル異常検出の前記結果が第2のタイプの異常であると判定するように構成される第2の決定サブモジュールと
    を備える、請求項11に記載のトレーニングシステム。
  14. 前記モデル異常検出の前記結果が前記第2のタイプの異常である場合、前記現在の重み及び/または前記現在の損失関数値を前記第1の閾値内の前記現在の重み及び/または前記現在の損失関数値に修正することは、所定の第2の閾値より大きい前記最大値及び/または前記最小値の前記絶対値を有する要素を前記第1の閾値ずつ減算し、各要素が前記第1の閾値内に収まる現在の重みを取得することを備える、請求項13に記載のトレーニングシステム。
  15. 前記異常検出モジュールは、
    第1のn集計の損失関数値の平均値が第1の集計の損失関数値より大きいかどうかを判定するように構成される第3の判定サブモジュールと、
    前記第1のn集計の前記損失関数値の前記平均値が前記第1の集計の前記損失関数値より大きいかどうかを判定することに応じて、前記モデル異常検出の前記結果が前記第1のタイプの異常であると判定するように構成される第3の決定サブモジュールと
    を備える、請求項11に記載のトレーニングシステム。
  16. 前記モデル異常検出の前記結果が正常であることに応じて、前記現在の重み及び/または前記現在の損失関数値を前記トレーニング用の機械学習システムに入力するように構成されるトレーニングモジュールをさらに備える、請求項11に記載のトレーニングシステム。
  17. 前記トレーニングが終了したかどうかを判定するように構成される終了判定モジュールと、
    前記トレーニングが終了したと判定することに応じて、モデルを生成するように構成されるモデル生成モジュールと、
    前記トレーニングが終了していないと判定することに応じて、各データを基に各作業マシンによって計算された前記ローカル重み及び前記ローカル損失関数値を再度取得することを行うように構成されるリターン実行モジュールと
    をさらに備える、請求項16に記載のトレーニングシステム。
  18. 前記終了判定モジュールは、前記現在の損失関数値及び前記前回の集計の前記損失関数値が前記第3の閾値より小さいことを検出することに応じて、前記トレーニングが終了したことを判定するように構成される、請求項16に記載のトレーニングシステム。
  19. 前記トレーニングデータを取得するように構成されるトレーニングデータ取得モジュールをさらに備え、前記トレーニングデータ割り当てモジュールは、各作業マシンの識別に従って、前記トレーニングデータを前記複数の作業マシンに割り当てるように構成される、請求項11に記載のトレーニングシステム。
  20. 前記集計モジュールは、
    各データを基に各作業マシンによって計算されたローカル重みを合計して、前記現在の重みを取得するように構成される重み集積モジュールと、
    各データを基に各作業マシンによって取得されたローカル損失関数値を合計して、前記現在のローカル損失関数を取得するように構成される損失関数値集積モジュールと
    を備える、請求項11に記載のトレーニングシステム。
JP2018546445A 2016-03-04 2017-02-21 機械学習システムのトレーニング方法及びトレーニングシステム Active JP7004661B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201610125904.6 2016-03-04
CN201610125904.6A CN107153630B (zh) 2016-03-04 2016-03-04 一种机器学习系统的训练方法和训练系统
PCT/CN2017/074318 WO2017148314A1 (zh) 2016-03-04 2017-02-21 一种机器学习系统的训练方法和训练系统

Publications (2)

Publication Number Publication Date
JP2019507442A true JP2019507442A (ja) 2019-03-14
JP7004661B2 JP7004661B2 (ja) 2022-01-21

Family

ID=59743465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018546445A Active JP7004661B2 (ja) 2016-03-04 2017-02-21 機械学習システムのトレーニング方法及びトレーニングシステム

Country Status (6)

Country Link
US (1) US11257005B2 (ja)
EP (1) EP3425527A4 (ja)
JP (1) JP7004661B2 (ja)
CN (1) CN107153630B (ja)
TW (1) TWI740896B (ja)
WO (1) WO2017148314A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022544827A (ja) * 2019-08-20 2022-10-21 マイクロン テクノロジー,インク. プライバシー保護を備えた分散型機械学習

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109754105B (zh) * 2017-11-07 2024-01-05 华为技术有限公司 一种预测方法及终端、服务器
US10114857B1 (en) * 2017-11-13 2018-10-30 Lendingclub Corporation Techniques for performing multi-system computer operations
US11354301B2 (en) 2017-11-13 2022-06-07 LendingClub Bank, National Association Multi-system operation audit log
CN107944990A (zh) * 2017-12-29 2018-04-20 山大地纬软件股份有限公司 一种基于机器学习的精准化推送的综合柜员装置及方法
CN108875776B (zh) * 2018-05-02 2021-08-20 北京三快在线科技有限公司 模型训练方法和装置、业务推荐的方法和装置、电子设备
CN110689133B (zh) * 2018-06-20 2023-09-05 深信服科技股份有限公司 一种训练机器学习引擎的方法、系统及相关装置
CN109902167B (zh) * 2018-12-04 2020-09-01 阿里巴巴集团控股有限公司 嵌入结果的解释方法和装置
CN111507483A (zh) * 2019-01-30 2020-08-07 鸿富锦精密电子(天津)有限公司 返修板检测装置、方法及计算机可读存储介质
CN110084380A (zh) * 2019-05-10 2019-08-02 深圳市网心科技有限公司 一种迭代训练方法、设备、系统及介质
CN110263294B (zh) * 2019-05-23 2020-08-04 阿里巴巴集团控股有限公司 损失函数取值的确定方法、装置和电子设备
US10956597B2 (en) 2019-05-23 2021-03-23 Advanced New Technologies Co., Ltd. Loss function value determination method and device and electronic equipment
CN110837657B (zh) * 2019-11-06 2023-03-14 腾讯云计算(北京)有限责任公司 数据处理方法、客户端、服务器及存储介质
CN111159961B (zh) * 2019-12-13 2024-02-02 杭州广立微电子股份有限公司 一种基于曲线数据的异常检测方法及系统
CN111881983B (zh) * 2020-07-30 2024-05-28 平安科技(深圳)有限公司 基于分类模型的数据处理方法、装置、电子设备及介质
CN112527631A (zh) * 2020-11-18 2021-03-19 武汉迈威通信股份有限公司 bug定位方法、系统、电子设备及存储介质
US11310563B1 (en) * 2021-01-07 2022-04-19 Dish Network L.L.C. Searching for and prioritizing audiovisual content using the viewer's age
CN113378914B (zh) * 2021-06-08 2023-06-30 上海壁仞智能科技有限公司 虚假关联性去除方法及装置
CN114021464A (zh) * 2021-11-09 2022-02-08 京东科技信息技术有限公司 数据处理方法、装置和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001344590A (ja) * 2000-05-31 2001-12-14 Fuji Electric Co Ltd ニューラルネットワーク及びその学習方法、解析方法並びに異常判定方法
JP2009288933A (ja) * 2008-05-28 2009-12-10 Sony Corp 学習装置、学習方法、及びプログラム
JP2012022558A (ja) * 2010-07-15 2012-02-02 Hitachi Ltd 分散計算システム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100640264B1 (ko) * 2002-03-02 2007-02-28 김용대 앙상블 모형을 이용한 데이터 마이닝 모형 구축 장치 및그 방법
US7467118B2 (en) * 2006-01-12 2008-12-16 Entelos Inc. Adjusted sparse linear programming method for classifying multi-dimensional biological data
US20070233679A1 (en) * 2006-04-03 2007-10-04 Microsoft Corporation Learning a document ranking function using query-level error measurements
JP5206197B2 (ja) 2008-07-28 2013-06-12 富士通株式会社 規則学習方法、プログラム及び装置
CN102176698A (zh) * 2010-12-20 2011-09-07 北京邮电大学 一种基于迁移学习的用户异常行为检测方法
CN102737126B (zh) * 2012-06-19 2014-03-12 合肥工业大学 云计算环境下的分类规则挖掘方法
TWI474673B (zh) * 2012-12-06 2015-02-21 Inst Information Industry 工作負載分配裝置及其工作負載分配方法
CN104077306B (zh) * 2013-03-28 2018-05-11 阿里巴巴集团控股有限公司 一种搜索引擎的结果排序方法及系统
CN103425996B (zh) * 2013-08-01 2017-08-25 华南理工大学 一种并行分布式的大规模图像识别方法
US9953271B2 (en) 2013-11-22 2018-04-24 California Institute Of Technology Generation of weights in machine learning
CN104008420A (zh) * 2014-05-26 2014-08-27 中国科学院信息工程研究所 一种基于自动编码机的分布式离群点检测方法及系统
CN105187411B (zh) * 2015-08-18 2018-09-14 福建省海峡信息技术有限公司 一种分布式异常检测网络数据流的方法
US11087234B2 (en) 2016-01-29 2021-08-10 Verizon Media Inc. Method and system for distributed deep machine learning

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001344590A (ja) * 2000-05-31 2001-12-14 Fuji Electric Co Ltd ニューラルネットワーク及びその学習方法、解析方法並びに異常判定方法
JP2009288933A (ja) * 2008-05-28 2009-12-10 Sony Corp 学習装置、学習方法、及びプログラム
JP2012022558A (ja) * 2010-07-15 2012-02-02 Hitachi Ltd 分散計算システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
浦 晃 ほか: "「分散計算環境における並列パーセプトロンの将棋評価関数への適用」", 情報処理学会研究報告 ゲーム情報学(GI) [ONLINE], vol. 第2014-GI-31巻, 第6号, JPN6021013261, 10 March 2014 (2014-03-10), pages 1 - 8, ISSN: 0004485048 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022544827A (ja) * 2019-08-20 2022-10-21 マイクロン テクノロジー,インク. プライバシー保護を備えた分散型機械学習
JP7450019B2 (ja) 2019-08-20 2024-03-14 マイクロン テクノロジー,インク. プライバシー保護を備えた分散型機械学習

Also Published As

Publication number Publication date
CN107153630B (zh) 2020-11-06
WO2017148314A1 (zh) 2017-09-08
CN107153630A (zh) 2017-09-12
US20180365595A1 (en) 2018-12-20
TW201734871A (zh) 2017-10-01
EP3425527A1 (en) 2019-01-09
US11257005B2 (en) 2022-02-22
JP7004661B2 (ja) 2022-01-21
EP3425527A4 (en) 2019-11-27
TWI740896B (zh) 2021-10-01

Similar Documents

Publication Publication Date Title
JP7004661B2 (ja) 機械学習システムのトレーニング方法及びトレーニングシステム
CN108009016B (zh) 一种资源负载均衡控制方法及集群调度器
US10884891B2 (en) Interactive detection of system anomalies
EP3893154A1 (en) Recommendation model training method and related apparatus
CN109413175B (zh) 一种信息处理方法、装置及电子设备
US20180046724A1 (en) Information recommendation method and apparatus, and server
US20160132904A1 (en) Influence score of a brand
JP2019537115A (ja) ユーザー異常行動検出方法、装置及びシステム
KR20180097587A (ko) 정보 권고 방법 및 장치
JP6985518B2 (ja) パーソナライズされた推奨を生成するために適合されたクライアント、サーバ、およびクライアント−サーバシステム
CN108920665B (zh) 基于网络结构和评论文本的推荐评分方法及装置
US20180365339A1 (en) Application classification method and apparatus
CN108366012B (zh) 一种社交关系建立方法、装置及电子设备
CN104899228A (zh) 一种发布网页资源的方法及装置
CN110555172A (zh) 用户关系挖掘方法及装置、电子设备和存储介质
Haslegrave et al. Preferential attachment with choice
CN110008977A (zh) 聚类模型构建方法以及装置
JPWO2014125796A1 (ja) システム分析装置、及び、システム分析方法
CN110633804B (zh) 金融产品进件评价方法、服务器和存储介质
CN110969379B (zh) 一种替代物料的筛选方法及相关装置
JP2020035219A (ja) 情報処理装置、情報処理方法および情報処理プログラム
CN109491892B (zh) 一种项目环境的配置方法和装置
Eskandari et al. Stability analysis and feedback design of a direct current–direct current power converter by vector Lyapunov function
CN111444292A (zh) 快消品数据处理方法、装置、电子设备及存储介质
CN115509776B (zh) 基于电力工程智慧监理平台的数据分析方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220104

R150 Certificate of patent or registration of utility model

Ref document number: 7004661

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150