JP7483929B2 - 共同トレーニングモデルを評価するための方法及び装置 - Google Patents

共同トレーニングモデルを評価するための方法及び装置 Download PDF

Info

Publication number
JP7483929B2
JP7483929B2 JP2022561404A JP2022561404A JP7483929B2 JP 7483929 B2 JP7483929 B2 JP 7483929B2 JP 2022561404 A JP2022561404 A JP 2022561404A JP 2022561404 A JP2022561404 A JP 2022561404A JP 7483929 B2 JP7483929 B2 JP 7483929B2
Authority
JP
Japan
Prior art keywords
model
sample set
joint training
evaluation data
model evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022561404A
Other languages
English (en)
Other versions
JP2023521120A (ja
Inventor
▲竜▼一佳 李
迪 ▲呉▼
程 ▲陳▼
晨廖▲暉▼ 方
▲鵬▼ ▲趙▼
浚源 解
逸翔 ▲陳▼
良超 ▲呉▼
▲竜▼ 常
小兵 ▲劉▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Publication of JP2023521120A publication Critical patent/JP2023521120A/ja
Application granted granted Critical
Publication of JP7483929B2 publication Critical patent/JP7483929B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2458Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/2163Partitioning the feature space

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Fuzzy Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、コンピュータ技術分野に関し、特には、共同トレーニングモデルを評価するための方法及び装置に関する。
(関連出願の相互参照)
本願は、2020年04月08日に提出された、出願番号が202010272019.7であり、発明の名称が「共同トレーニングモデルを評価するための方法及び装置」である、中国特許出願について優先権を主張するものであり、該出願の全てが参照によって本願に組み込まれている。
人工知能技術の発展に伴い、機械学習の応用範囲はますます広がっている。近年、データ孤島とデータプライバシーの問題を解決するために、関連の方法としては、通常、共同トレーニングモデルによって、生データを暴露せずに、機械学習モデルの構築を完了する。上記共同トレーニングモデルのトレーニングは、通常、複数のモデルトレーニング関与者間で伝達されるモデル勾配によってモデルパラメータを調整することで実現される。
本願の実施例は、共同トレーニングモデルを評価するための方法及び装置を提供する。
第1側面において、本願の実施例は、共同トレーニングモデルを評価するための方法を提供する。該方法は、目標機器から送信されるモデル評価データ要求を受信するステップであり、目標機器は共同トレーニングモデルの関与者を含むステップと、モデル評価データ要求に一致するサンプル集合を取得するステップであり、一致するサンプル集合は共同トレーニングモデルに関連付けられるラベル有りデータに属するステップと、一致するサンプル集合に基づいて、共同トレーニングモデルのモデル評価データを生成するステップと、を含む。
いくつかの実施例において、上記モデル評価データ要求は、サンプルの分割方法を指示するためのデータ分割情報を含み、モデル評価データ要求に一致するサンプル集合を取得する上記ステップは、共同トレーニングモデルをトレーニングするためのサンプル集合を取得するステップと、データ分割情報に基づいてサンプル集合からサンプルを選択し、モデル評価データ要求に一致するサンプル集合を構成するステップと、を含む。
いくつかの実施例において、一致するサンプル集合に基づいて、共同トレーニングモデルのモデル評価データを生成する上記ステップは、一致するサンプル集合をトレーニングサンプル集合およびテストサンプル集合に分割するステップと、一致するサンプル集合を用いて、共同トレーニングモデルのモデル評価データの時間次元に伴う変化を指示するための共同トレーニングモデルの指標変化情報を生成するステップと、を含む。
いくつかの実施例において、上記モデル評価データ要求は、指標変化情報の少なくとも1つの次元を指示するためのデータ照会権限情報をさらに含み、該方法は、データ照会権限情報に基づいて、指標変化情報からデータ照会権限情報に一致するモデル評価データを抽出するステップと、一致するモデル評価データを目標機器に送信するステップと、をさらに含む。
第2側面において、本願の実施例は、共同トレーニングモデルを評価するための装置を提供する。該装置は、目標機器から送信されるモデル評価データ要求を受信するように構成される受信ユニットであり、目標機器は共同トレーニングモデルの関与者を含む受信ユニットと、モデル評価データ要求に一致するサンプル集合を取得するように構成される取得ユニットであり、一致するサンプル集合は共同トレーニングモデルに関連付けられるラベル有りデータに属する取得ユニットと、一致するサンプル集合に基づいて、共同トレーニングモデルのモデル評価データを生成するように構成される生成ユニットと、を備える。
いくつかの実施例において、上記モデル評価データ要求は、サンプルの分割方法を指示するためのデータ分割情報を含む。上記取得ユニットは、共同トレーニングモデルをトレーニングするためのサンプル集合を取得するように構成される取得モジュールと、データ分割情報に基づいて、サンプル集合からサンプルを選択し、モデル評価データ要求に一致するサンプル集合を構成するように構成される第1生成モジュールと、を備える。
いくつかの実施例において、上記生成ユニットは、一致するサンプル集合をトレーニングサンプル集合およびテストサンプル集合に分割するように構成される分割モジュールと、一致するサンプル集合を用いて、共同トレーニングモデルのモデル評価データの時間次元に伴う変化を指示するための共同トレーニングモデルの指標変化情報を生成するように構成される第2生成モジュールと、を備える。
いくつかの実施例において、上記モデル評価データ要求は、指標変化情報の少なくとも1つの次元を指示するためのデータ照会権限情報をさらに含み、該装置は、データ照会権限情報に基づいて、指標変化情報からデータ照会権限情報に一致するモデル評価データを抽出するように構成される抽出ユニットと、一致するモデル評価データを目標機器に送信するように構成される送信ユニットと、をさらに備える。
第3側面において、本願の実施例は、共同トレーニングモデルを評価するためのシステムを提供する。該システムは、第1関与側と第2関与側を備える。前記第1関与側は、ローカルサンプル集合を取得し、ローカルサンプル集合内のローカルサンプルは共同トレーニングモデルをトレーニングするためのラベル無しデータに属し、ローカルサンプル集合に関連付けられる共同トレーニングモデルのモデル評価データ要求を生成し、そして、モデル評価データ要求を共同トレーニングモデルの第2関与側に送信するように構成されている。第2関与側と第1関与側は、共同で共同トレーニングモデルをトレーニングする。第2関与側は、第1関与側から送信されるモデル評価データ要求を受信し、モデル評価データ要求に一致するサンプル集合を取得し、一致するサンプル集合は共同トレーニングモデルに関連付けられるラベル有りデータに属し、そして、一致するサンプル集合に基づいて、共同トレーニングモデルのモデル評価データを生成するように構成されている。
いくつかの実施例において、上記モデル評価データ要求は、データ分割情報を含み、上記第1関与側は、さらに、ローカルサンプル集合内のサンプルの特徴次元に基づいて、サンプルの分割方法を指示するためのデータ分割情報を生成するように構成されている。
いくつかの実施例において、上記第1関与側は、さらに、第2関与側から共同トレーニングモデルのモデル評価データを取得し、そして、モデル評価データに基づいて、共同トレーニングモデルを調整するように構成されている。
第4側面において、本願の実施例は、サーバを提供する。該サーバは、1つ又は複数のプロセッサと、1つ又は複数のプログラムが記憶されている記憶装置とを備え、1つ又は複数のプログラムが1つ又は複数のプロセッサによって実行されると、1つ又は複数のプロセッサに、第1側面のいずれかの実施形態に記載の方法を実施させる。
第5側面において、本願の実施例は、コンピュータ可読媒体を提供する。該コンピュータ可読媒体には、複数の命令を含むコンピュータプログラムが記憶されており、前記命令がプロセッサによって実行されると、第1側面のいずれかの実施形態に記載の方法を実施させる。
本願の実施例で提供される共同トレーニングモデルを評価するための方法及び装置は、まず、目標機器から送信されるモデル評価データ要求を受信する。ここで、目標機器は共同トレーニングモデルの関与者を含む。その後、モデル評価データ要求に一致するサンプル集合を取得する。ここで、一致するサンプル集合は共同トレーニングモデルに関連付けられるラベル有りデータに属する。最後に、一致するサンプル集合に基づいて、共同トレーニングモデルのモデル評価データを生成する。これにより、生サンプルデータを暴露することなく、共同トレーニングモデルの効果指標を共有することを可能にする。これによって、共同トレーニングモデルの最適化と改善のためにタイムリーで効果的なデータ参照基盤を提供する。
以下の図面を参照して、非限定的な実施例に関する詳細な記述を読むことにより、本願の他の特徴、目的、及び利点が、より明確になる。
本願の一実施例に従った、適用可能な例示的なシステムアーキテクチャ図である。 本願の一実施例に従った、共同トレーニングモデルを評価するための方法に係るフローチャートである。 本願の一実施例に従った、共同トレーニングモデルを評価するための方法に係る応用シーンの模式図である。 本願の一実施例に従った、共同トレーニングモデルを評価するための別の方法に係るフローチャートである。 本願の一実施例に従った、共同トレーニングモデルを評価するための装置に係る構造模式図である。 本願の一実施例に従った、共同トレーニングモデルを評価するためのシステムに係る各機器間のやり取りを示すシーケンス図である。 本願の一実施例を実現するのに適する電子機器の構造模式図である。
以下において、図面と実施例を参照しながら、本願をさらに詳細に説明する。ここで説明する具体的な実施例は、本願発明を解釈するためのものに過ぎず、該発明を限定するものではないことが理解されよう。また、説明すべきは、記述上の便宜のために、図面では、本願発明と関係する部分のみを示している点である。
説明すべきは、相互に違反しない限り、本願における実施例及び実施例における特徴を互いに組み合わせてもよい点である。以下において、図面を参照しながら、実施例に基づいて、本願発明を詳細に説明する。
図1は、本願に係る共同トレーニングモデルを評価するための方法又は共同トレーニングモデルを評価するための装置を応用可能な、例示的なアーキテクチャ100を示す。
図1に示すように、システムアーキテクチャ100は、端末機器101、102、ネットワーク103、104、及び、サーバ105、サーバ106を含んでもよい。ネットワーク103は、端末機器101、102とサーバ105、106との間に通信リンクを提供するための媒体である。ネットワーク104は、サーバ105とサーバ106との間に通信リンクを提供するための媒体である。ネットワーク103、104は、例えば、有線、無線通信リンク、又は光ファイバケーブル、等の様々な接続タイプを含んでもよい。
端末機器101、102は、ネットワーク103を介してサーバ105、106とやり取りして、メッセージの送受信などをすることができる。端末機器101、102には、例えば、ウェブブラウザアプリケーション、ショッピングアプリケーション、検索アプリケーション、即時通信ツール、メールクライアント、ソーシャルプラットフォームソフトウェア、テキスト編集アプリケーション、等の様々な通信クライアントアプリケーションをインストールすることができる。
端末機器101、102は、ハードウェアであってもよいし、または、ソフトウェアであってもよい。端末機器101、102は、ハードウェアである場合、ディスプレイスクリーンを有し、且つデータ伝送をサポートする様々な電子機器であってもよく、スマートフォン、タブレットコンピュータ、電子書リーダー、ラップトップコンピュータ、及びデスクトップコンピュータ、等を含むが、これらに限定されない。端末機器101、102は、ソフトウェアである場合、上記に列挙した電子機器にインストールすることができる。端末機器は、複数のソフトウェア又はソフトウェアモジュール(例えば、分散サービスを提供するためのソフトウェア又はソフトウェアモジュール)として実施されてもよく、または、単一のソフトウェア又はソフトウェアモジュールとして実施されてもよいが、ここでは具体的に限定しない。
サーバ105、106は、様々なサービスを提供するサーバ、例えば、端末機器101、102にインストールされている様々な通信クライアントアプリケーションをサポートするバックグランドサーバであってもよい。バックグランドサーバは、受信したデータ要求に対して解析等の処理を実行して、処理の結果(例えば、推薦されるウェブページ内容)を端末機器にフィードバックすることができる。サーバ105、106は、ネットワーク104を介して中間データの伝送を行って、機械学習モデルを共同でトレーニングすることができる。
説明すべきは、サーバは、ハードウェアであってもよいし、または、ソフトウェアであってもよい点である。サーバは、ハードウェアである場合、複数のサーバからなる分散型サーバ群として実施されてもよく、または、単一のサーバとして実施されてもよい。サーバは、ソフトウェアである場合、複数のソフトウェア又はソフトウェアモジュール(例えば、分散サービスを提供するためのソフトウェア又はソフトウェアモジュール)として実施されてもよく、または、単一のソフトウェア又はソフトウェアモジュールとして実施されてもよい。ここでは具体的に限定しない。
説明すべきは、本願の実施例で提供される共同トレーニングモデルを評価するための方法は、一般的に、サーバ105又はサーバ106によって実行され、それに応じて、共同トレーニングモデルを評価するための装置は、一般的に、サーバ105又はサーバ106に設けられる点である。
なお、図1の端末機器、ネットワーク、及びサーバの数は、単なる例示であることを理解すべきである。現実のニーズに応じて、任意の数の端末機器、ネットワーク、及びサーバを有し得る。
次に、図2を参照すると、図2には、本願の一実施例に係る共同トレーニングモデルを評価するための方法のフロー200が示される。該共同トレーニングモデルを評価するための方法は、以下のステップを含む。
ステップ201では、目標機器から送信されるモデル評価データ要求を受信する。
本実施例において、共同トレーニングモデルを評価するための方法の実行主体(図1に示すサーバ105又はサーバ106)は、目標機器から送信されるモデル評価データ要求を有線接続方式又は無線接続方式によって受信することができる。上記目標機器は、共同トレーニングモデルの関与者を含んでもよい。上記共同トレーニングモデルは、生データを暴露することなく、複数の関与者によって共同でトレーニングされ得る、様々なモデルを含んでもよい。上記共同トレーニングモデルに関与する関与者の間は、暗号化された特徴とモデル中間結果(例えば、勾配)を伝送して、各関与者によってトレーニングされるサブモデルのモデルパラメータを調整することができる。上記モデル評価データ要求は、上記実行主体および上記目標機器によって、共同でトレーニングされる共同トレーニングモデルのモデル評価データの取得に用いられ得る。上記モデル評価データは、適合率、再現率、AUC(area under curve、ROC曲線下面積)、PSI(Population Stability Index、モデル安定度指標)、対数損失(Log Loss)の少なくとも1つを含んでもよいが、これらに限定されない。
説明すべきは、一例として、関与者が2つである共同トレーニングモデルの応用シーンでは、各関与者には、それぞれサンプルセットが格納されており、両方のサンプルセットは、通常、一定の交差を有する点である。一般的に、2つの関与者のうち、一方のサンプルセット内のサンプルはラベルだけを有し、他方のサンプルセット内のサンプルは特徴だけを含む。また、トレーニング前には、通常、2つの関与者のサンプルをアライメントする必要がある。
本実施例のいくつかの選択可能な実施形態において、上記モデル評価データ要求は、データ照会権限情報を含んでもよく、上記データ照会権限情報は、上記モデル評価データの少なくとも1つの次元を指示するために用いられ得る。当該次元は、モデル評価データの識別子(key)、サンプリング粒度、所定期間のうち少なくとも1つを含んでもよいが、これらに限定されない。
ステップ202では、モデル評価データ要求に一致するサンプル集合を取得する。
本実施例において、上記実行主体は、有線接続方式又は無線接続方式によって、上記モデル評価データ要求に一致するサンプル集合を取得してもよい。上記一致するサンプル集合は、通常、上記共同トレーニングモデルに関連付けられるラベル有りデータに属し、つまり、上記サンプル集合内のサンプルは、特徴及び特徴に対応するラベルを含んでもよい。
一例として、上記実行主体は、通常、ローカルに予め記憶されている、上記モデル評価データ要求が指示する共同トレーニングモデルをトレーニングするためのサンプル集合を取得してもよい。別の例として、上記実行主体は、通信接続される電子機器(例えば、記憶サーバ)から、上記一致するサンプル集合を取得してもよい。説明すべきは、データセキュリティを保証するために、生のサンプルデータは、上記通信接続される電子機器と上記共同トレーニングモデルの他の関与者との間で直接的に共有されない点である。
本実施例のいくつかの選択可能な実施形態において、上記モデル評価データ要求は、データ分割情報を含んでもよい。上記データ分割情報は、サンプルの分割方法を指示するために用いられ得る。上記サンプル識別子は、例えば、ネットワーク接続における要求識別子(Request ID)を含んでもよい。上記実行主体は、以下のステップで、モデル評価データ要求に一致するサンプル集合を取得してもよい。
第1ステップでは、共同トレーニングモデルをトレーニングするためのサンプル集合を取得する。
このような実施形態において、上記実行主体は、ローカル又は通信接続される電子機器から、上記共同トレーニングモデルをトレーニングするためのサンプル集合を取得してもよい。通常、上記共同トレーニングモデルをトレーニングするための上記サンプル集合は、サンプルアライメントをしたサンプルを含んでもよい。説明すべきは、データセキュリティを保証するために、生のサンプルデータは、上記通信接続される電子機器と上記共同トレーニングモデルの他の関与者との間で直接的に共有されない点である。
第2ステップでは、データ分割情報に基づいて、サンプル集合からサンプルを選択し、モデル評価データ要求に一致するサンプル集合を構成する。
このような実施形態において、上記実行主体は、データ分割情報が指示するサンプル分割方法に基づいて、上記第1ステップで取得されたサンプル集合から、サンプルを選択し、上記モデル評価データ要求に一致するサンプル集合を構成してもよい。一例として、上記データ分割情報は、ホワイトリスト形式のサンプル識別子リストを含んでもよい。上記実行主体は、上記第1ステップで取得されたサンプル集合から、上記サンプル識別子リスト内の識別子に一致するサンプルを選択してもよい。上記サンプル識別子は、例えば、シリアル番号又はサンプル特徴、等のサンプルを一意に識別できる、様々な文字列を含んでもよい。
上記選択可能な実施形態によれば、上記実行主体は、上記データ分割情報に一致する特定のサンプル集合を選択し、後続の共同トレーニングモデルのトレーニング及びモデル評価データの生成のためにデータ基盤を提供することができる。
ステップ203では、一致するサンプル集合に基づいて、共同トレーニングモデルのモデル評価データを生成する。
本実施例において、上記実行主体は、上記ステップ202で取得された一致するサンプル集合に基づいて、様々な方式によって、上記共同トレーニングモデルのモデル評価データを生成することができる。一例として、上記実行主体は、上記モデル評価データ要求が指示する共同トレーニングモデルをトレーニングするための上記サンプル集合を用いてモデルをトレーニングすることで、上記モデル評価データ要求に一致するモデル評価データを生成することができる。例えば、上記モデル評価データ要求がモデル適合率のデータの取得を指示するために用いられるとき、上記実行主体は、上記モデルトレーニング完了後のテスト結果に基づいて、上記モデルの適合率指標を生成することができる。選択的に、上記実行主体は、上記モデルトレーニング完了後に、上記モデルの各種のモデル評価データの集合を生成してもよい。その後、上記実行主体は、上記モデル評価データ集合から、上記モデル評価データ要求が指示するデータに一致するモデル評価データを選択することができる。
本実施例のいくつかの選択可能な実施形態において、上記実行主体は、上記モデル評価データ要求に対する応答情報として、生成された共同トレーニングモデルのモデル評価データを、上記目標機器に送信してもよい。
引き続き、図3を参照すると、図3は、本願の一実施例に従った、共同トレーニングモデルを評価するための方法に係る応用シーンの模式図である。図3の応用シーンにおいて、情報系アプリケーションのバックグランドサーバ301およびショッピングアプリケーションのバックグランドサーバ302は、それぞれサンプル集合A303およびサンプル集合B304を用いて、共同トレーニングモデル305を共同でトレーニングしてもよい。上記サンプル集合A303内のサンプルは、様々なユーザ属性情報(例えば、性別、年齢、嗜好、等)を含んでもよい。上記サンプル集合B304内のサンプルは、ユーザ識別子およびユーザのショッピング行為(例えば、商品をカートに入れる)の有無を含んでもよい。通常、バックグランドサーバ301およびバックグランドサーバ302は、相手のサンプルデータを直接的に取得することができない。ユーザが、端末306で情報系アプリケーション使用すると、バックグランドサーバ301は、上記トレーニングされた共同トレーニングモデル305を用いて、対応する商品リンクを取得して、端末306に送信することができる。これにより、端末306は、商品リンクをユーザに提示することができる。バックグランドサーバ301は、上記共同トレーニングモデル305の効果指標(例えば、適合率)を取得するように、バックグランドサーバ302にモデル評価データ要求307を送信してもよい。バックグランドサーバ302は、上記モデル評価データ要求307に一致するサンプル集合B304を取得することができる。上記サンプル集合B304に基づいて、バックグランドサーバ302は、上記モデル評価データとして、上記サンプル集合B304によってトレーニングされた共同トレーニングモデル305の効果指標(例えば、適合率)を生成することができる。選択的に、バックグランドサーバ302は、さらに、上記モデル評価データを含む応答情報308をバックグランドサーバ301に送信してもよい。
現在、従来技術の1つとしては、通常、分散型トレーニングの方式によって、大規模なモデルトレーニングの効率を向上させるが、この場合、ラベルサンプルを有さない一方にとって、データセキュリティを保証しつつ、モデルのトレーニング効果を知ることが困難である。本願の上記実施例で提供される方法では、ラベルサンプルを有さない一方から送信されるモデル評価データ要求に基づいて、対応する共同トレーニングモデルのモデル評価データを生成することで、生サンプルデータを暴露することなく、共同トレーニングモデルの効果指標を共有することを可能にする。これによって、共同トレーニングモデルの最適化と改善のためにタイムリーで効果的なデータ参照基盤を提供する。
さらに、図4を参照すると、図4には、共同トレーニングモデルを評価するための方法に係る別の実施例のフロー400が示される。該共同トレーニングモデルを評価するための方法のフロー400は、以下のステップを含む。
ステップ401では、目標機器から送信されるモデル評価データ要求を受信する。
本実施例において、上記モデル評価データ要求は、データ分割情報を含んでもよい。上記データ分割情報は、サンプルの分割方法を指示するために用いられ得る。
本実施例のいくつかの選択可能な実施形態において、上記モデル評価データ要求は、データ照会権限情報を含んでもよい。上記データ照会権限情報は、上記指標変化情報の少なくとも1つの次元を指示するために用いられ得る。
ステップ402では、共同トレーニングモデルをトレーニングするためのサンプル集合を取得する。
ステップ403では、データ分割情報に基づいて、サンプル集合からサンプルを選択し、モデル評価データ要求に一致するサンプル集合を構成する。
上記ステップ401、ステップ402、ステップ403は、それぞれ、前述した実施例のステップ201及びステップ202の選択可能な実施形態と同様であり、ステップ201及びステップ202の選択可能な実施形態についての上記説明は、ステップ401、ステップ402、及びステップ403にも適用される。ここでは詳細な説明を省略する。
ステップ404では、一致するサンプル集合をトレーニングサンプル集合とテストサンプル集合に分割する。
本実施例において、共同トレーニングモデルを評価するための方法の実行主体(例えば、図1に示すサーバ105又はサーバ106)は、様々な方式によって、上記ステップ403で取得された一致するサンプル集合をトレーニングサンプル集合とテストサンプル集合に分割することができる。上記サンプル集合分割の方式は、ホールドアウト(hold-out)、交差検証法(cross validation)、ブートストラップ法(bootstrapping)の少なくとも1つを含んでもよいが、これらに限定されない。
ステップ405では、一致するサンプル集合を用いて、共同トレーニングモデルの指標変化情報を生成する。
本実施例において、上記実行主体は、一致するサンプル集合を用いて、様々な方式によって、共同トレーニングモデルの指標変化情報を生成することができる。上記共同トレーニングモデルの指標変化情報は、上記共同トレーニングモデルのモデル評価データの時間次元に伴う変化を指示するために用いられ得る。上記時間次元は、時間、グローバルステップ数(global step)の少なくとも1つを含んでもよいが、これらに限定されない。一例として、上記実行主体は、上記時間次元に基づき、上記一致するサンプル集合におけるトレーニングサンプル集合を用いて、共同トレーニングモデルのパラメータを調整し、その後、上記一致するサンプル集合におけるテストサンプル集合を用いて、上記調整された共同トレーニングモデルの各種のモデル評価データを生成することができる。上記モデル評価データは、適合率、再現率、AUCの少なくとも1つを含んでもよいが、これらに限定されない。これにより、上記実行主体は、共同トレーニングモデルの指標変化情報として、上記各種のモデル評価データの経時変化を示すグラフを生成することができる。
本実施例のいくつかの選択可能な実施形態において、上記実行主体は、上記モデル評価データ要求に含まれるデータ照会権限情報に基づいて、引き続き、以下のステップを実行してもよい。
第1ステップでは、データ照会権限情報に基づいて、指標変化情報からデータ照会権限情報に一致するモデル評価データを抽出する。
このような実施形態において、上記実行主体は、上記モデル評価データ要求に含まれるデータ照会権限情報に基づいて、生成された指標変化情報から上記データ照会権限情報に一致するモデル評価データを抽出することができる。上記データ照会権限情報は、上記指標変化情報の少なくとも1つの次元を指示するために用いられ得る。上記次元は、時間、モデル評価データの識別子(例えば、名称)、サンプリング粒度の少なくとも1つを含んでもよいが、これらに限定されない。
第2ステップでは、一致するモデル評価データを目標機器に送信する。
このような実施形態において、上記実行主体は、上記第1ステップで抽出された一致するモデル評価データを上記目標機器に送信してもよい。
上記選択可能な実施形態によれば、上記目標機器は、データ照会権限情報を用いて、時間、モデル評価データの名称(例えば、適合率、AUC)、等の次元に応じて、必要なモデル評価データを取得することができる。
図4から分かるように、本実施例における共同トレーニングモデルを評価するための方法のフロー400には、分割後の一致するサンプル集合を用いて、共同トレーニングモデルの指標変化情報を生成するステップが示される。これにより、本実施例に記載の解決手段は、分割されたサンプル集合を用いて、共同トレーニングモデルをトレーニングし、モデルトレーニング過程中のモデル評価データの時間次元に伴う変化情報を生成し、これにより、データセキュリティを保証しつつ、共同トレーニングモデル間のモデル評価指標の共有を実現する。
さらに、図5を参照すると、上記各図に示す方法の実施形態として、本願発明は、共同トレーニングモデルを評価するための装置の一実施例を提供する。該装置の実施例は、図2に示す方法の実施例に対応し、該装置は、具体的に、様々な電子機器に適用することができる。
図5に示すように、本実施例で提供される共同トレーニングモデルを評価するための装置500は、受信ユニット501、取得ユニット502、及び生成ユニット503を備える。そのうち、受信ユニット501は、目標機器から送信されるモデル評価データ要求を受信するように構成されており、目標機器は、共同トレーニングモデルの関与者を含む。取得ユニット502は、モデル評価データ要求に一致するサンプル集合を取得するように構成されており、一致するサンプル集合は、共同トレーニングモデルに関連付けられるラベル有りデータに属する。生成ユニット503は、一致するサンプル集合に基づいて、共同トレーニングモデルのモデル評価データを生成するように構成されている。
本実施例において、共同トレーニングモデルを評価するための装置500において、受信ユニット501、取得ユニット502、及び生成ユニット503の具体的な処理及びそれらの技術的効果は、それぞれ、図2の対応する実施例におけるステップ201、ステップ202、ステップ203、又は、図4の対応する実施例におけるステップ401~ステップ405の関連する説明を参照すればよく、ここでは詳細な説明を省略する。
本実施例のいくつかの選択可能な実施形態において、上記モデル評価データ要求は、データ分割情報を含んでもよい。上記データ分割情報は、サンプルの分割方法を指示するために用いられ得る。上記取得ユニット502は、取得モジュール(図示せず)および第1生成モジュール(図示せず)を含んでもよい。そのうち、上記取得モジュールは、共同トレーニングモデルをトレーニングするためのサンプル集合を取得するように構成されてもよい。上記第1生成モジュールは、データ分割情報に基づいて、サンプル集合からサンプルを選択し、モデル評価データ要求に一致するサンプル集合を構成するように構成されてもよい。
本実施例のいくつかの選択可能な実施形態において、上記生成ユニット503は、分割モジュール(図示せず)および第2生成モジュール(図示せず)を含んでもよい。そのうち、上記分割モジュールは、一致するサンプル集合をトレーニングサンプル集合とテストサンプル集合に分割するように構成されてもよい。上記第2生成モジュールは、一致するサンプル集合を用いて、共同トレーニングモデルの指標変化情報を生成するように構成されてもよい。上記共同トレーニングモデルの指標変化情報は、共同トレーニングモデルのモデル評価データの時間次元に伴う変化を指示するために用いられ得る。
本実施例のいくつかの選択可能な実施形態において、上記モデル評価データ要求は、データ照会権限情報を含んでもよい。上記データ照会権限情報は、指標変化情報の少なくとも1つの次元を指示するために用いられ得る。該共同トレーニングモデルを評価するための装置500は、抽出ユニット(図示せず)および送信ユニット(図示せず)を、さらに含んでもよい。そのうち、上記抽出ユニットは、データ照会権限情報に基づいて、指標変化情報からデータ照会権限情報に一致するモデル評価データを抽出するように構成されてもよい。上記送信ユニットは、一致するモデル評価データを目標機器に送信するように構成されてもよい。
本願の上記実施例で提供される装置は、目標機器から送信されるモデル評価データ要求を受信ユニット501によって受信する。ここで、目標機器は、共同トレーニングモデルの関与者を含む。その後、取得ユニット502は、モデル評価データ要求に一致するサンプル集合を取する。ここで、一致するサンプル集合は、共同トレーニングモデルに関連付けられるラベル有りデータに属する。最後に、生成ユニット503は、一致するサンプル集合に基づいて、共同トレーニングモデルのモデル評価データを生成する。これにより、生サンプルデータを暴露することなく、共同トレーニングモデルの効果指標を共有することを可能にする。これによって、共同トレーニングモデルの最適化と改善のためにタイムリーで効果的なデータ参照基盤を提供する。
さらに、図6を参照すると、図6には、共同トレーニングモデルを評価するための方法の一実施例における各機器間のやり取りのシーケンス600が示される。該共同トレーニングモデルを評価するためのシステムは、第1関与側(例えば、図1に示すサーバ105)および第2関与側(例えば、図1に示すサーバ106)を含んでもよい。そのうち、上記第1関与側は、ローカルサンプル集合を取得する。ここで、上記ローカルサンプル集合内のローカルサンプルは、共同トレーニングモデルをトレーニングするためのラベル無しデータに属し、上記ローカルサンプル集合に関連付けられる共同トレーニングモデルのモデル評価データ要求を生成し、そして、上記モデル評価データ要求を上記共同トレーニングモデルの第2関与側に送信するように構成されてもよく、上記第2関与側および上記第1関与側が、共同で上記共同トレーニングモデルをトレーニングする。上記第2関与側は、上記第1関与側から送信されるモデル評価データ要求を受信し、上記モデル評価データ要求に一致するサンプル集合を取得する。ここで、上記一致するサンプル集合は、上記共同トレーニングモデルに関連付けられるラベル有りデータに属し、そして、上記一致するサンプル集合に基づいて、上記共同トレーニングモデルのモデル評価データを生成するように構成されてもよい。
本実施例のいくつかの選択可能な実施形態において、上記モデル評価データ要求、はデータ分割情報を含んでもよい。上記第1関与側は、さらに、上記ローカルサンプル集合内のサンプルの特徴次元に基づいて、サンプルの分割方法を指示するためのデータ分割情報を生成するように構成されてもよい。
本実施例のいくつかの選択可能な実施形態において、上記第1関与側は、さらに、上記第2関与側から上記共同トレーニングモデルのモデル評価データを取得し、そして、上記モデル評価データに基づいて、上記共同トレーニングモデルを調整するように構成されてもよい。
図6に示すように、ステップ601において、第1関与側は、ローカルサンプル集合を取得する。
本実施例において、上記第1関与側は、ローカルサンプル集合を取得してもよい。上記ローカルサンプル集合内のローカルサンプルは、通常、共同トレーニングモデルをトレーニングするために用いられ得るラベル無しデータに属する。つまり、上記サンプル集合内のサンプルは、通常、特徴のみを含む。また、上記ローカルサンプル集合内のローカルサンプルに含まれる特徴は、通常、対応するラベル有りデータのサンプルに含まれる特徴よりも多い。一例として、上記ラベル無しデータのサンプルに含まれる特徴は、性別、年齢、地域、嗜好、閲覧履歴情報を含んでもよく、上記ラベル無しデータのサンプルに含まれる特徴は、アカウントを含んでもよい。
ステップ602において、第1関与側は、ローカルサンプル集合に関連付けられる共同トレーニングモデルのモデル評価データ要求を生成する。
本実施例において、上記第1関与側は、様々な方式によって、上記ステップ601で取得されたローカルサンプル集合に関連付けられる共同トレーニングモデルのモデル評価データ要求を生成することができる。上記モデル評価データ要求は、上記共同トレーニングモデルのモデル評価データの取得に用いられ得る。上記第1関与側は、所定のモデル指標リストに基づいて、上記モデル評価データ要求を生成してもよい。上記モデル指標リストは、適合率、再現率、AUC、PSI、対数損失の少なくとも1つを含んでもよい。一例として、上記第1関与側は、上記モデル指標リストから少なくとも1つの指標をランダムに選択してもよい。別の例として、上記第1関与側は、技術者が使用する端末から送信される、モデル指標を指示するための情報に基づいて、該モデル指標を取得するためのモデル評価データ要求を生成してもよい。
本実施例のいくつかの選択可能な実施形態において、上記第1関与側は、上記ステップ601で取得されたローカルサンプル集合内のサンプルの特徴次元に基づいて、データ分割情報を生成してもよい。上記データ分割情報は、サンプルの分割方法を指示するために用いられ得る。上記特徴次元は、例えば、ユーザ次元(例えば、ID)とユーザ特徴次元(例えば、オンライン時間、等)を含んでもよい。一例として、上記データ分割情報は、例えば、ホワイトリスト形式のネットワーク接続の要求識別子リストを含んでもよい。選択的に、上記データ分割情報は、所定のハッシュ関数であってもよい。上記所定のハッシュ関数は、様々な暗号化方法によって生成されたセキュリティポリシ関数であってもよく、上記セキュリティポリシ関数は、生データを逆算することができず、これにより、共同トレーニングモデルのデータセキュリティをさらに保証する。
ステップ603において、第1関与側は、モデル評価データ要求を共同トレーニングモデルの第2関与側に送信する。
本実施例において、上記第2関与側および上記第1関与側が、共同で上記共同トレーニングモデルをトレーニングする。
ステップ604において、第2関与側は、第1関与側から送信されるモデル評価データ要求を受信する。
ステップ605において、第2関与側は、モデル評価データ要求に一致するサンプル集合を取得する。
ステップ606において、第2関与側は、一致するサンプル集合に基づいて、共同トレーニングモデルのモデル評価データを生成する。
上記ステップ604、ステップ605、及びステップ606は、それぞれ、前述した実施例におけるステップ201、ステップ202、ステップ203、又は、ステップ401~ステップ405、及びその選択可能な実施形態と同様であり、ステップ201、ステップ202、ステップ203、又は、ステップ401~ステップ405、及びその選択可能な実施形態についての上記説明は、ステップ604、ステップ605、及びステップ606にも適用され、ここでは詳細な説明を省略する。
本実施例のいくつかの選択可能な実施形態において、上記第1関与側は、引き続き、以下のステップを実行してもよい。
ステップ607では、第2関与側から共同トレーニングモデルのモデル評価データを取得する。
ステップ608では、モデル評価データに基づいて、共同トレーニングモデルを調整する。
このような選択可能な実施形態において、上記第1関与側は、モデル評価データに基づいて、様々な方式によって上記共同トレーニングモデルを調整することができる。一例として、上記第1関与側は、まず、上記モデル評価データが所定のモデル調整条件に適合するか否かを判定してもよい。上記所定のモデル調整条件は、例えば、モデル適合率が所定閾値よりも小さいことを含んでもよい。その後、上記モデル評価データが所定のモデル調整条件に適合するとの判定に応答して、上記実行主体は、様々な方式によって、上記共同トレーニングモデルを調整することができる。例えば、上記実行主体は、トレーニングに使用されていないサンプルを用いて、引き続き、上記共同トレーニングモデルをトレーニングしてもよい。また、例えば、上記実行主体は、サンプルのモデル出力に敏感ではない特徴(例えば、地域を年齢によって置き換える)を調整してもよい。
本願の上記実施例で提供される共同トレーニングモデルを評価するためのシステムにおいて、まず、上記第1関与側は、ローカルサンプル集合を取得する。ここで、上記ローカルサンプル集合内のローカルサンプルは、共同トレーニングモデルをトレーニングするためのラベル無しデータに属する。次に、上記第1関与側は、上記ローカルサンプル集合に関連付けられる共同トレーニングモデルのモデル評価データ要求を生成する。その後、上記第1関与側は、上記モデル評価データ要求を上記共同トレーニングモデルの第2関与側に送信し、上記第2関与側および上記第1関与側が、共同で上記共同トレーニングモデルをトレーニングする。続いて、上記第2関与側は、上記第1関与側から送信されるモデル評価データ要求を受信する。その後、上記第2関与側は、上記モデル評価データ要求に一致するサンプル集合を取得する。ここで、上記一致するサンプル集合は、上記共同トレーニングモデルに関連付けられるラベル有りデータに属する。最後に、上記第2関与側は、上記一致するサンプル集合に基づいて、上記共同トレーニングモデルのモデル評価データを生成する。これにより、ラベルサンプルを有さない共同トレーニングモデル関与者は、モデル評価データ要求を生成して、送信し、ラベルサンプルを有する他方の関与者は、それに基づいて、対応する共同トレーニングモデルのモデル評価データを生成し、それによって、生サンプルデータを暴露することなく、共同トレーニングモデルの効果指標を共有することを可能にし、さらに、共同トレーニングモデルの最適化と改善のためにタイムリーで効果的なデータ参照基盤を提供する。
以下において、図7を参照すると、図7には、本願の実施例を実現するのに適する電子機器700(例えば、図1におけるサーバ105)の構造模式図が示される。図7に示すサーバは一例に過ぎず、本願の実施例の機能及び使用範囲にいかなる限定も与えるものではない。
図7に示すように、電子機器700は、読み取り専用メモリ(ROM)702に記憶されたプログラム、又は、記憶装置708からランダムアクセスメモリ(RAM)703にロードされたプログラムに従って、様々な適切な動作及び処理を実行することができる処理装置701(例えば、中央処理装置、グラフィックプロセッサ、等)を備えることができる。RAM 703には、また、電子機器700の動作に必要な様々なプログラム及びデータが記憶されている。処理装置701、ROM 702、及びRAM 703は、バス704を介して、相互に接続されている。入力/出力(I/O)インタフェース705も、また、バス704に接続されている。
I/Oインタフェース705には、通常、例えば、タッチパネル、タッチパッド、キーボード、マウス、等を含む入力装置706、例えば、液晶ディスプレイ(Liquid Crystal Display、LCD)、スピーカ、バイブレータ、等を含む出力装置707、例えば、磁気テープ、ハードディスク、等を含む記憶装置708、及び、通信装置709が接続されてもよい。通信装置709は、電子機器700が他の機器と無線又は有線で通信してデータを交換することを可能にすることができる。図7では、様々な装置を有する電子機器700を示しているが、図示した全ての装置を実施又は備えることが要求されないことを理解すべきである。代わりに、より多く又はより少ない装置を実施又は備えることができる。図7に示す各ブロックは、1つの装置を代表してもよいし、または、必要に応じて複数の装置を代表してもよい。
特に、本願の実施例によれば、フローチャートを参照しながら説明された上記プロセスは、コンピュータソフトウェアプログラムとして実現されてもよい。例えば、本願の実施例は、コンピュータ可読媒体に具現化されたコンピュータプログラムを含むコンピュータプログラム製品を含み、該コンピュータプログラムは、フローチャートで示される方法を実行するためのプログラムコードを含む。このような実施例では、該コンピュータプログラムは、通信装置709を介してネットワークからダウンロード及びインストールされることが可能であり、又は、記憶装置708もしくはROM 702からインストールされることが可能である。該コンピュータプログラムが処理装置701によって実行されると、本願の実施例の方法で示された上記機能が実行される。
説明すべきは、本願の実施例に記載のコンピュータ可読媒体は、コンピュータ可読信号媒体又はコンピュータ可読記憶媒体、又は、その2つの任意の組み合わせであってもよい点である。コンピュータ可読記憶媒体は、例えば、電気、磁気、光学、電磁気、赤外線、又は、半導体のシステム、装置、又はデバイス、もしくは、これらの任意の組み合わせであってもよいが、これらに限定されない。コンピュータ可読記憶媒体のより具体的な例としては、1本又は複数の導線による電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROMもしくはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光メモリ、磁気メモリ、又は、これらの任意の適切な組み合わせを含んでもよいが、これらに限定されない。本願の実施例において、コンピュータ可読記憶媒体は、命令実行システム、装置、又はデバイスによって使用可能な、もしくは、それらに組み込まれて使用可能なプログラムを包含又は格納する任意の有形の媒体であってもよい。本願の実施例において、コンピュータ可読信号媒体は、ベースバンド内で伝播されるデータ信号、又は、搬送波の一部として伝播されるデータ信号を含んでもよく、その中にコンピュータ可読プログラムコードが担持されている。そうした伝播されるデータ信号は、様々な形態をとることができ、電磁信号、光信号、又は、これらの任意の適切な組み合わせを含むが、これらに限定されない。コンピュータ可読信号媒体は、コンピュータ可読記憶媒体以外の任意のコンピュータ可読媒体であってもよい。当該コンピュータ可読信号媒体は、命令実行システム、装置、又はデバイスによって使用されるか、もしくは、それらに組み込まれて使用されるプログラムを、送信、伝播、又は伝送することができる。コンピュータ可読媒体に含まれるプログラムコードは、任意の適切な媒体で伝送することができ、当該任意の適切な媒体は、電線、光ケーブル、RF(Radio Frequency、高周波)等、又は、これらの任意の適切な組み合わせを含むが、これらに限定されない。
上記コンピュータ可読媒体は、上記電子機器に含まれていてもよいが、該サーバに組み込まれず、単独で存在してもよい。上記コンピュータ可読媒体には、1つ又は複数のプログラムが格納されており、上記1つ又は複数のプログラムが該サーバによって実行されると、該サーバは、目標機器から送信されるモデル評価データ要求を受信する。ここで、目標機器は、共同トレーニングモデルの関与者を含み、モデル評価データ要求に一致するサンプル集合を取得する。ここで、一致するサンプル集合は、共同トレーニングモデルに関連付けられるラベル有りデータに属し、そして、一致するサンプル集合に基づいて、共同トレーニングモデルのモデル評価データを生成する。
本願の実施例の動作を実行するためのコンピュータプログラムコードは、1種以上のプログラミング言語、又は、それらの組み合わせで作成されてもよく、前記プログラミング言語は、Java(登録商標)、Smalltalk(登録商標)、C++などのオブジェクト指向プログラミング言語、および、「C」言語又は類似のプログラミング言語などの従来の手続き型プログラミング言語を含む。プログラムコードは、完全にユーザコンピュータで実行されることも、部分的にユーザコンピュータで実行されることも、単独のソフトウェアパッケージとして実行されることも、部分的にユーザコンピュータで実行されながら部分的にリモートコンピュータで実行されることも、又は、完全にリモートコンピュータもしくはサーバで実行されることも可能である。リモートコンピュータの場合、リモートコンピュータは、ローカルエリアネットワーク(LAN)又はワイドエリアネットワーク(WAN)を含む任意の種類のネットワークを介してユーザコンピュータに接続することができ、又は、(例えば、インターネットサービスプロバイダによるインターネットサービスを介して)外部のコンピュータに接続することができる。
図中のフローチャート及びブロック図は、本願の様々な実施例に係るシステム、方法、及びコンピュータプログラム製品によって実現可能なアーキテクチャ、機能、及び動作を図示している。これについて、フローチャート又はブロック図における各ブロックは、1つのモジュール、プログラムセグメント、又はコードの一部を表すことができる。当該モジュール、プログラムセグメント、又はコードの一部には、所定のロジック機能を実現するための1つ又は複数の実行可能命令が含まれている。さらに、一部の代替となる実施形態においては、ブロックに示されている機能が、図面に示されているものとは異なる順序で起こってもよいことに注意すべきである。例えば、連続して示された2つのブロックは、実際には、係る機能に応じて、ほぼ並行して実行されてもよく、時には、逆の順序で実行されてもよい。なお、ブロック図及び/又はフローチャートにおける各ブロック、並びに、ブロック図及び/又はフローチャートにおけるブロックの組み合わせは、所定の機能又は動作を実行する専用のハードウェアベースのシステムで実現してもよいし、又は、専用のハードウェアとコンピュータ命令との組み合わせで実現してもよいことにも注意されたい。
本願に記載の実施例において言及されたユニットは、ソフトウェアで実現されてもよく、または、ハードウェアで実現されてもよい。記載されたユニットは、プロセッサに設置されてもよく、例えば、「受信ユニットと、取得ユニットと、生成ユニットとを備えるプロセッサ」として記載されてもよい。これらのユニットの名称は、ある場合において、当該ユニットそれ自体を限定するものではなく、例えば、受信ユニットは、「目標機器から送信されるモデル評価データ要求を受信するユニットであって、目標機器は共同トレーニングモデルの関与者を含むユニット」として記載されてもよい。
以上の説明は、本願の好ましい実施例及び使用された技術的原理に関する説明に過ぎない。当業者であれば、本願の実施例に係る発明の範囲は、上記の技術的特徴の特定の組み合わせからなる技術的解決手段に限定されず、上記の発明構想から逸脱しない範囲内で、上記の技術的特徴又はそれらの同等の特徴を任意に組み合わせて構成される他の技術的解決手段をも含むことが理解されるだろう。例えば、上記の特徴と本願の実施例に開示された類似の機能を有する技術的特徴(それらに限られない)とが相互に置き換えられて構成される技術的解決手段をも含む。

Claims (9)

  1. 共同トレーニングモデルを評価するための方法であって、前記方法は、サーバによって実施されるものであり、前記方法は、
    目標機器から送信されるモデル評価データ要求を受信するステップと、
    前記モデル評価データ要求に一致するサンプル集合を取得するステップであり、前記一致するサンプル集合は前記共同トレーニングモデルに関連付けられるラベル有りデータに属する、ステップと、
    前記一致するサンプル集合に基づいて、前記共同トレーニングモデルのモデル評価データを生成するステップと、を含み、
    暗号化された特徴およびモデルの中間結果は、各関与者によってトレーニングされたモデルのパラメータを調整するために、前記共同トレーニングモデルの関与者間で伝送され、
    ターゲットデバイスは、機械学習モデルの共同トレーニングの第1関与者であり、前記サーバは、機械学習モデルの共同トレーニングの第2関与者であり、
    前記モデル評価データ要求は、前記第2関与者によってトレーニングされた後の前記共同トレーニングモデルの効果指標に対する要求であり、
    前記モデル評価データ要求は、サンプルの識別情報を示すデータ分割情報を含み、かつ、前記データ分割情報は、サンプルの分割方法を指示し、
    前記モデル評価データ要求に一致するサンプル集合を取得する前記ステップは、
    前記共同トレーニングモデルをトレーニングするためのサンプル集合を取得するステップと、
    前記モデル評価データ要求に含まれる前記データ分割情報と一致するサンプル集合を形成するために、前記データ分割情報に従って、前記サンプル集合からサンプルを選択するステップと、を含む、
    方法。
  2. 前記一致するサンプル集合に基づいて、前記共同トレーニングモデルのモデル評価データを生成する前記ステップは、
    前記一致するサンプル集合を、トレーニングサンプル集合およびテストサンプル集合に分割するステップと、
    前記一致するサンプル集合を使用することにより、前記共同トレーニングモデルの指標変化情報を生成するステップであり、前記共同トレーニングモデルの前記指標変化情報は、前記共同トレーニングモデルのモデル評価データの時間経過による変化を示すために使用される、ステップと、
    を含む、請求項に記載の方法。
  3. 前記モデル評価データ要求は、さらに、前記指標変化情報の少なくとも1つの次元を指示するためのデータ照会権限情報を含み、
    前記方法は、さらに、
    前記データ照会権限情報に基づいて、前記指標変化情報から前記データ照会権限情報に一致するモデル評価データを抽出するステップと、
    前記一致するモデル評価データを前記目標機器に送信するステップと、
    を含む、請求項に記載の方法。
  4. 共同トレーニングモデルを評価するための装置であって、
    目標機器から送信されるモデル評価データ要求を受信するように構成される受信ユニットであって、前記目標機器は共同トレーニングモデルの関与者を含む受信ユニットと、
    前記モデル評価データ要求に一致するサンプル集合を取得するように構成される取得ユニットであって、前記一致するサンプル集合は前記共同トレーニングモデルに関連付けられるラベル有りデータに属する取得ユニットと、
    前記一致するサンプル集合に基づいて、前記共同トレーニングモデルのモデル評価データを生成するように構成される生成ユニットと、を備え
    暗号化された特徴およびモデルの中間結果は、各関与者によってトレーニングされたモデルのパラメータを調整するために、前記共同トレーニングモデルの関与者間で伝送され、
    ターゲットデバイスは、機械学習モデルの共同トレーニングの第1関与者であり、サーバは、機械学習モデルの共同トレーニングの第2関与者であり、
    前記モデル評価データ要求は、前記第2関与者によってトレーニングされた後の前記共同トレーニングモデルの効果指標に対する要求であり、
    前記モデル評価データ要求は、サンプルの識別情報を示すデータ分割情報を含み、かつ、前記データ分割情報は、サンプルの分割方法を指示し、
    前記モデル評価データ要求に一致するサンプル集合を取得することは、
    前記共同トレーニングモデルをトレーニングするためのサンプル集合を取得すること、および、
    前記モデル評価データ要求に含まれる前記データ分割情報と一致するサンプル集合を形成するために、前記データ分割情報に従って、前記サンプル集合からサンプルを選択すること、を含む、
    装置。
  5. 共同トレーニングモデルを評価するためのシステムであって、
    第1関与側と第2関与側を備え、
    第1関与側は、
    ローカルサンプル集合を取得し、
    前記ローカルサンプル集合内のローカルサンプルは、共同トレーニングモデルをトレーニングするためのラベル無しデータに属し、
    前記ローカルサンプル集合に関連付けられる共同トレーニングモデルのモデル評価データ要求を生成し、かつ、
    前記モデル評価データ要求を前記共同トレーニングモデルの第2関与側に送信する、
    ように構成されており、
    前記第2関与側と前記第1関与側が、共同で前記共同トレーニングモデルをトレーニングし、
    前記第2関与側は、
    前記第1関与側から送信されるモデル評価データ要求を受信し、
    前記モデル評価データ要求に一致するサンプル集合を取得し、
    前記一致するサンプル集合は、前記共同トレーニングモデルに関連付けられるラベル有りデータに属し、かつ、
    前記一致するサンプル集合に基づいて、前記共同トレーニングモデルのモデル評価データを生成する、
    ように構成されており、
    暗号化された特徴およびモデルの中間結果は、各関与側によってトレーニングされたモデルのパラメータを調整するために、前記共同トレーニングモデルの関与側間で伝送される、
    システム。
  6. 前記モデル評価データ要求は、データ分割情報を含み、
    前記第1関与側は、さらに、
    前記ローカルサンプル集合内のサンプルの特徴次元に基づいて、サンプルの分割方法を指示するためのデータ分割情報を生成する、
    ように構成されている、請求項に記載のシステム。
  7. 前記第1関与側は、さらに、
    前記第2関与側から前記共同トレーニングモデルのモデル評価データを取得し、かち、
    前記モデル評価データに基づいて、前記共同トレーニングモデルを調整する、
    ように構成されている、請求項5又は6に記載のシステム。
  8. 1つ又は複数のプロセッサと、
    1つ又は複数のプログラムが記憶されている記憶装置と、を備え、
    前記1つ又は複数のプログラムが、前記1つ又は複数のプロセッサによって実行されると、前記1つ又は複数のプロセッサに、請求項1乃至のいずれか一項に記載の方法を実施させる、
    サーバ。
  9. 複数の命令を含むコンピュータプログラムが記憶されており、
    前記命令が、プロセッサによって実行されると、請求項1乃至のいずれか一項に記載の方法を実施させる、
    コンピュータ可読記憶媒体。
JP2022561404A 2020-04-08 2021-03-15 共同トレーニングモデルを評価するための方法及び装置 Active JP7483929B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010272019.7 2020-04-08
CN202010272019.7A CN111488995B (zh) 2020-04-08 2020-04-08 用于评估联合训练模型的方法、装置和系统
PCT/CN2021/080878 WO2021203919A1 (zh) 2020-04-08 2021-03-15 用于评估联合训练模型的方法和装置

Publications (2)

Publication Number Publication Date
JP2023521120A JP2023521120A (ja) 2023-05-23
JP7483929B2 true JP7483929B2 (ja) 2024-05-15

Family

ID=71810905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022561404A Active JP7483929B2 (ja) 2020-04-08 2021-03-15 共同トレーニングモデルを評価するための方法及び装置

Country Status (5)

Country Link
US (1) US20220391642A1 (ja)
EP (1) EP4105848A4 (ja)
JP (1) JP7483929B2 (ja)
CN (1) CN111488995B (ja)
WO (1) WO2021203919A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111488995B (zh) * 2020-04-08 2021-12-24 北京字节跳动网络技术有限公司 用于评估联合训练模型的方法、装置和系统
CN111681091B (zh) * 2020-08-12 2020-11-27 腾讯科技(深圳)有限公司 基于时间域信息的金融风险预测方法、装置及存储介质
CN112231746B (zh) * 2020-09-10 2024-02-02 杭州锘崴信息科技有限公司 联合数据分析方法、装置、系统及计算机可读存储介质
CN112541705B (zh) * 2020-12-23 2024-01-23 北京百度网讯科技有限公司 生成用户行为评估模型的方法、装置、设备以及存储介质
CN113190872B (zh) * 2021-05-28 2024-08-13 脸萌有限公司 数据保护方法、网络结构训练方法、装置、介质及设备
CN117113386A (zh) * 2022-05-13 2023-11-24 北京字节跳动网络技术有限公司 用于模型性能评估的方法、装置、设备和介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017524182A (ja) 2014-08-26 2017-08-24 グーグル インコーポレイテッド グローバルモデルからの局所化された学習
US20190042937A1 (en) 2018-02-08 2019-02-07 Intel Corporation Methods and apparatus for federated training of a neural network using trusted edge devices
JP2019168895A (ja) 2018-03-23 2019-10-03 日本電信電話株式会社 分散深層学習システム
US20200034665A1 (en) 2018-07-30 2020-01-30 DataRobot, Inc. Determining validity of machine learning algorithms for datasets

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11461635B2 (en) * 2017-10-09 2022-10-04 Nec Corporation Neural network transfer learning for quality of transmission prediction
US10621991B2 (en) * 2018-05-06 2020-04-14 Microsoft Technology Licensing, Llc Joint neural network for speaker recognition
WO2019219846A1 (en) * 2018-05-17 2019-11-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Concepts for distributed learning of neural networks and/or transmission of parameterization updates therefor
CN110738323B (zh) * 2018-07-03 2022-06-28 百度在线网络技术(北京)有限公司 基于数据共享建立机器学习模型的方法和装置
CN109325541A (zh) * 2018-09-30 2019-02-12 北京字节跳动网络技术有限公司 用于训练模型的方法和装置
CN110189192B (zh) * 2019-05-10 2021-04-13 深圳前海微众银行股份有限公司 一种信息推荐模型的生成方法及装置
CN110288094B (zh) * 2019-06-10 2020-12-18 深圳前海微众银行股份有限公司 基于联邦学习的模型参数训练方法及装置
CN110309587B (zh) * 2019-06-28 2024-01-16 京东城市(北京)数字科技有限公司 决策模型构建方法、决策方法与决策模型
CN110378488B (zh) * 2019-07-22 2024-04-26 深圳前海微众银行股份有限公司 客户端变化的联邦训练方法、装置、训练终端及存储介质
CN110399742B (zh) * 2019-07-29 2020-12-18 深圳前海微众银行股份有限公司 一种联邦迁移学习模型的训练、预测方法及装置
CN110442457A (zh) * 2019-08-12 2019-11-12 北京大学深圳研究生院 基于联邦学习的模型训练方法、装置及服务器
KR20190103090A (ko) * 2019-08-15 2019-09-04 엘지전자 주식회사 연합학습(Federated learning)을 통한 단말의 POI 데이터를 생성하는 모델의 학습방법 및 이를 위한 장치
CN110728375B (zh) * 2019-10-16 2021-03-19 支付宝(杭州)信息技术有限公司 多个计算单元联合训练逻辑回归模型的方法和装置
CN110874484A (zh) * 2019-10-16 2020-03-10 众安信息技术服务有限公司 基于神经网络和联邦学习的数据处理方法和系统
CN111488995B (zh) * 2020-04-08 2021-12-24 北京字节跳动网络技术有限公司 用于评估联合训练模型的方法、装置和系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017524182A (ja) 2014-08-26 2017-08-24 グーグル インコーポレイテッド グローバルモデルからの局所化された学習
US20190042937A1 (en) 2018-02-08 2019-02-07 Intel Corporation Methods and apparatus for federated training of a neural network using trusted edge devices
JP2019168895A (ja) 2018-03-23 2019-10-03 日本電信電話株式会社 分散深層学習システム
US20200034665A1 (en) 2018-07-30 2020-01-30 DataRobot, Inc. Determining validity of machine learning algorithms for datasets

Also Published As

Publication number Publication date
CN111488995B (zh) 2021-12-24
JP2023521120A (ja) 2023-05-23
EP4105848A1 (en) 2022-12-21
EP4105848A4 (en) 2023-07-26
CN111488995A (zh) 2020-08-04
US20220391642A1 (en) 2022-12-08
WO2021203919A1 (zh) 2021-10-14

Similar Documents

Publication Publication Date Title
JP7483929B2 (ja) 共同トレーニングモデルを評価するための方法及び装置
JP6754011B2 (ja) 音声サービスを提供するための方法、装置およびサーバ
US9483388B2 (en) Discovery of application states
CN108491267B (zh) 用于生成信息的方法和装置
CN106874389A (zh) 数据的迁移方法和装置
US11244153B2 (en) Method and apparatus for processing information
EP3910909B1 (en) Method and device for displaying information
US11106754B1 (en) Methods and systems for hyperlinking user-specific content on a website or mobile applications
CN111061956A (zh) 用于生成信息的方法和装置
US20130185645A1 (en) Determining repeat website users via browser uniqueness tracking
CN110858172A (zh) 一种自动化测试代码生成方法和装置
JP2024514069A (ja) 電子メッセージング方法
JP2021096814A (ja) 要約生成方法及び装置
CN111460394A (zh) 一种版权文件的验证方法、装置及计算机可读存储介质
CN113742005A (zh) 一种平台对接方法和装置
CN111177536A (zh) 基于设备指纹对未登录用户传送定制信息的方法、装置及电子设备
CN111813816B (zh) 数据处理方法、装置、计算机可读存储介质和计算机设备
CN113378346A (zh) 模型仿真的方法和装置
CN112100534B (zh) 页面分享中的信息处理方法、装置、介质及电子设备
CN110557351A (zh) 用于生成信息的方法和装置
WO2022216926A1 (en) Intelligent assistant content generation
CN114282506A (zh) 证书生成方法、系统、电子设备及存储介质
US11563576B2 (en) Distributed anonymous scoring technique
CN109408716B (zh) 用于推送信息的方法和设备
CN110196803B (zh) 一种软件缺陷培训方法和系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240501

R150 Certificate of patent or registration of utility model

Ref document number: 7483929

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150