JP2022512053A - 共有エンコーダ生成方法、装置及び電子機器 - Google Patents

共有エンコーダ生成方法、装置及び電子機器 Download PDF

Info

Publication number
JP2022512053A
JP2022512053A JP2021516453A JP2021516453A JP2022512053A JP 2022512053 A JP2022512053 A JP 2022512053A JP 2021516453 A JP2021516453 A JP 2021516453A JP 2021516453 A JP2021516453 A JP 2021516453A JP 2022512053 A JP2022512053 A JP 2022512053A
Authority
JP
Japan
Prior art keywords
shared encoder
secondary node
target shared
target
parameter set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021516453A
Other languages
English (en)
Other versions
JP7159460B2 (ja
Inventor
ダシャン ドン
ウェンフイ ヂャン
ジファ ウー
ディエンハイ ユ
イェンジュン マー
ハイフェン ワン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2022512053A publication Critical patent/JP2022512053A/ja
Application granted granted Critical
Publication of JP7159460B2 publication Critical patent/JP7159460B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • G06F9/546Message passing systems or structures, e.g. queues

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Devices For Executing Special Programs (AREA)
  • Transmission And Conversion Of Sensor Element Output (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Feedback Control In General (AREA)

Abstract

本出願は、共有エンコーダの生成方法、装置及び電子機器を提供し、コンピュータ技術の分野に属する。当該方法は、各セカンダリノードがトレーニング命令に含まれるターゲット共有エンコーダのタイプに基づいて、トレーニングサンプルを取得するように、プライマリノードが共有エンコーダトレーニング命令を各セカンダリノードに送信するステップと、各セカンダリノードから返信された確認メッセージを取得した後に、各セカンダリノードがそれぞれのトレーニングサンプルを用いて、ターゲット共有エンコーダの初期化パラメータセットをトレーニングするように、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信するステップと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを取得するステップと、第1事前設定ルールと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、ターゲット共有エンコーダに対応するターゲットパラメータセットを決定するステップと、を含む。これにより、このような共有エンコーダの生成方法によって、多領域でのトレーニング言語資料の入手難度とコストを低減させ、共有エンコーダの性能をさらに向上させた。【選択図】図1

Description

[関連出願の相互参照]
本願は、北京百度網訊科技有限公司が2019年11月22日に出願された出願番号2019111155509.2、発明名称「共有エンコーダ生成方法、装置及び電子機器」である中国特許出願の優先権を主張する。
本出願は、コンピュータ技術分野に関し、特に、ビッグデータ技術分野に関し、共有エンコーダ生成方法、装置及び電子機器を提案する。
事前トレーニング済みのモデルは、すでにコンピュータビジョン、自然言語処理などの分野での応用実践に有効であることが証明されており、ビッグデータの下で一度事前トレーニングを行い、さらに具体的なタスク管理に応じてモデルパラメータを微調整することが既に人気のある方法となっている。
ただし、従来技術において、多領域トレーニング言語材料の入手難度やコストが高く、その結果、事前トレーニング済みのモデルの実現もしにくくなっている。
本出願は、関連技術における多領域トレーニング言語材料の入手難度やコストが高く、その結果、事前トレーニング済みのモデルの実現もしにくくなっている技術的な問題を解決する共有エンコーダ生成方法、装置及び電子機器を提供する。
本出願の第1の態様の実施例は、
各セカンダリノードがターゲット共有エンコーダのタイプに基づいてトレーニングサンプルを取得するように、プライマリノードによって、トレーニング対象のターゲット共有エンコーダのタイプを含む共有エンコーダトレーニング命令を各セカンダリノードに送信するステップと、
各セカンダリノードから返信された確認メッセージを取得した後に、各セカンダリノードがそれぞれのトレーニングサンプルを用いて、前記ターゲット共有エンコーダの初期化パラメータセットをトレーニングするように、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信するステップと、
各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを取得するステップと、
第1事前設定ルールと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、前記ターゲット共有エンコーダに対応するターゲットパラメータセットを決定するステップと、を含む共有エンコーダ生成方法を提供する。
本出願の第2の態様の実施例は、
第2セカンダリノードは、プライマリノードから送信されたトレーニング対象のターゲット共有エンコーダのタイプを含む共有エンコーダトレーニング命令を取得するステップと、
前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを含むことを決定した後に、確認メッセージを前記プライマリノードに返信するステップと、
前記プライマリノードから送信されたターゲット共有エンコーダの初期化パラメータセットを取得するステップと、
前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを用いて、モデルをトレーニングし、前記ターゲット共有エンコーダの更新パラメータセットを決定するステップと、
前記ターゲット共有エンコーダの更新パラメータセットを前記プライマリノードに返信するステップと、を含む共有エンコーダ生成方法を提供する。
本出願の第3の態様の実施例は、
各セカンダリノードがターゲット共有エンコーダのタイプに基づいてトレーニングサンプルを取得するように、プライマリノードから、トレーニング対象のターゲット共有エンコーダのタイプを含む共有エンコーダトレーニング命令を、各セカンダリノードに送信するための第1送信モジュールと、
各セカンダリノードから返信された確認メッセージを取得した後に、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信し、各セカンダリノードに、それぞれのトレーニングサンプルを用いて、前記ターゲット共有エンコーダの初期化パラメータセットをトレーニングさせるための第2送信モジュールと、
各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを取得するための第1取得モジュールと、
第1事前設定ルールと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、前記ターゲット共有エンコーダに対応するターゲットパラメータセットを決定するための第1決定モジュールと、を含む共有エンコーダの生成装置を提供する。
本出願の第4の態様の実施例は、
第2セカンダリノードが、プライマリノードから送信された、トレーニング対象のターゲット共有エンコーダのタイプを含む共有エンコーダトレーニング命令を、取得するように使用される第1取得モジュールと、
前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを含むことを決定した後に、確認メッセージを前記プライマリノードに返信するための第1返信モジュールと、
前記プライマリノードから送信されたターゲット共有エンコーダの初期化パラメータセットを取得するための第2取得モジュールと、
前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを用いて、モデルをトレーニングし、前記ターゲット共有エンコーダの更新パラメータセットを決定するための第1決定モジュールと、
前記ターゲット共有エンコーダの更新パラメータセットを前記プライマリノードに返信するための第2返信モジュールと、を含む共有エンコーダの生成装置を提供する。
本出願の第5の態様の実施例は、
少なくとも一つのプロセッサと、
前記少なくとも一つのプロセッサと通信可能に接続されたメモリと、を備える電子機器であって、
前記メモリには、前記少なくとも一つのプロセッサによって実行可能な命令が記憶され、前記命令が前記少なくとも一つのプロセッサによって実行されると、前記少なくとも一つのプロセッサが、上記の実施例に記載の方法を実行する電子機器を提供する。
本出願の第6の態様の実施例は、コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータ命令が実行される場合、上記の実施例に記載の共有エンコーダ生成方法が実行される。
上記の出願のうちのいずれか一つの実施例は、具体的には、以下のような利点又は有益な効果を有する。プライマリノードによって各セカンダリノードを組織し、プライベートトレーニングサンプルを用いてターゲット共有エンコーダをトレーニングし、各セカンダリノードによりターゲット共有エンコーダに対するトレーニング結果に基づいて、ターゲット共有エンコーダのターゲットパラメータセットを決定する。これにより、多領域トレーニング言語材料の共有を実現するだけでなく、多領域トレーニング言語材料の入手難度とコストを低減させ、共有エンコーダの性能をさらに向上させた。各セカンダリノードがトレーニング命令に含まれるターゲット共有エンコーダのタイプに基づいてトレーニングサンプルを取得するように、プライマリノードによって共有エンコーダトレーニング命令を各セカンダリノードに送信し、各セカンダリノードから返信された確認メッセージを取得した後に、各セカンダリノードがそれぞれのトレーニングサンプルを用いて、ターゲット共有エンコーダの初期化パラメータセットをトレーニングするように、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信し、その後、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを取得し、さらに第1事前設定ルールと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、ターゲット共有エンコーダに対応するターゲットパラメータセットを決定するため、多領域トレーニング言語材料入手難度とコストが高く、事前トレーニング済みのモデルの実現もしにくくなっているという問題を克服し、多領域トレーニング言語材料の共有を実現することができるとともに、多領域トレーニング言語材料の入手難度とコストを低減させ、共有エンコーダの性能をさらに向上させた。
上記の選択可能な形態が有する他の効果については、具体的な実施例を組み合わせて以下に説明する。
図面は、本技術案がよりよく理解されるためのものであり、本出願を限定するものではない。
本出願の実施例に係る共有エンコーダ生成方法の概略フローチャートである。 本出願の実施例に係る別の共有エンコーダ生成方法の概略フローチャートである。 本出願の実施例に係るさらなる共有エンコーダ生成方法の概略フローチャートである。 本出願の実施例に係るさらに別の共有エンコーダ生成方法の概略フローチャートである。 本出願の実施例に係るさらに別の共有エンコーダ生成方法の概略フローチャートである。 本出願の実施例に係る共有エンコーダの生成装置の概略構成図である。 本出願の実施例に係る別の共有エンコーダの生成装置の概略構成図である。 本出願の実施例に係る電子機器の概略構成図である。
以下、本出願の例示的な実施例を図面を参照して説明し、理解を容易にするためにその中には本出願の実施例の様々な詳細を含んでおり、それらは単なる例示するものと見なされるべきである。したがって、当業者は、本出願の範囲及び趣旨から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができることを理解すべきである。同様に、明確及び簡潔するために、以下の説明では、周知の機能及び構成の説明を省略する。
多領域トレーニング言語材料の入手難度やコストが高く、事前トレーニング済みのモデルの実現もしにくくなっている技術的な問題を解決するために、本出願は、共有エンコーダ生成方法を提供する。
本出願の実施例に係る共有エンコーダ生成方法、装置、電子機器、及び記憶媒体について、図面を参照して以下に説明する。
本出願の実施例に係る共有エンコーダ生成方法について、プライマリノード側、セカンダリノード側を例として詳細にそれぞれ説明する。
まず、本出願の実施例に係る共有エンコーダ生成方法について、プライマリノード側を例として詳細に説明する。
本出願の実施例に係る共有エンコーダ生成方法について、図1を関連して以下に詳細に説明する。
図1は、本出願の実施例に係る共有エンコーダ生成方法の概略フローチャートであり、この方法は、プライマリノードに適用される。
図1に示すように、当該共有エンコーダ生成方法は、以下ステップ101~ステップ104を含む。
ステップ101において、プライマリノードによって、各セカンダリノードがターゲット共有エンコーダのタイプに基づいてトレーニングサンプルを取得するように、トレーニング対象のターゲット共有エンコーダのタイプを含む共有エンコーダトレーニング命令を各セカンダリノードに送信する。
なお、事前トレーニング済みのモデルは、すでにコンピュータビジョン、自然言語処理などの分野での応用実践に有効であることが証明されており、ビッグデータの下で一度事前トレーニングを行い、さらに具体的なタスク管理に応じてモデルパラメータを微調整することが既に人気のある方法となっている。しかしながら、事前トレーニング済みのモデルは、大量の事前トレーニング言語材料を必要とするので、多領域の教師なし言語材料を収集するのは全くの難題である。さらに、異なる会社及び組織は、自身の領域業務に関する大量の教師なし言語材料を持っているが、開放されなかったかもしれない、事前トレーニング言語材料の共有、トレーニングを通じてより高性能な事前トレーニング済みのモデルを得ることが困難になる。本出願の実施例に係る共有エンコーダ生成方法は、ディープラーニングにおける分散型トレーニング技術を用いて、複数のセカンダリノード(複数の組織)の共有トレーニング言語材料における情報をトレーニングすることにより、共有エンコーダを取得し、セカンダリノードのトレーニング言語材料の安全性とプライバシー性を保証する。
ここで、プライマリノードとは、共有エンコーダのトレーニングプロセスをトリガーするためのノードを指す。例えば、本出願の実施例に係る共有エンコーダ生成方法をフェデレーテッド・ラーニングシステムに適用される場合、プライマリノードはフェデレーテッド・ラーニングシステムのサーバであってもよい。
セカンダリノードとは、自身のトレーニングサンプルを用いて、共有エンコーダのトレーニングを参加するノードを指す。例えば、共有エンコーダのトレーニングを参加する会社であってもよいし、トレーニングモデルを組織する場合に適用されるサーバであってもよい。
実際に利用する場合、本出願の実施例に係る共有エンコーダ生成方法は、任意の共同トレーニングを実行するシーンに適用することができるが、本出願実施例では限定されない。以下、本出願の実施例に係る共有エンコーダ生成方法について、応用シーンがフェデレーテッド・ラーニングシステムであることを例として詳細に説明する。
本出願の実施例では、プライマリノードは、共有エンコーダをトレーニングする需要があるときに、各セカンダリノードが共有エンコーダトレーニング命令を取得すると、トレーニング命令に含まれるトレーニング対象のターゲット共有エンコーダのタイプに基づいてローカルに当該ターゲット共有エンコーダのタイプに対応するトレーニングサンプルが有るか否かを判断するように、共有エンコーダトレーニング命令をフェデレーテッド・ラーニングシステムの各セカンダリノードに送信することができる。もしあるなら、当該ターゲット共有エンコーダのタイプに対応するトレーニングサンプルを取得する。
なお、セカンダリノードは、異なるタイプの共有エンコーダのトレーニングために複数種類のトレーニングサンプルを含む可能性がある。従って、プライマリノードは、共有エンコーダトレーニング命令を各セカンダリノードに送信する際に、セカンダリノードが複数種類のトレーニングサンプルからターゲット共有エンコーダのタイプに対応するトレーニングサンプルを取得するように、トレーニング対象のターゲット共有エンコーダのタイプを含むことができる。
さらに、プライマリノードは、セカンダリノードのターゲット共有エンコーダに対する取得要求または更新要求に基づいて、ターゲット共有エンコーダに対するトレーニングをトリガーすることができる。すなわち、本出願の可能な一実現形態では、上記のステップ101の前に、
前記プライマリノードは、少なくとも1つのセカンダリノードから送信されたターゲット共有エンコーダ取得要求を取得するステップと、
または、
前記プライマリノードは、少なくとも1つのセカンダリノードから送信されたターゲット共有エンコーダの更新要求を取得するステップと、を含むこともできる。
前記更新要求には、前記ターゲット共有エンコーダの識別子を含む。
本出願の可能な一実現形態として、プライマリノードは、ターゲット共有エンコーダをトレーニングしていない前に、各セカンダリノードのターゲット共有エンコーダに対する取得要求または更新要求に基づいて、ターゲット共有エンコーダに対するトレーニングプロセスをトリガーすることができる。すなわち、プライマリノードは、少なくとも1つのセカンダリノードから送信されたターゲット共有エンコーダに対する取得要求を取得し、取得要求にターゲット共有エンコーダに対応する初期化パラメータセットを含む場合、少なくとも1つのセカンダリノードのターゲット共有エンコーダに対する取得要求を決定することができ、それによって、ターゲット共有エンコーダに対するトレーニングプロセスをトリガーするように、共有エンコーダトレーニング命令を各セカンダリノードに送信することができる。
本出願の可能な一実現形態として、プライマリノードは、ターゲット共有エンコーダを1回または複数回トレーニングした後に、各セカンダリノードのターゲット共有エンコーダに対する更新要求に基づいて、ターゲット共有エンコーダに対するトレーニングプロセスをトリガーすることもできる。すなわち、プライマリノードは、少なくとも1つのセカンダリノードから送信されたターゲット共有エンコーダ更新要求を取得すると、ターゲット共有エンコーダに対するトレーニングプロセスをトリガーし、ターゲット共有エンコーダに対する更新を実現するように、共有エンコーダトレーニング命令を各セカンダリノードに送信することができる。ここで、プライマリノードがターゲット共有エンコーダの識別子に基づいてターゲット共有エンコーダのタイプを決定し、さらにターゲット共有エンコーダのタイプに基づいて共有エンコーダトレーニング命令を各セカンダリノードに送信することができるように、セカンダリノードから送信された共有エンコーダ更新要求には、ターゲット共有エンコーダの識別子を含むことができる。
本出願の可能な一実現形態として、プライマリノードは、更新ルールに基づいて、ターゲット共有エンコーダに対するトレーニングプロセスを自発的にトリガーすることもできる。例えば、更新ルールは、事前設定の頻度でターゲット共有エンコーダを更新することである場合、ターゲット共有エンコーダのトレーニングプロセスをトリガーするように、プライマリノードは、共有エンコーダトレーニング命令を事前設定の頻度で各セカンダリノードに送信することができる。
なお、ターゲット共有エンコーダのトレーニングプロセスをトリガーする方法は、上記の方法を含むことができるが、これらに限定されない。実際に利用する場合、実際のニーズまたは具体的な応用シーンに応じて適切なターゲット共有エンコーダのトレーニングプロセスをトリガーする方法を決定することができるが、本出願実施例では限定されない。
ステップ102において、各セカンダリノードから返信された確認メッセージを取得した後に、各セカンダリノードがそれぞれのトレーニングサンプルを用いて、ターゲット共有エンコーダの初期化パラメータセットをトレーニングするように、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信する。
本出願の実施例では、プライマリノードは、共有エンコーダトレーニング命令を各セカンダリノードに送信した後に、各セカンダリノードが自身のターゲット共有エンコーダに対する需要、またはターゲット共有エンコーダのタイプに適合するトレーニングサンプルの有無に基づいて、ターゲット共有エンコーダに対するトレーニングに参加するか否かを判断することができる。ターゲット共有エンコーダに対するトレーニングに参加可能であれば、確認メッセージをプライマリノードに返信してもよい。ターゲット共有エンコーダに対するトレーニングに参加不可であれば、確認メッセージをプライマリノードに返さない。
したがって、プライマリノードは、セカンダリノードから返信された確認メッセージを取得すると、セカンダリノードが自身のトレーニングサンプルを用いて、ターゲット共有エンコーダの初期化パラメータセットをトレーニングすることができるように、ターゲット共有エンコーダに対するトレーニングに参加する各セカンダリノード(すなわち、確認メッセージを返信した各セカンダリノード)を決定し、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットをプルし、ターゲット共有エンコーダの初期化パラメータセットをターゲット共有エンコーダに対するトレーニングに参加する各セカンダリノードに送信することができる。
本出願の可能な一実現形態として、プライマリノードは、セカンダリノードから返信された確認メッセージを取得した後に、ターゲット共有エンコーダに対するトレーニングに参加する各セカンダリノードが実行可能なプログラムに基づいて、ターゲット共有エンコーダをトレーニングすることができるように、事前設定の実行可能なプログラムおよびトレーニング対象のターゲット共有エンコーダの初期化パラメータセットとともに、ターゲット共有エンコーダに対するトレーニングに参加する各セカンダリノードに送信することができる。
なお、プライマリノードから各セカンダリノードに送信する実行可能なプログラムには、セカンダリノードがターゲット共有エンコーダをトレーニングするルール、ターゲット共有エンコーダの更新パラメータセットを返信するルールなどを含むことができる。例えば、実行可能なプログラムには、セカンダリノードがプライマリノードから送信されたトレーニング命令を取得するたびに、ターゲット共有エンコーダに対するトレーニング回数を含むことができ、または、セカンダリノードがプライマリノードから送信されたトレーニング命令を取得するたびに、ターゲット共有エンコーダの更新パラメータセットをプライマリノードに返信する時間周期などを含むこともできるが、本出願実施例では限定されない。
さらに、ターゲット共有エンコーダをトレーニングする前に、プライマリノードは、ターゲット共有エンコーダに対応する初期化パラメータセットを決定する必要がある。すなわち、本出願の可能な一実現形態では、上記のステップ102の前に、
第2事前設定ルールに基づいて、前記トレーニング対象のターゲット共有エンコーダを生成するステップを含むこともできる。
ここで、第2事前設定ルールとは、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットを取得する事前設定されたルールを指し、および第2事前設定ルールは、実際のニーズに応じて変更することができる。
本出願の可能な一実現形態として、第2事前設定ルールは、「各セカンダリノードによって事前定義される」ことであってもよく、これによって、プライマリノードは、各セカンダリノードから各セカンダリノードがターゲット共有エンコーダに対する事前定義された初期化パラメータセットを事前取得することができ、およびターゲット共有エンコーダの初期化パラメータセットは、各セカンダリノードにより交渉によって定義されるので、各セカンダリノードの事前定義された初期化パラメータセットは、同じものである。
本出願の可能な一実現形態として、第2事前設定ルールは、「公開モデルにおける既存の同じタイプのエンコーダのパラメータセットによって決定する」ことであってもよく、これによって、プライマリノードは、公開モデルからターゲット共有エンコーダのタイプと同じエンコーダを取得し、さらに、取得されたエンコーダのパラメータセットをターゲット共有エンコーダの初期化パラメータセットとして決定することができる。
ステップ103において、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを取得する。
本出願の実施例では、プライマリノードによって、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信した後、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットをリアルタイムで取得することができる。ここで、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットは、各セカンダリノードが自身のトレーニングサンプルを用いて、ターゲット共有エンコーダの初期化パラメータセットのトレーニングによって得られたものである。
ステップ104において、第1事前設定ルールと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、ターゲット共有エンコーダに対応するターゲットパラメータセットを決定する。
ここで、第1事前設定ルールとは、ターゲット共有エンコーダに対応するターゲットパラメータセットを取得するように、事前設定され、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを融合するルールである。例えば、第1事前設定ルールは、各セカンダリノードから返信された更新パラメータセットにおける各パラメータの平均値をターゲットパラメータセットにおける相応するパラメータの値として決定してもよいし、各セカンダリノードから返信された更新パラメータセットにおける各パラメータのバリアンス、標準偏差、中央値をターゲットパラメータセットにおける相応するパラメータの値として決定してもよい。
なお、第1事前設定ルールは、上記の場合を含むことができるが、これらに限定されない。実際に利用する場合、現在の使用ニーズ及び応用シーンに適応するように、実際の需要に応じて事前設定及びリアルタイムでの修正を行うことができるが、本出願実施例では限定されない。
本出願の実施例では、プライマリノードは、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを取得した後に、ターゲット共有エンコーダに対応するターゲットパラメータセットを決定するように、取得された更新パラメータセットを第1事前設定ルールに基づいて融合することができる。
一例として、第1事前設定ルールは、「各セカンダリノードから返信された更新パラメータセットにおける各パラメータの平均値をターゲットパラメータセットにおける相応するパラメータの値として決定する」であり、現在のフェデレーテッド・ラーニングシステムには3つのセカンダリノードX、Y、Zがあり、ターゲット共有エンコーダのパラメータセットには3つのパラメータが含まれており、セカンダリノードXから返信されたターゲット共有エンコーダの更新パラメータセットは{a, b, c}であり、セカンダリノードYから返信されたターゲット共有エンコーダの更新パラメータセットは{a, b, c}であり、セカンダリノードZから返信されたターゲット共有エンコーダの更新パラメータセットは{a, b, c}であるものと仮定すると、ターゲット共有エンコーダに対応するターゲットパラメータセットは{a, b, c}となり、ここで、a=(a+a+a)/3,b=(b+b+b)/3,c=(c+c+c)/3となる。
本出願の実施例の技術案によれば、各セカンダリノードがトレーニング命令に含まれるターゲット共有エンコーダのタイプに基づいてトレーニングサンプルを取得するように、プライマリノードによって共有エンコーダトレーニング命令を各セカンダリノードに送信し、各セカンダリノードから返信された確認メッセージを取得した後に、各セカンダリノードがそれぞれのトレーニングサンプルを用いて、ターゲット共有エンコーダの初期化パラメータセットをトレーニングするように、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信し、その後、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを取得し、さらに第1事前設定ルールと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、ターゲット共有エンコーダに対応するターゲットパラメータセットを決定する。さらに、プライマリノードによって各セカンダリノードを組織し、プライベートトレーニングサンプルを用いてターゲット共有エンコーダをトレーニングし、各セカンダリノードによりターゲット共有エンコーダに対するトレーニング結果に基づいて、ターゲット共有エンコーダのターゲットパラメータセットを決定する、これにより、多領域トレーニング言語材料の共有を実現するだけでなく、多領域トレーニング言語材料の入手難度とコストを低減させ、共有エンコーダの性能をさらに向上させた。
本出願の可能な一実現形態では、最終的に得られる共有エンコーダの性能をさらに向上させ、および各セカンダリノードが共有エンコーダのトレーニングプロセスにおける重要度をバランスさせるために、セカンダリノードのトレーニングサンプルの数量に基づいて、各セカンダリノードが異なる重みを与えることとして決定してもよい。
本出願の実施例に係る共有エンコーダ生成方法について、図2を関連して以下にさらに説明する。
図2は、本出願の実施例に係る別の共有エンコーダ生成方法の概略フローチャートであり、この方法は、プライマリノードに適用される。
図2に示すように、当該共有エンコーダ生成方法は、以下ステップ201~ステップ206を含む。
ステップ201において、プライマリノードによって、各セカンダリノードがターゲット共有エンコーダのタイプに基づいてトレーニングサンプルを取得するように、トレーニング対象のターゲット共有エンコーダのタイプを含む共有エンコーダトレーニング命令を各セカンダリノードに送信する。
ステップ202において、各セカンダリノードから返信された確認メッセージを取得した後に、各セカンダリノードがそれぞれのトレーニングサンプルを用いて、ターゲット共有エンコーダの初期化パラメータセットをトレーニングするように、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信する。
上記のステップ201~202についての具体的な実装過程及び原理は、上記の実施例の詳細な説明を参照することができるため、ここでは説明を省略する。
ステップ203において、各セカンダリノードに含まれるトレーニングサンプルの数を取得する。
ここで、セカンダリノードに含まれるトレーニングサンプルの数は、セカンダリノードに含まれるターゲット共有エンコーダをトレーニングするために使用され得るトレーニングサンプルの数であってもよい。
本出願の可能な一実現形態として、プライマリノードは、各セカンダリノードに含まれるターゲット共有エンコーダをトレーニングするために使用され得るトレーニングサンプルの数に基づいて、各セカンダリノードがターゲット共有エンコーダをトレーニングするときの重みを決定することができる。これにより、プライマリノードは、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信した後に、各セカンダリノードに含まれるターゲット共有エンコーダをトレーニングするために使用され得るトレーニングサンプルの数をリアルタイムで取得することができる。
ステップ204において、各セカンダリノードに含まれるトレーニングサンプルの数に基づいて、各セカンダリノードの重みを決定する。
本出願の実施例では、セカンダリノードに含まれるトレーニングサンプルの数が多いほど、当該セカンダリノードから返信された更新パラメータセットに基づいて決定されるターゲット共有エンコーダの性能はより良くなる。したがって、プライマリノードは、各セカンダリノードに含まれるトレーニングサンプルの数に基づいて、各セカンダリノードの重みを決定することができる。
本出願の可能な一実現形態として、セカンダリノードの重みは、セカンダリノードに含まれるトレーニングサンプルの数と正比例を成すことができる。すなわち、セカンダリノードに含まれるトレーニングサンプルの数が多いほど、当該セカンダリノードの重みが大きくなることにより、セカンダリノードがターゲット共有エンコーダをトレーニングする際には、トレーニングサンプルの数が多いほど、果たす役割は大きくなり、最終的に得られる共有エンコーダの性能を向上させる。
一例として、各セカンダリノードに含まれるトレーニングサンプルの数と、すべてのセカンダリノードに含まれるトレーニングサンプルの数との比を各セカンダリノードの重みとして決定してもよい。例えば、現在のフェデレーテッド・ラーニングシステムには3つのセカンダリノードX、Y、Zがあり、セカンダリノードXに含まれるトレーニングサンプルの数はmであり、セカンダリノードYに含まれるトレーニングサンプルの数はnであり、セカンダリノードZに含まれるトレーニングサンプルの数はkである場合、セカンダリノードYの重みはm/(m+n+k)であり、セカンダリノードYの重みはn/(m+n+k)となり、セカンダリノードZの重みはk/(m+n+k)となる。
ステップ205において、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを取得する。
上記のステップ205についての具体的な実装過程及び原理は、上記の実施例の詳細な説明を参照することができるため、ここでは説明を省略する。
ステップ206において、第1事前設定ルールと、各セカンダリノードの重みと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、ターゲット共有エンコーダに対応するターゲットパラメータセットを決定する。
本出願の実施例では、各セカンダリノードの重みを決定し、および各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを取得した後に、ターゲット共有エンコーダに対応するターゲットパラメータセットを決定するように、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを第1事前設定ルールと、各セカンダリノードの重みとに基づいて融合することができる。
本出願の可能な一実現形態として、まず、各セカンダリノードの重みに基づいて、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを補正することができる。すなわち、各セカンダリノードの重みとそれに対応する更新パラメータセットにおける各パラメータの積は、各セカンダリノードの補正された更新パラメータセットにおける各パラメータの値として決定する。その後、第1事前設定ルールに基づいて、ターゲット共有エンコーダに対応するターゲットパラメータセットを決定するように、各セカンダリノードの補正された更新パラメータセットを融合する。
一例として、第1事前設定ルールは、「各セカンダリノードから返信された更新パラメータセットにおける各パラメータの平均値をターゲットパラメータセットにおける相応するパラメータの値として決定する」であり、現在のフェデレーテッド・ラーニングシステムには、3つのセカンダリノードX、Y、Zがあり、セカンダリノードXの重みはwであり返信されたターゲット共有エンコーダの更新パラメータセットは{a, b, c}であり、セカンダリノードYの重みはwであり返信されたターゲット共有エンコーダの更新パラメータセットは{a, b, c}であり、セカンダリノードZの重みはwであり返信されたターゲット共有エンコーダの更新パラメータセットは{a, b, c}である場合、セカンダリノードXの補正された更新パラメータセットは{ w・a, w・b, w・c}であり、セカンダリノードYの補正された更新パラメータセットは{ w・a, w・b, w・c}であり、セカンダリノードZの補正された更新パラメータセットは{ w・a, w・b, w・c}である。したがって、ターゲット共有エンコーダに対応するターゲットパラメータセットは{a, b, c}となり、ここで、a=( w・a+ w・a+ w・a)/3,b=( w・b+ w・b+ w・b)/3,c=( w・c+ w・c + w・c)/3となる。
本出願の実施例の技術案によれば、プライマリノードによって、各セカンダリノードがトレーニング命令に含まれるターゲット共有エンコーダのタイプに基づいてトレーニングサンプルを取得するように、共有エンコーダトレーニング命令を各セカンダリノードに送信し、各セカンダリノードから返信された確認メッセージを取得した後に、各セカンダリノードがそれぞれのトレーニングサンプルを用いて、ターゲット共有エンコーダの初期化パラメータセットをトレーニングするように、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信し、および取得された各セカンダリノードに含まれるトレーニングサンプルの数に基づいて、各セカンダリノードの重みを決定し、その後、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを取得し、さらに第1事前設定ルールと、各セカンダリノードの重みと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、ターゲット共有エンコーダに対応するターゲットパラメータセットを決定する。これにより、プライマリノードによって各セカンダリノードを組織し、プライベートトレーニングサンプルを用いてターゲット共有エンコーダをトレーニングし、各セカンダリノードに含まれるトレーニングサンプルの数に基づいて、各セカンダリノードの重みを調整し、多領域トレーニング言語材料の共有を実現するだけでなく、多領域トレーニング言語材料の入手難度とコストを低減させ、共有エンコーダの性能をさらに向上させた。
本出願の可能な一実現形態では、共有エンコーダの信頼性及びロバスト性をさらに向上させるために、プライマリノードは、前回のトレーニングプロセスで得られたターゲットパラメータセットに基づいて、共有エンコーダが性能要求を満足するか否かを判断することができ、満足されなければ、前回のトレーニングを実行した上において共有エンコーダを再トレーニングすることができる。
本出願の実施例に係る共有エンコーダ生成方法について、図3を関連して以下にさらに説明する。
図3は、本出願の実施例に係る別の共有エンコーダ生成方法の概略フローチャートであり、この方法は、プライマリノードに適用される。
図3に示すように、当該共有エンコーダ生成方法は、以下ステップ301~ステップ305を含む。
ステップ301において、プライマリノードによって、各セカンダリノードがターゲット共有エンコーダのタイプに基づいてトレーニングサンプルを取得するように、トレーニング対象のターゲット共有エンコーダのタイプを含む共有エンコーダトレーニング命令を各セカンダリノードに送信する。
ステップ302において、各セカンダリノードから返信された確認メッセージを取得した後に、各セカンダリノードがそれぞれのトレーニングサンプルを用いて、ターゲット共有エンコーダの初期化パラメータセットをトレーニングするように、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信する。
ステップ303において、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを取得する。
ステップ304において、第1事前設定ルールと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、ターゲット共有エンコーダに対応するターゲットパラメータセットを決定する。
上記のステップ301~304についての具体的な実装過程及び原理は、上記の実施例の詳細な説明を参照することができるため、ここでは説明を省略する。
ステップ305において、各セカンダリノードがターゲット共有エンコーダに対応するターゲットパラメータセットに基づいて、ターゲット共有エンコーダを続けてトレーニングするように、ターゲット共有エンコーダに対応するターゲットパラメータセットを各セカンダリノードにそれぞれ送信する。
本出願の実施例では、プライマリノードは、ターゲット共有エンコーダに対応するターゲットパラメータセットを毎回決定した後に、ターゲット共有エンコーダが性能要求を適合するか否かを判断することができ、性能要求が適合されれば、今回のターゲット共有エンコーダに対するトレーニングプロセスを終了することを決定することができ、性能要求が適合されなければ、ターゲット共有エンコーダの性能を向上させるために、ターゲット共有エンコーダに対する再トレーニングを行う必要があることを決定することができる。
したがって、プライマリノードは、ターゲット共有エンコーダに対応するターゲットパラメータセットが性能要求に適合しないことを決定した後に、各セカンダリノードが自身のトレーニングサンプルを用いて、ターゲット共有エンコーダのターゲットパラメータセットに基づいて、ターゲット共有エンコーダを続けてトレーニングすることができるように、ターゲット共有エンコーダに対応するターゲットパラメータセットを各セカンダリノードにそれぞれ送信することができる。プライマリノードは、各セカンダリノードから再返信された更新パラメータに基づいて決定されたターゲット共有エンコーダに対応するターゲットパラメータセットが性能要求に適合するまで、ターゲット共有エンコーダに対応するターゲットパラメータセットを各セカンダリノードに送信しない。すなわち、今回のターゲット共有エンコーダに対するトレーニングプロセスを終了する。
さらに、ターゲット共有エンコーダに対して複数回トレーニングを行う場合には、セカンダリノードがターゲット共有エンコーダのトレーニングプロセスでの果たす役割をバランスさせるために、各セカンダリノードのターゲット共有エンコーダに対するトレーニング回数に基づいて、各セカンダリノードの重みを決定することもできる。すなわち、本出願の可能な一実現形態では、上記のステップ305の後に、
第1セカンダリノードから再返信されたターゲット共有エンコーダパラメータセットを取得するステップと、
取得された第1セカンダリノードのターゲット共有エンコーダパラメータセットを返信する回数に基づいて、前記第1セカンダリノード現在の重み値を決定するステップと、
第1事前設定ルールに従って、前記第1セカンダリノードの現在重み値と、現在再返信されたターゲット共有エンコーダパラメータセットとに基づいて、ターゲット共有エンコーダに対応するターゲットパラメータセットを更新するステップと、を含むことができる。
ここで、第1セカンダリノードとは、複数のセカンダリノードのうちのターゲット共有エンコーダのトレーニングに複数回に参加するのセカンダリノードを指す。
本出願の可能な一実現形態として、プライマリノードは、第1セカンダリノードから再返信されたターゲット共有エンコーダパラメータセットを取得すると、取得された第1セカンダリノードのターゲット共有エンコーダパラメータセットを返信する回数(すなわち、第1セカンダリノードがターゲット共有エンコーダのトレーニングに参加する回数)を決定し、第1セカンダリノードのターゲット共有エンコーダパラメータセットを返信する回数に基づいて、第1セカンダリノードの現在の重み値を決定することができる。
また、セカンダリノードがターゲット共有エンコーダのトレーニングに参加する回数が多いほど、当該セカンダリノードから返信されたターゲット共有エンコーダパラメータセットは、最終的に決定されるターゲット共有エンコーダに対応するターゲットパラメータセットへの影響が大きくなるので、最終的に決定されるターゲット共有エンコーダが当該セカンダリノードのトレーニングサンプルの特性に適合すぎ、ターゲット共有エンコーダの汎用性が悪くなる。このため、本出願の可能な一実現形態では、第1セカンダリノードの現在の重み値は、第1セカンダリノードのターゲット共有エンコーダパラメータセットを返信する回数と負相関関係を呈することができる。
本出願の実施例では、各セカンダリノードからターゲット共有エンコーダパラメータセットを返信するタイミングが異なる可能性があるため、第1セカンダリノードから再返信されたターゲット共有エンコーダパラメータセットを取得するたびに、直ちに当該第1セカンダリノードの現在の重み値を決定することができる。さらに、プライマリノードは、第1セカンダリノードの現在の重み値に基づいて、第1セカンダリノードから再返信されたターゲット共有エンコーダのパラメータセットを補正し、その後、ターゲット共有エンコーダに対応するターゲットパラメータセットを更新するように、第1事前設定ルールに基づいて、補正された第1セカンダリノードから再返信されたターゲット共有エンコーダのパラメータセットと、前回決定されたターゲット共有エンコーダに対応するターゲットパラメータセットと、を融合する。
一例として、第1事前設定ルールは、「各セカンダリノードから返信された更新パラメータセットにおける各パラメータの和をターゲットパラメータセットにおける相応するパラメータの値として決定する」であり、プライマリノードが前回に決定したターゲット共有エンコーダに対応するターゲットパラメータセットは{a, b, c}であり、現在取得された第1セカンダリノードXから再返信されたターゲット共有エンコーダのパラメータセットは{a, b, c}であり、第1セカンダリノードXから再返信されたターゲット共有エンコーダのパラメータセットの回数に基づいて、第1セカンダリノードXの重み値をwと決定する。したがって、補正された後の第1セカンダリノードXから再返信されたターゲット共有エンコーダのパラメータセットは{w・a, w・b, w・c}として決定することができ、更新されたターゲット共有エンコーダに対応するターゲットパラメータセットは{a+w・a, b+w・b, c+w・c}として決定することができる。
本出願の実施例の技術案によれば、プライマリノードによって、各セカンダリノードがトレーニング命令に含まれるターゲット共有エンコーダのタイプに基づいてトレーニングサンプルを取得するように、共有エンコーダトレーニング命令を各セカンダリノードに送信し、各セカンダリノードから返信された確認メッセージを取得した後に、各セカンダリノードがそれぞれのトレーニングサンプルを用いて、ターゲット共有エンコーダの初期化パラメータセットをトレーニングするように、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信し、その後、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを取得し、さらに第1事前設定ルールと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、ターゲット共有エンコーダに対応するターゲットパラメータセットを決定し、さらに、各セカンダリノードがターゲット共有エンコーダに対応するターゲットパラメータセットに基づいて、ターゲット共有エンコーダを続けてトレーニングするように、ターゲット共有エンコーダに対応するターゲットパラメータセットを各セカンダリノードにそれぞれ送信する。さらに、プライマリノードによって各セカンダリノードを組織し、プライベートトレーニングサンプルを用いて、ターゲット共有エンコーダを複数回トレーニングし、各セカンダリノードによりターゲット共有エンコーダに対する複数回トレーニング結果に基づいて、ターゲット共有エンコーダのターゲットパラメータセットを決定する。これにより、多領域トレーニング言語材料の共有を実現するだけでなく、多領域トレーニング言語材料の入手難度とコストを低減させ、共有エンコーダの正確性と汎用性をさらに向上させた。
本出願の実施例に係る共有エンコーダ生成方法について、セカンダリノード側を例として詳細に説明する。
本出願の実施例に係る共有エンコーダ生成方法について、図4を関連して以下にさらに説明する。
図4は、本出願の実施例に係るさらに別の共有エンコーダ生成方法の概略フローチャートである。この方法は、セカンダリノードに適用される。
図4に示すように、当該共有エンコーダ生成方法は、以下ステップ401~ステップ405を含む。
ステップ401において、第2セカンダリノードは、プライマリノードから送信された共有エンコーダトレーニング命令を取得し、トレーニング命令には、トレーニング対象のターゲット共有エンコーダのタイプを含む。
ここで、プライマリノードとは、共有エンコーダのトレーニングプロセスをトリガーするためのノードを指す。例えば、本出願の実施例に係る共有エンコーダ生成方法をフェデレーテッド・ラーニングシステムに適用される場合、プライマリノードは、フェデレーテッド・ラーニングシステムのサーバであってもよい。
セカンダリノードとは、自身のトレーニングサンプルを用いて、共有エンコーダのトレーニングを参加するノードを指す。例えば、共有エンコーダのトレーニングを参加する会社、トレーニングモデルを組織する場合に適用されるサーバであってもよい。第2セカンダリノードとは、複数のセカンダリノードのうちの1つのセカンダリノードを指す。
実際に利用する場合、本出願の実施例に係る共有エンコーダ生成方法は、任意のフェデレーテッド・ラーニングを実行するシーンに適用することができるが、本出願実施例では限定されない。以下、本出願の実施例に係る共有エンコーダ生成方法について、応用シーンがフェデレーテッド・ラーニングシステムであることを例として詳細に説明する。
本出願の実施例では、第2セカンダリノードは、プライマリノードが共有エンコーダをトレーニングする需要があるときに、各セカンダリノードに送信した共有エンコーダトレーニング命令をリアルタイムで取得することができ、第2セカンダリノードは、共有エンコーダトレーニング命令を取得すると、トレーニング命令に含まれるトレーニング対象のターゲット共有エンコーダのタイプに基づいて、ターゲット共有エンコーダに対するトレーニングに参加するか否かを判断する。
ステップ402において、ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを含むことを決定した後に、確認メッセージをプライマリノードに返信する。
本出願の実施例では、第2セカンダリノードは、ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを含むことを決定すると、ターゲット共有エンコーダに対するトレーニングに参加できることを決定し、これにより、確認メッセージをプライマリノードに返信することができ、プライマリノードが取得された確認メッセージに基づいて、ターゲット共有エンコーダに対するトレーニングに参加するセカンダリノードを決定し、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットをプルし、第2セカンダリノードに送信する。
ステップ403において、プライマリノードから送信されたターゲット共有エンコーダの初期化パラメータセットを取得する。
本出願の実施例では、第2セカンダリノードは、確認メッセージをプライマリノードに返信した後に、ターゲット共有エンコーダの初期化パラメータセットに基づいて、ターゲット共有エンコーダをトレーニングするように、プライマリノードから返信されたターゲット共有エンコーダの初期化パラメータセットをリアルタイムで取得することができる。
ステップ404において、ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを用いて、モデルをトレーニングし、ターゲット共有エンコーダの更新パラメータセットを決定する。
本出願の実施例では、第2セカンダリノードは、ターゲット共有エンコーダの初期化パラメータセットを取得した後に、ターゲット共有エンコーダの更新パラメータセットを決定するように、ターゲット共有エンコーダのタイプに一致するトレーニングサンプルと、取得されたターゲット共有エンコーダの初期化パラメータセットとを用いて、モデルをトレーニングすることができる。
ステップ405において、ターゲット共有エンコーダの更新パラメータセットをプライマリノードに返信する。
本出願の実施例では、第2セカンダリノードは、ターゲット共有エンコーダに対するトレーニングを終了した後に、プライマリノードが各セカンダリノードから返信された更新パラメータセットに基づいて、ターゲット共有エンコーダに対応するターゲットパラメータセットを決定するように、決定されたターゲット共有エンコーダの更新パラメータセットをプライマリノードに返信することができる。
さらに、最終的に得られる共有エンコーダの性能をさらに向上させ、各セカンダリノードが共有エンコーダのトレーニングプロセスにおける重要度をバランスさせるために、プライマリノードは、セカンダリノードのトレーニングサンプルの数に基づいて、各セカンダリノードが異なる重みを与えることとして決定してもよい。すなわち、本出願の可能な一実現形態では、上記の方法は、ターゲット共有エンコーダのタイプに一致するトレーニングサンプルの数を前記プライマリノードに送信するステップをさらに含むことができる。
本出願の可能な一実現形態として、プライマリノードは、ターゲット共有エンコーダをトレーニングさせるための第2セカンダリノードに含まれるトレーニングサンプルの数に基づいて(すなわち、ターゲット共有エンコーダのタイプに一致するトレーニングサンプルの数)、ターゲット共有エンコーダをトレーニングするときの第2セカンダリノードの重みを決定することができる。したがって、第2セカンダリノードは、プライマリノードが第2セカンダリノードに含まれるターゲット共有エンコーダのタイプに一致するトレーニングサンプルの数に基づいて、第2セカンダリノードの重みを決定することができるように、ターゲット共有エンコーダのタイプに一致するトレーニングサンプルの数をプライマリノードに返信することができる。
さらに、セカンダリノードは、プライベートトレーニングサンプルに基づいて、プライベートエンコーダ及びプライベートデコータを設計し、さらに、設計されたプライベートエンコーダと、プライベートデコータとに基づいて、参加できる共有エンコーダのトレーニングタスクを決定することもできる。すなわち、本出願の可能な一実現形態では、上記のステップ405の後に、ターゲット共有エンコーダに対応するプライベートエンコーダ及びプライベートデコータを決定するステップをさらに含むことができる。
本出願の可能な一実現形態では、第2セカンダリノードは、含まれるトレーニングサンプルに基づいて、プライベートエンコーダ及びプライベートデコータを設計することができ、また、ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを用いてターゲット共有エンコーダをトレーニングした後に、ターゲット共有エンコーダに対応するプライベートエンコーダ及びプライベートデコータを取得することができる。さらに、ターゲット共有エンコーダに対するトレーニング結果と、ターゲット共有エンコーダに対応するプライベートエンコーダ及びプライベートデコータとに基づいて、ターゲット共有エンコーダの更新パラメータセットを共同に決定する。
本出願の実施例の技術案によれば、第2セカンダリノードによってプライマリノードから送信された共有エンコーダトレーニング命令を取得し、ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを含むことを決定した後に、確認メッセージをプライマリノードに返信し、およびプライマリノードから送信されたターゲット共有エンコーダの初期化パラメータセットを取得し、その後、ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを用いて、モデルをトレーニングし、ターゲット共有エンコーダの更新パラメータセットを決定し、さらに、ターゲット共有エンコーダの更新パラメータセットをプライマリノードに返信する。さらに、プライマリノードによって各セカンダリノードを組織し、プライベートトレーニングサンプルを用いてターゲット共有エンコーダをトレーニングし、各セカンダリノードによりターゲット共有エンコーダに対するトレーニング結果に基づいて、ターゲット共有エンコーダのターゲットパラメータセットを決定する。これにより、多領域トレーニング言語材料の共有を実現するだけでなく、多領域トレーニング言語材料の入手難度とコストを低減させ、共有エンコーダの性能をさらに向上させた。
本出願の可能な一実現形態では、セカンダリノードは、プライマリノードに事前設定された更新ルールに基づいて、ターゲット共有エンコーダの更新パラメータセットをプライマリノードに返信することができる。
本出願の実施例に係る共有エンコーダ生成方法について、図5を関連して以下にさらに説明する。
図5は、本出願の実施例に係るさらに別の共有エンコーダ生成方法の概略フローチャートである。この方法は、セカンダリノードに適用される。
図5に示すように、当該共有エンコーダ生成方法は、以下ステップ501~ステップ506を含む。
ステップ501において、第2セカンダリノードは、プライマリノードから送信された共有エンコーダトレーニング命令を取得し、トレーニング命令には、トレーニング対象のターゲット共有エンコーダのタイプを含む。
ステップ502において、ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを含むことを決定した後に、確認メッセージをプライマリノードに返信する。
上記のステップ501~502についての具体的な実装過程及び原理は、上記の実施例の詳細な説明を参照することができるため、ここでは説明を省略する。
ステップ503において、プライマリノードから返信されたターゲット共有エンコーダのパラメータ更新ルールを取得する。
ここで、ターゲット共有エンコーダのパラメータ更新ルールは、プライマリノードから返信された実行可能なプログラムに含まれてもよい。
本出願の可能な一実現形態として、プライマリノードは、セカンダリノードから返信された確認メッセージを取得した後に、事前設定された実行可能なプログラムをターゲット共有エンコーダのトレーニングに参加する各セカンダリノードに送信することができ、よって、第2セカンダリノードが実行可能なプログラムに基づいてターゲット共有エンコーダをトレーニングすることができ、更に、実行可能なプログラムに含まれるターゲット共有エンコーダのパラメータ更新ルールに基づいて、決定された更新パラメータセットをプライマリノードに返信することができるか否かを判断する。
なお、ターゲット共有エンコーダのパラメータ更新ルールは、第2セカンダリノードがプライマリノードから送信されたトレーニング命令を取得するたびに、ターゲット共有エンコーダに対するトレーニング回数であってもよいし、または、第2セカンダリノードがプライマリノードから送信されたトレーニング命令を取得するたびに、プライマリノードにターゲット共有エンコーダの更新パラメータセットを返信する時間周期などであってもよいが、本出願実施例では限定されない。
一例として、ターゲット共有エンコーダのパラメータ更新ルールは、「ターゲット共有エンコーダを5回トレーニングした後に、取得されたターゲット共有エンコードの更新パラメータセットをプライマリノードに返信する」であってもよく、または、「ターゲット共有エンコードの更新パラメータセットを毎月にプライマリノードに1回返信する」であってもよい。
ステップ504において、プライマリノードから送信されたターゲット共有エンコーダの初期化パラメータセットを取得する。
ステップ505において、ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを用いて、モデルをトレーニングし、ターゲット共有エンコーダの更新パラメータセットを決定する。
上記のステップ504~505についての具体的な実装過程及び原理は、上記の実施例の詳細な説明を参照することができるため、ここでは説明を省略する。
ステップ506において、現在、更新ルールを満足したことを決定すると、ターゲット共有エンコーダの更新パラメータセットをプライマリノードに返信する。
本出願の実施例では、第2セカンダリノードは、ターゲット共有エンコーダに対する1回のトレーニングを終了する毎に、現在がターゲット共有エンコーダの更新ルールを満足するか否かを決定することができ、更新ルールが満足されれば、現在取得されたターゲット共有エンコーダの更新パラメータセットをプライマリノードに返信することができ、更新ルールが満足されなければ、現在がターゲット共有エンコーダのパラメータ更新ルールを満足するまで、ターゲット共有エンコーダに対する次回のトレーニングを続けることができる。
ターゲット共有エンコーダのパラメータ更新ルールは、「セカンダリノードは、ターゲット共有エンコーダに対して5回のトレーニングを終了する毎に、ターゲット共有エンコーダの更新パラメータセットをプライマリノードに返信する」であり、現在、第2セカンダリノードは、ターゲット共有エンコーダに対する4回目のトレーニングを終了すると、現在がターゲット共有エンコーダのパラメータ更新ルールを満足しなかったことを判断することができ、すなわち、ターゲット共有エンコーダに対する次回のトレーニングを続けることができる。現在、第2セカンダリノードは、ターゲット共有エンコーダに対する5回目のトレーニングを終了すると、現在がターゲット共有エンコーダのパラメータ更新ルールを満足したことを判断することができ、5回目のトレーニング終了後に得られたターゲット共有エンコーダの更新パラメータセットをプライマリノードに返信することができる。
本出願の実施例の技術案によれば、第2セカンダリノードによってプライマリノードから送信された共有エンコーダトレーニング命令を取得し、ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを含むことを決定した後に、確認メッセージをプライマリノードに返信し、およびプライマリノードから返信されたターゲット共有エンコーダのパラメータ更新ルールと、ターゲット共有エンコーダの初期化パラメータセットとを取得し、その後、ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを用いて、モデルをトレーニングし、ターゲット共有エンコーダの更新パラメータセットを決定し、さらに、現在が更新ルールを満足したことを決定すると、ターゲット共有エンコーダの更新パラメータセットをプライマリノードに返信する。従って、プライマリノードによって各セカンダリノードを組織し、プライベートトレーニングサンプルを用いてターゲット共有エンコーダをトレーニングし、さらにプライマリノードから返信されたパラメータ更新ルールに基づいて、セカンダリノードは、ターゲット共有エンコーダの更新パラメータセットをプライマリノードに返信するタイミングを決定する。これにより、多領域トレーニング言語材料の共有を実現するだけでなく、多領域トレーニング言語材料の入手難度とコストを低減させ、共有エンコーダの性能をさらに向上させた。
上記の実施例を実現するために、本出願は、共有エンコーダの生成装置をさらに提供する。
図6は、本出願の実施例に係る共有エンコーダの生成装置の概略構成図である。この装置は、プライマリノードに適用される。
図6に示すように、当該共有エンコーダの生成装置60は、以下のモジュール61~モジュール64を含む。
第1送信モジュール61は、プライマリノードによって、トレーニング対象のターゲット共有エンコーダのタイプを含む共有エンコーダトレーニング命令を各セカンダリノードに送信し、各セカンダリノードがターゲット共有エンコーダのタイプに基づいてトレーニングサンプルを取得するように構成される。
第2送信モジュール62は、各セカンダリノードから返信された確認メッセージを取得した後に、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信し、各セカンダリノードがそれぞれのトレーニングサンプルを用いて、前記ターゲット共有エンコーダの初期化パラメータセットをトレーニングするように構成される。
第1取得モジュール63は、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを取得するように構成される。
第1決定モジュール64は、第1事前設定ルールと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、前記ターゲット共有エンコーダに対応するターゲットパラメータセットを決定するように構成される。
実際に利用する場合、本出願の実施例に係る共有エンコーダの生成装置は、上記の共有エンコーダ生成方法を実装するように、任意の電子機器に配置されてもよい。
本出願の実施例の技術案によれば、各セカンダリノードがトレーニング命令に含まれるターゲット共有エンコーダのタイプに基づいてトレーニングサンプルを取得するように、プライマリノードによって共有エンコーダトレーニング命令を各セカンダリノードに送信し、各セカンダリノードから返信された確認メッセージを取得した後に、各セカンダリノードがそれぞれのトレーニングサンプルを用いて、ターゲット共有エンコーダの初期化パラメータセットをトレーニングするように、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信し、その後、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを取得し、さらに第1事前設定ルールと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、ターゲット共有エンコーダに対応するターゲットパラメータセットを決定する。従って、プライマリノードによって各セカンダリノードを組織し、プライベートトレーニングサンプルを用いてターゲット共有エンコーダをトレーニングし、各セカンダリノードによりターゲット共有エンコーダに対するトレーニング結果に基づいて、ターゲット共有エンコーダのターゲットパラメータセットを決定する。これにより、多領域トレーニング言語材料の共有を実現するだけでなく、多領域トレーニング言語材料の入手難度とコストを低減させ、共有エンコーダの性能をさらに向上させた。
本出願の可能な一実現形態では、上記の共有エンコーダの生成装置60は、
前記プライマリノードは、少なくとも1つのセカンダリノードから送信されたターゲット共有エンコーダ取得要求を取得するための第2取得モジュールと、
または、
前記プライマリノードは、少なくとも1つのセカンダリノードから送信されたターゲット共有エンコーダの更新要求を取得するための第3取得モジュールと、をさらに含む。
前記更新要求には、前記ターゲット共有エンコーダの識別子を含む。
さらに、本出願のもう1つの可能な実現形態では、上記の共有エンコーダの生成装置60は、
各セカンダリノードに含まれるトレーニングサンプルの数を取得するための第4取得モジュールと、
各セカンダリノードに含まれるトレーニングサンプルの数に基づいて、各セカンダリノードの重みを決定するための第2決定モジュールと、をさらに含む。
従って、上記の第1決定モジュール64は、具体的に、以下のように使用される。
前記第1事前設定ルールと、前記各セカンダリノードの重みと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、前記ターゲット共有エンコーダに対応するターゲットパラメータセットを決定する。
さらに、本出願のさらにもう一つ可能な実現形態では、上記の共有エンコーダの生成装置60は、
前記ターゲット共有エンコーダに対応するターゲットパラメータセットを各セカンダリノードにそれぞれ送信し、各セカンダリノードが前記ターゲット共有エンコーダに対応するターゲットパラメータセットに基づいて、前記ターゲット共有エンコーダを続けてトレーニングさせるための第3送信モジュールをさらに含む。
さらに、本出願のさらに別の可能な実現形態では、上記の共有エンコーダの生成装置60は、
第1セカンダリノードから再返信されたターゲット共有エンコーダパラメータセットを取得するための第5取得モジュールと、
取得された前記第1セカンダリノードから返信されたターゲット共有エンコーダパラメータセットの回数に基づいて、前記第1セカンダリノードの現在の重み値を決定するための第3決定モジュールと、
前記第1事前設定ルールに従って、前記第1セカンダリノードの現在の重み値と、現在再返信されたターゲット共有エンコーダパラメータセットとに基づいて、前記ターゲット共有エンコーダに対応するターゲットパラメータセットを更新するための更新モジュールと、をさらに含む。
さらに、本出願のさらに別の可能な実現形態では、上記の共有エンコーダの生成装置60は、
第2事前設定ルールに従って、前記トレーニング対象のターゲット共有エンコーダを生成するための生成モジュールをさらに含む。
なお、図1、図2、図3に示す共有エンコーダ生成方法の実施例についての上記の説明は、当該実施例での共有エンコーダの生成装置60にも適用されるため、ここでは説明を省略する。
本出願の実施例の技術案によれば、プライマリノードによって、各セカンダリノードがトレーニング命令に含まれるターゲット共有エンコーダのタイプに基づいてトレーニングサンプルを取得するように、共有エンコーダトレーニング命令を各セカンダリノードに送信し、各セカンダリノードから返信された確認メッセージを取得した後に、各セカンダリノードがそれぞれのトレーニングサンプルを用いて、ターゲット共有エンコーダの初期化パラメータセットをトレーニングするように、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信し、その後、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを取得し、および第1事前設定ルールと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、ターゲット共有エンコーダに対応するターゲットパラメータセットを決定し、さらに、各セカンダリノードがターゲット共有エンコーダに対応するターゲットパラメータセットに基づいて、ターゲット共有エンコーダを続けてトレーニングするように、ターゲット共有エンコーダに対応するターゲットパラメータセットを各セカンダリノードにそれぞれ送信する。従って、プライマリノードによって各セカンダリノードを組織し、プライベートトレーニングサンプルを用いてターゲット共有エンコーダをトレーニングし、各セカンダリノードによりターゲット共有エンコーダに対するトレーニング結果に基づいて、ターゲット共有エンコーダのターゲットパラメータセットを決定する。これにより、多領域トレーニング言語材料の共有を実現するだけでなく、多領域トレーニング言語材料の入手難度とコストを低減させ、共有エンコーダの正確性と汎用性をさらに向上させた。
上記の実施例を実現するために、本出願は、もう1つの共有エンコーダの生成装置も提供する。
図7は、本出願の実施例に係る別の共有エンコーダの生成装置の概略構成図である。この装置は、プライマリノードに適用される。
図7に示すように、当該共有エンコーダの生成装置70は、
第2セカンダリノードは、プライマリノードから送信されたトレーニング対象のターゲット共有エンコーダのタイプを含む前記共有エンコーダトレーニング命令を取得するための第1取得モジュール71と、
前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを含むことを決定した後に、確認メッセージを前記プライマリノードに返信するための第1返信モジュール72と、
前記プライマリノードから送信されたターゲット共有エンコーダの初期化パラメータセットを取得するための第2取得モジュール73と、
前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを用いて、モデルをトレーニングし、前記ターゲット共有エンコーダの更新パラメータセットを決定するための第1決定モジュール74と、
前記ターゲット共有エンコーダの更新パラメータセットを前記プライマリノードに返信するための第2返信モジュール75と、を含む。
実際に利用する場合、本出願の実施例に係る共有エンコーダの生成装置は、上記の共有エンコーダ生成方法を実装するように、任意の電子機器に配置されてもよい。
本出願の実施例の技術案によれば、第2セカンダリノードによってプライマリノードから送信された共有エンコーダトレーニング命令を取得し、ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを含むことを決定した後に、確認メッセージをプライマリノードに返信し、およびプライマリノードから送信されたターゲット共有エンコーダの初期化パラメータセットを取得し、その後、ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを用いて、モデルをトレーニングし、ターゲット共有エンコーダの更新パラメータセットを決定し、さらに、ターゲット共有エンコーダの更新パラメータセットをプライマリノードに返信する。従って、プライマリノードによって各セカンダリノードを組織し、プライベートトレーニングサンプルを用いてターゲット共有エンコーダをトレーニングし、各セカンダリノードによりターゲット共有エンコーダに対するトレーニング結果に基づいて、ターゲット共有エンコーダのターゲットパラメータセットを決定する。これにより、多領域トレーニング言語材料の共有を実現するだけでなく、多領域トレーニング言語材料の入手難度とコストを低減させ、共有エンコーダの性能をさらに向上させた。
本出願の可能な一実現形態では、上記の共有エンコーダの生成装置70は、
前記プライマリノードから返信されたターゲット共有エンコーダのパラメータ更新ルールを取得するための第3取得モジュールをさらに含む。
従って、上記の第2返信モジュール75は、具体的に、以下のように使用される。
現在、前記更新ルールを満足したことを決定すると、前記ターゲット共有エンコーダの更新パラメータセットを前記プライマリノードに返信する。
さらに、本出願のもう1つの可能な実現形態では、上記の共有エンコーダの生成装置70は、
前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルの数を前記プライマリノードに送信するための送信モジュールをさらに含む。
さらに、本出願のさらに別の可能な実現形態では、上記の共有エンコーダの生成装置70は、
前記ターゲット共有エンコーダに対応するプライベートエンコーダ及びプライベートデコータを決定するための第2決定モジュールをさらに含む。
なお、図4、図5に示す共有エンコーダ生成方法の実施例についての上記の説明は、当該実施例での共有エンコーダの生成装置70にも適用されるため、ここでは説明を省略する。
本出願の実施例の技術案によれば、第2セカンダリノードによってプライマリノードから送信された共有エンコーダトレーニング命令を取得し、ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを含むことを決定した後に、確認メッセージをプライマリノードに返信し、およびプライマリノードから返信されたターゲット共有エンコーダパラメータ更新ルールと、ターゲット共有エンコーダの初期化パラメータセットと、を取得し、その後、ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを用いて、モデルをトレーニングし、ターゲット共有エンコーダの更新パラメータセットを決定し、さらに、現在、前記更新ルールを満足したことを決定すると、ターゲット共有エンコーダの更新パラメータセットをプライマリノードに返信する。従って、プライマリノードによって各セカンダリノードを組織し、プライベートトレーニングサンプルを用いてターゲット共有エンコーダをトレーニングし、プライマリノードから返信されたパラメータ更新ルールに基づいて、セカンダリノードからプライマリノードにターゲット共有エンコーダの更新パラメータセットを返信するタイミングを決定する。これにより、多領域トレーニング言語材料の共有を実現するだけでなく、多領域トレーニング言語材料の入手難度とコストを低減させ、共有エンコーダの性能をさらに向上させた。
本出願の実施例によれば、本出願は、電子機器及び読み取り可能な記憶媒体をさらに提供する。
図8に示すように、本出願の実施例に係る電子機器のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、大型コンピュータ、及び他の適切なコンピュータなどの様々な形式のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルデジタル処理、携帯電話、スマートフォン、ウェアラブルデバイス、他の同様のコンピューティングデバイスなどの様々な形式のモバイルデバイスを表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本出願の実現を制限することを意図したものではない。
図8に示すように、当該電子機器は、一つ又は複数のプロセッサ801と、メモリ802と、高速インターフェースと低速インターフェースを含む各コンポーネントを接続するためのインターフェースと、を含む。各コンポーネントは、異なるバスで相互に接続され、共通のマザーボードに取り付けられるか、又は必要に応じて他の方式で取り付けることができる。プロセッサは、外部入力/出力装置(インターフェースに結合されたディスプレイデバイスなど)にGUIの図形情報をディスプレイするためにメモリに記憶されている命令を含む、電子機器内に実行される命令を処理することができる。他の実施形態では、必要であれば、複数のプロセッサ及び/又は複数のバスを、複数のメモリと複数のメモリとともに使用することができる。同様に、複数の電子機器を接続することができ、各機器は、部分的な必要な操作(例えば、サーバアレイ、ブレードサーバ、又はマルチプロセッサシステムとする)を提供することができる。図8では、一つのプロセッサ801を例とする。
メモリ802は、本出願に係る非一時的なコンピュータ読み取り可能な記憶媒体である。ここで、前記メモリには、少なくとも一つのプロセッサによって実行される命令を記憶されることにより、前記少なくとも一つのプロセッサが本出願に係る共有エンコーダ生成方法を実行することができる。本出願の非一時的なコンピュータ読み取り可能な記憶媒体には、コンピュータに本出願に係る共有エンコーダ生成方法を実行させるためのコンピュータ命令が記憶されている。
メモリ802は、非一時的なコンピュータ読み取り可能な記憶媒体として、本出願に係る共有エンコーダ生成方法に対応するプログラム命令/モジュール(例えば、図6に示す第1送信モジュール61、第2送信モジュール62、第1取得モジュール63及び第1決定モジュール64、および図7に示す第1取得モジュール71、第1返信モジュール72、第2取得モジュール73、第1決定モジュール74及び第2返信モジュール75)などの、非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能なプログラム及びモジュールを記憶するように構成される。プロセッサ801は、メモリ802に記憶されている非一時的なソフトウェアプログラム、命令及びモジュールを実行することによって、サーバの様々な機能アプリケーション及びデータ処理を実行し、すなわち、上記方法の実施例に係る共有エンコーダ生成方法を実現する。
メモリ802は、ストレージプログラム領域とストレージデータ領域と、を含むことができ、ここで、ストレージプログラム領域は、オペレーティングシステム、少なくとも一つの機能に必要なアプリケーションプログラムを記憶することができ、ストレージデータ領域は、電子機器の使用によって作成されたデータなどを記憶することができる。また、メモリ802は、高速ランダム存取メモリを含むことができ、非一時的なメモリをさらに含むことができ、例えば、少なくとも一つのディスクストレージデバイス、フラッシュメモリデバイス、又は他の非一時的なソリッドステートストレージデバイスである。いくつかの実施例では、メモリ802は、プロセッサ801に対して遠隔に設置されたメモリを含むことができ、これらの遠隔メモリは、ネットワークを介して共有エンコーダ生成方法を実行電子機器に接続することができる。上記のネットワークの例としては、インターネット、イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、及びその組み合わせを含むが、これらに限定されない。
共有エンコーダ生成方法を実行する電子機器は、入力装置803と出力装置804とをさらに含むことができる。プロセッサ801、メモリ802、入力装置803、及び出力装置804は、バス又は他の方式を介して接続することができ、図8では、バスを介して接続することを例とする。
入力装置803は、入力された数字又はキャラクタ情報を受信し、共有エンコーダ生成のための電子機器のユーザ設定及び機能制御に関するキー信号入力を生成することができ、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、インジケータースティック、一つ又は複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置である。出力装置804は、ディスプレイデバイス、補助照明デバイス(例えば、LED)、及び触覚フィードバックデバイス(例えば、振動モータ)などを含むことができる。当該ディスプレイデバイスは、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、及びプラズマディスプレイを含むことができるが、これらに限定されない。いくつかの実施形態では、ディスプレイデバイスは、タッチスクリーンであってもよい。
本明細書で説明されるシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、特定用途向けASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施形態は、一つ又は複数のコンピュータプログラムで実施されることを含むことができ、当該一つ又は複数のコンピュータプログラムは、少なくとも一つのプログラマブルプロセッサを含むプログラム可能なシステムで実行及び/又は解釈されることができ、当該プログラマブルプロセッサは、特定用途向け又は汎用プログラマブルプロセッサであってもよく、ストレージシステム、少なくとも一つの入力装置、及び少なくとも一つの出力装置からデータ及び命令を受信し、データ及び命令を当該ストレージシステム、当該少なくとも一つの入力装置、及び当該少なくとも一つの出力装置に伝送することができる。
これらのコンピューティングプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも呼ばれる)は、プログラマブルプロセッサの機械命令、高レベルのプロセス及び/又はオブジェクト指向プログラミング言語、及び/又はアセンブリ/機械言語でこれらのコンピューティングプログラムを実施することを含む。本明細書に使用されるように、用語「機械読み取り可能な媒体」及び「コンピュータ読み取り可能な媒体」は、機械命令及び/又はデータをプログラマブルプロセッサに提供するために使用される任意のコンピュータプログラム製品、機器、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指し、機械読み取り可能な信号である機械命令を受信する機械読み取り可能な媒体を含む。用語「機械読み取り可能な信号」は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意の信号を指す。
ユーザとのインタラクションを提供するために、コンピュータ上でここで説明されているシステム及び技術を実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置は、ユーザとのインタラクションを提供するように構成されてもよい。例えば、ユーザに提供されるフィードバックは、任意の形式のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形式(音響入力と、音声入力と、触覚入力と、を含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、バックエンドコンポーネントを含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータ、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施形態とインタラクションする)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムで実施することができる。任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続されてもい。通信ネットワークの例としては、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットとを含む。
コンピュータシステムは、クライアント側とサーバとを含むことができる。クライアント側とサーバは、一般に、互いに離れており、通常に通信ネットワークによってインタラクションする。対応するコンピュータ上で実行され、互いにクライアント-サーバ関係を有するコンピュータプログラムによってクライアント側とサーバとの関係が生成される。
本出願の実施例の技術案によれば、
各セカンダリノードがトレーニング命令に含まれるターゲット共有エンコーダのタイプに基づいてトレーニングサンプルを取得するように、プライマリノードによって共有エンコーダトレーニング命令を各セカンダリノードに送信し、各セカンダリノードから返信された確認メッセージを取得した後に、各セカンダリノードがそれぞれのトレーニングサンプルを用いて、ターゲット共有エンコーダの初期化パラメータセットをトレーニングするように、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信し、その後、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを取得し、さらに第1事前設定ルールと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、ターゲット共有エンコーダに対応するターゲットパラメータセットを決定する。従って、プライマリノードによって各セカンダリノードを組織し、プライベートトレーニングサンプルを用いてターゲット共有エンコーダをトレーニングし、各セカンダリノードによりターゲット共有エンコーダに対するトレーニング結果に基づいて、ターゲット共有エンコーダのターゲットパラメータセットを決定する。これにより、多領域トレーニング言語材料の共有を実現するだけでなく、多領域トレーニング言語材料の入手難度とコストを低減させ、共有エンコーダの性能をさらに向上させた。
上記に示される様々な形式のフローを使用して、ステップを並べ替え、追加、又は削除することができることを理解されたい。例えば、本出願に記載されている各ステップは、並列に実行されてもよいし、順次的に実行されてもよいし、異なる順序で実行されてもよいが、本出願で開示されている技術案が所望の結果を実現することができれば、本出願実施例では限定されない。
上記の具体的な実施形態は、本出願の保護範囲を制限するものではない。当業者は、設計要件及び他の要因に応じて、様々な修正、組み合わせ、サブコンビネーション、及び置換を行うことができる。任意の本出願の精神と原則内で行われる修正、同等の置換、及び改良などは、いずれも本出願の保護範囲内に含まれるべきである。
本出願の第6の態様の実施例は、コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータ命令が実行される場合、上記の実施例に記載の共有エンコーダ生成方法が実行される。
本出願の第7の態様の実施例は、コンピュータプログラムをさらに提供し、前記コンピュータプログラムにおける命令が実行された場合に、上記の実施例に記載の共有エンコーダ生成方法が実行される。
入力装置803は、入力された数字又はキャラクタ情報を受信し、共有エンコーダ生成のための電子機器のユーザ設定及び機能制御に関するキー信号入力を生成することができ、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、インジケータースティック、一つ又は複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置である。出力装置804は、ディスプレイデバイス、補助照明デバイス(例えば、LED)、及び触覚フィードバックデバイス(例えば、振動モータ)などを含むことができる。当該ディスプレイデバイスは、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、及びプラズマディスプレイを含むことができるが、これらに限定されない。いくつかの実施形態では、ディスプレイデバイスは、タッチスクリーンであってもよい。
本出願の実施例によれば、コンピュータプログラムが提供される。当該コンピュータプログラムにおける命令が実行された場合に、本出願の実施例の共有エンコーダ生成方法が実行される。

Claims (22)

  1. 各セカンダリノードがターゲット共有エンコーダのタイプに基づいてトレーニングサンプルを取得するように、プライマリノードによって、トレーニング対象のターゲット共有エンコーダのタイプを含む共有エンコーダトレーニング命令を、各セカンダリノードに送信するステップと、
    各セカンダリノードから返信された確認メッセージを取得した後に、各セカンダリノードがそれぞれのトレーニングサンプルを用いて、前記ターゲット共有エンコーダの初期化パラメータセットをトレーニングするように、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信するステップと、
    各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを取得するステップと、
    第1事前設定ルールと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、前記ターゲット共有エンコーダに対応するターゲットパラメータセットを決定するステップと、を含む、
    ことを特徴とする共有エンコーダの生成方法。
  2. 上記のプライマリノードによって、共有エンコーダトレーニング命令を各セカンダリノードに送信するステップの前に、 前記プライマリノードは、少なくとも1つのセカンダリノードから送信されたターゲット共有エンコーダの取得要求を取得するステップと、
    または、
    前記プライマリノードは、少なくとも1つのセカンダリノードから送信されたターゲット共有エンコーダの更新要求を取得するステップと、をさらに含み、
    前記更新要求には、前記ターゲット共有エンコーダの識別子が含まれる、
    ことを特徴とする請求項1に記載の共有エンコーダの生成方法。
  3. 上記のトレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信した後、
    各セカンダリノードに含まれるトレーニングサンプルの数を取得するステップと、
    各セカンダリノードに含まれるトレーニングサンプルの数に基づいて、各セカンダリノードの重みを決定するステップと、をさらに含み、 上記の第1事前設定ルールと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、前記ターゲット共有エンコーダに対応するターゲットパラメータセットを決定するステップは、
    前記第1事前設定ルールと、前記各セカンダリノードの重みと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、前記ターゲット共有エンコーダに対応するターゲットパラメータセットを決定するステップを含む、
    ことを特徴とする請求項1または2に記載の共有エンコーダの生成方法。
  4. 上記の前記ターゲット共有エンコーダに対応するターゲットパラメータセットを決定した後、
    各セカンダリノードが前記ターゲット共有エンコーダに対応するターゲットパラメータセットに基づいて、前記ターゲット共有エンコーダを続けてトレーニングするように、前記ターゲット共有エンコーダに対応するターゲットパラメータセットを、各セカンダリノードにそれぞれ送信するステップをさらに含む、
    ことを特徴とする請求項1~3のいずれかに記載の共有エンコーダの生成方法。
  5. 上記の前記ターゲット共有エンコーダに対応するターゲットパラメータセットを各セカンダリノードにそれぞれ送信した後、
    第1セカンダリノードから再返信されたターゲット共有エンコーダパラメータセットを取得するステップと、
    取得された前記第1セカンダリノードから返信されたターゲット共有エンコーダパラメータセットの回数に基づいて、前記第1セカンダリノード現在の重み値を決定するステップと、
    前記第1事前設定ルールに従って、前記第1セカンダリノードの現在の重み値と、現在再返信されたターゲット共有エンコーダパラメータセットとに基づいて、前記ターゲット共有エンコーダに対応するターゲットパラメータセットを更新するステップと、をさらに含む、
    ことを特徴とする請求項4に記載の共有エンコーダの生成方法。
  6. 上記のトレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信する前に、
    第2事前設定ルールに従って、前記トレーニング対象のターゲット共有エンコーダを生成するステップをさらに含む、
    ことを特徴とする請求項1~5のいずれかに記載の共有エンコーダの生成方法。
  7. 第2セカンダリノードは、プライマリノードから送信された共有エンコーダトレーニング命令を取得し、前記トレーニング命令には、トレーニング対象のターゲット共有エンコーダのタイプが含まれる、ステップと、
    前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを含むことを決定した後に、確認メッセージを前記プライマリノードに返信するステップと、
    前記プライマリノードから送信されたターゲット共有エンコーダの初期化パラメータセットを取得するステップと、
    前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを用いて、モデルをトレーニングし、前記ターゲット共有エンコーダの更新パラメータセットを決定するステップと、
    前記ターゲット共有エンコーダの更新パラメータセットを前記プライマリノードに返信するステップと、を含む、
    ことを特徴とする共有エンコーダの生成方法。
  8. 上記の確認メッセージを前記プライマリノードに返信した後、
    前記プライマリノードから返信されたターゲット共有エンコーダのパラメータ更新ルールを取得するステップをさらに含み、
    上記の前記ターゲット共有エンコーダの更新パラメータセットを前記プライマリノードに返信するステップは、
    現在、前記更新ルールを満足したことを決定すると、前記ターゲット共有エンコーダの更新パラメータセットを前記プライマリノードに返信するステップを含む、
    ことを特徴とする請求項7に記載の共有エンコーダの生成方法。
  9. 前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルの数を前記プライマリノードに送信するステップをさらに含む、
    ことを特徴とする請求項7または8に記載の共有エンコーダの生成方法。
  10. 上記の前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを用いて、モデルをトレーニングした後、
    前記ターゲット共有エンコーダに対応するプライベートエンコーダ及びプライベートデコータを決定するステップをさらに含む、
    ことを特徴とする請求項7~9のいずれかに記載の共有エンコーダ生成方法。
  11. 各セカンダリノードがターゲット共有エンコーダのタイプに基づいてトレーニングサンプルを取得するように、プライマリノードから、トレーニング対象のターゲット共有エンコーダのタイプを含む共有エンコーダトレーニング命令を、各セカンダリノードに送信するための第1送信モジュールと、
    各セカンダリノードから返信された確認メッセージを取得した後に、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信し、各セカンダリノードに、それぞれのトレーニングサンプルを用いて、前記ターゲット共有エンコーダの初期化パラメータセットをトレーニングさせるための第2送信モジュールと、
    各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを取得するための第1取得モジュールと、
    第1事前設定ルールと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、前記ターゲット共有エンコーダに対応するターゲットパラメータセットを決定するための第1決定モジュールと、を含む、
    ことを特徴とする共有エンコーダの生成装置。
  12. 前記プライマリノードが、少なくとも1つのセカンダリノードから送信されたターゲット共有エンコーダの取得要求を取得するように使用される第2取得モジュールと、
    または、
    前記プライマリノードが、少なくとも1つのセカンダリノードから送信されたターゲット共有エンコーダの更新要求を取得するように使用される第3取得モジュールと、をさらに含み、
    前記更新要求には、前記ターゲット共有エンコーダの識別子が含まれている、
    ことを特徴とする請求項11に記載の共有エンコーダの生成装置。
  13. 各セカンダリノードに含まれるトレーニングサンプルの数を取得するための第4取得モジュールと、
    各セカンダリノードに含まれるトレーニングサンプルの数に基づいて、各セカンダリノードの重みを決定するための第2決定モジュールと、をさらに含み、
    前記第1決定モジュールは、具体的に、以下のように使用され、
    前記第1事前設定ルールと、前記各セカンダリノードの重みと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、前記ターゲット共有エンコーダに対応するターゲットパラメータセットを決定する、
    ことを特徴とする請求項11または12に記載の共有エンコーダの生成装置。
  14. 前記ターゲット共有エンコーダに対応するターゲットパラメータセットを各セカンダリノードにそれぞれ送信し、各セカンダリノードに、前記ターゲット共有エンコーダに対応するターゲットパラメータセットに基づいて、前記ターゲット共有エンコーダを続けてトレーニングさせる第3送信モジュールをさらに含む、
    ことを特徴とする請求項11~13のいずれかに記載の共有エンコーダの生成装置。
  15. 第1セカンダリノードから再返信されたターゲット共有エンコーダパラメータセットを取得するための第5取得モジュールと、
    取得された前記第1セカンダリノードから返信されたターゲット共有エンコーダパラメータセットの回数に基づいて、前記第1セカンダリノードの現在の重み値を決定するための第3決定モジュールと、
    前記第1事前設定ルールに従って、前記第1セカンダリノードの現在の重み値と、現在再返信されたターゲット共有エンコーダパラメータセットとに基づいて、前記ターゲット共有エンコーダに対応するターゲットパラメータセットを更新するための更新モジュールと、をさらに含む、
    ことを特徴とする請求項14に記載の共有エンコーダの生成装置。
  16. 第2事前設定ルールに従って、前記トレーニング対象のターゲット共有エンコーダを生成するための生成モジュールをさらに含む、
    ことを特徴とする請求項11~15のいずれかに記載の共有エンコーダの生成装置。
  17. 第2セカンダリノードが、プライマリノードから送信された、トレーニング対象のターゲット共有エンコーダのタイプを含む共有エンコーダトレーニング命令を、取得するように使用される第1取得モジュールと、
    前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを含むことを決定した後に、確認メッセージを前記プライマリノードに返信するための第1返信モジュールと、
    前記プライマリノードから送信されたターゲット共有エンコーダの初期化パラメータセットを取得するための第2取得モジュールと、
    前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを用いて、モデルをトレーニングし、前記ターゲット共有エンコーダの更新パラメータセットを決定するための第1決定モジュールと、
    前記ターゲット共有エンコーダの更新パラメータセットを前記プライマリノードに返信するための第2返信モジュールと、を含む、
    ことを特徴とする共有エンコーダの生成装置。
  18. 前記プライマリノードから返信されたターゲット共有エンコーダのパラメータ更新ルールを取得するための第3取得モジュールをさらに含み、
    前記第2返信モジュールは、具体的に、以下のように使用され、
    現在、前記更新ルールを満足したことを決定すると、前記ターゲット共有エンコーダの更新パラメータセットを前記プライマリノードに返信する、
    ことを特徴とする請求項17に記載の装置。
  19. 前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルの数を、前記プライマリノードに送信するための送信モジュールをさらに含む、
    ことを特徴とする請求項17または18に記載の装置。
  20. 前記ターゲット共有エンコーダに対応するプライベートエンコーダ及びプライベートデコータを決定するための第2決定モジュールをさらに含む、
    ことを特徴とする請求項17~19のいずれかに記載の装置。
  21. 少なくとも一つのプロセッサと、
    前記少なくとも一つのプロセッサと通信可能に接続されたメモリと、を備え、
    前記メモリには、前記少なくとも一つのプロセッサによって実行可能な命令が記憶され、前記命令が前記少なくとも一つのプロセッサによって実行されると、前記少なくとも一つのプロセッサが、請求項1~6または7~10のいずれかに記載の方法を実行する、
    ことを特徴とする電子機器。
  22. コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令が実行される場合、請求項1~6または7~10のいずれかに記載の共有エンコーダ生成方法が実行される、
    ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。
JP2021516453A 2019-11-22 2020-04-07 共有エンコーダ生成方法、装置及び電子機器 Active JP7159460B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201911155509.2A CN110909875B (zh) 2019-11-22 2019-11-22 共享编码器生成方法、装置及电子设备
CN201911155509.2 2019-11-22
PCT/CN2020/083551 WO2021098121A1 (zh) 2019-11-22 2020-04-07 共享编码器生成方法、装置及电子设备

Publications (2)

Publication Number Publication Date
JP2022512053A true JP2022512053A (ja) 2022-02-02
JP7159460B2 JP7159460B2 (ja) 2022-10-24

Family

ID=69818726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021516453A Active JP7159460B2 (ja) 2019-11-22 2020-04-07 共有エンコーダ生成方法、装置及び電子機器

Country Status (6)

Country Link
US (1) US20210209417A1 (ja)
EP (1) EP3855368A4 (ja)
JP (1) JP7159460B2 (ja)
KR (1) KR102532368B1 (ja)
CN (2) CN115630695A (ja)
WO (1) WO2021098121A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115630695A (zh) * 2019-11-22 2023-01-20 北京百度网讯科技有限公司 共享编码器生成方法、装置及电子设备
JP6967099B2 (ja) * 2020-03-04 2021-11-17 株式会社日立製作所 学習モデル作成システム及び学習モデル作成方法
CN111477336A (zh) * 2020-04-07 2020-07-31 中南大学 传染病诊断数据的融合方法、系统及存储介质
CN113377797B (zh) * 2021-07-02 2023-03-28 支付宝(杭州)信息技术有限公司 联合更新模型的方法、装置及系统
CN114612015B (zh) * 2022-05-09 2022-08-02 杰创智能科技股份有限公司 共享设备的控制方法、装置、电子设备及存储介质
WO2024031420A1 (en) * 2022-08-10 2024-02-15 Qualcomm Incorporated Remote offline sequential network node encoder training

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110442457A (zh) * 2019-08-12 2019-11-12 北京大学深圳研究生院 基于联邦学习的模型训练方法、装置及服务器

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8010469B2 (en) * 2000-09-25 2011-08-30 Crossbeam Systems, Inc. Systems and methods for processing data flows
US8849725B2 (en) * 2009-08-10 2014-09-30 Yahoo! Inc. Automatic classification of segmented portions of web pages
CN109447274B (zh) * 2017-08-30 2021-02-09 第四范式(北京)技术有限公司 用于执行机器学习的分布式系统及其方法
CN109472345A (zh) * 2018-09-28 2019-03-15 深圳百诺名医汇网络技术有限公司 一种权重更新方法、装置、计算机设备和存储介质
CN109670594A (zh) * 2018-12-28 2019-04-23 北京旷视科技有限公司 数据训练方法、装置及电子设备
CN115630695A (zh) * 2019-11-22 2023-01-20 北京百度网讯科技有限公司 共享编码器生成方法、装置及电子设备

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110442457A (zh) * 2019-08-12 2019-11-12 北京大学深圳研究生院 基于联邦学习的模型训练方法、装置及服务器

Also Published As

Publication number Publication date
EP3855368A4 (en) 2022-07-13
KR20210065069A (ko) 2021-06-03
WO2021098121A1 (zh) 2021-05-27
CN110909875A (zh) 2020-03-24
US20210209417A1 (en) 2021-07-08
KR102532368B1 (ko) 2023-05-15
JP7159460B2 (ja) 2022-10-24
EP3855368A1 (en) 2021-07-28
CN110909875B (zh) 2022-12-23
CN115630695A (zh) 2023-01-20

Similar Documents

Publication Publication Date Title
JP2022512053A (ja) 共有エンコーダ生成方法、装置及び電子機器
JP7058304B2 (ja) 異種グラフにおけるノード表現の生成方法、装置及び電子機器
JP2021190086A (ja) マルチメディアリソースの推薦方法、マルチメディアリソースの推薦装置、電子機器、非一時的なコンピュータ読み取り可能な記憶媒体及びコンピュータプログラム
WO2021114590A1 (zh) 会话推荐方法、装置以及电子设备
JP7091430B2 (ja) インタラクション情報推薦方法及び装置
US11368855B2 (en) Network convergence method and device, electronic apparatus, and storage medium
JP7200277B2 (ja) ワードスロットを識別するための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
KR20210151728A (ko) 검색어의 추천 방법, 타겟 모델의 트레이닝 방법, 장치, 기기, 저장 매체 및 컴퓨터 프로그램
JP7285874B2 (ja) 巡航制御方法、装置、電子デバイス、車両、コンピュータ可読記憶媒体、およびコンピュータプログラム
JP2022505015A (ja) 知識グラフのベクトル表現生成方法、装置及び電子機器
CN111177339B (zh) 对话生成方法、装置、电子设备及存储介质
EP4283465A1 (en) Data processing method and apparatus, and storage medium
KR20210127613A (ko) 대화 생성 방법, 장치, 전자 기기 및 기록 매체
KR20210120919A (ko) 연산자 합병 방법, 장치, 전자 장비, 컴퓨터 판독가능 저장 매체 및 컴퓨터 프로그램
CN110909136B (zh) 满意度预估模型的训练方法、装置、电子设备及存储介质
JP2022028889A (ja) 対話生成方法、装置、電子機器及び記憶媒体
US20210098012A1 (en) Voice Skill Recommendation Method, Apparatus, Device and Storage Medium
JP2021168125A (ja) スマート応答方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
CN112819497B (zh) 转化率预测方法、装置、设备和存储介质
CN111680599A (zh) 人脸识别模型处理方法、装置、设备和存储介质
KR102583112B1 (ko) 이미지를 처리하는 방법, 장치, 전자 기기, 저장 매체 및 프로그램
CN111432011B (zh) 区块链的网络通信方法和设备
CN111951788A (zh) 一种语言模型的优化方法、装置、电子设备及存储介质
JP2021120899A (ja) ユーザ識別方法、装置、記憶媒体及び電子機器
JP7372377B2 (ja) 道路情報確定方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210322

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221012

R150 Certificate of patent or registration of utility model

Ref document number: 7159460

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150