JP2022512053A - 共有エンコーダ生成方法、装置及び電子機器 - Google Patents
共有エンコーダ生成方法、装置及び電子機器 Download PDFInfo
- Publication number
- JP2022512053A JP2022512053A JP2021516453A JP2021516453A JP2022512053A JP 2022512053 A JP2022512053 A JP 2022512053A JP 2021516453 A JP2021516453 A JP 2021516453A JP 2021516453 A JP2021516453 A JP 2021516453A JP 2022512053 A JP2022512053 A JP 2022512053A
- Authority
- JP
- Japan
- Prior art keywords
- shared encoder
- secondary node
- target shared
- target
- parameter set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5072—Grid computing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/54—Interprogram communication
- G06F9/546—Message passing systems or structures, e.g. queues
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Mobile Radio Communication Systems (AREA)
- Devices For Executing Special Programs (AREA)
- Transmission And Conversion Of Sensor Element Output (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Feedback Control In General (AREA)
Abstract
Description
本願は、北京百度網訊科技有限公司が2019年11月22日に出願された出願番号2019111155509.2、発明名称「共有エンコーダ生成方法、装置及び電子機器」である中国特許出願の優先権を主張する。
各セカンダリノードがターゲット共有エンコーダのタイプに基づいてトレーニングサンプルを取得するように、プライマリノードによって、トレーニング対象のターゲット共有エンコーダのタイプを含む共有エンコーダトレーニング命令を各セカンダリノードに送信するステップと、
各セカンダリノードから返信された確認メッセージを取得した後に、各セカンダリノードがそれぞれのトレーニングサンプルを用いて、前記ターゲット共有エンコーダの初期化パラメータセットをトレーニングするように、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信するステップと、
各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを取得するステップと、
第1事前設定ルールと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、前記ターゲット共有エンコーダに対応するターゲットパラメータセットを決定するステップと、を含む共有エンコーダ生成方法を提供する。
第2セカンダリノードは、プライマリノードから送信されたトレーニング対象のターゲット共有エンコーダのタイプを含む共有エンコーダトレーニング命令を取得するステップと、
前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを含むことを決定した後に、確認メッセージを前記プライマリノードに返信するステップと、
前記プライマリノードから送信されたターゲット共有エンコーダの初期化パラメータセットを取得するステップと、
前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを用いて、モデルをトレーニングし、前記ターゲット共有エンコーダの更新パラメータセットを決定するステップと、
前記ターゲット共有エンコーダの更新パラメータセットを前記プライマリノードに返信するステップと、を含む共有エンコーダ生成方法を提供する。
各セカンダリノードがターゲット共有エンコーダのタイプに基づいてトレーニングサンプルを取得するように、プライマリノードから、トレーニング対象のターゲット共有エンコーダのタイプを含む共有エンコーダトレーニング命令を、各セカンダリノードに送信するための第1送信モジュールと、
各セカンダリノードから返信された確認メッセージを取得した後に、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信し、各セカンダリノードに、それぞれのトレーニングサンプルを用いて、前記ターゲット共有エンコーダの初期化パラメータセットをトレーニングさせるための第2送信モジュールと、
各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを取得するための第1取得モジュールと、
第1事前設定ルールと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、前記ターゲット共有エンコーダに対応するターゲットパラメータセットを決定するための第1決定モジュールと、を含む共有エンコーダの生成装置を提供する。
第2セカンダリノードが、プライマリノードから送信された、トレーニング対象のターゲット共有エンコーダのタイプを含む共有エンコーダトレーニング命令を、取得するように使用される第1取得モジュールと、
前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを含むことを決定した後に、確認メッセージを前記プライマリノードに返信するための第1返信モジュールと、
前記プライマリノードから送信されたターゲット共有エンコーダの初期化パラメータセットを取得するための第2取得モジュールと、
前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを用いて、モデルをトレーニングし、前記ターゲット共有エンコーダの更新パラメータセットを決定するための第1決定モジュールと、
前記ターゲット共有エンコーダの更新パラメータセットを前記プライマリノードに返信するための第2返信モジュールと、を含む共有エンコーダの生成装置を提供する。
少なくとも一つのプロセッサと、
前記少なくとも一つのプロセッサと通信可能に接続されたメモリと、を備える電子機器であって、
前記メモリには、前記少なくとも一つのプロセッサによって実行可能な命令が記憶され、前記命令が前記少なくとも一つのプロセッサによって実行されると、前記少なくとも一つのプロセッサが、上記の実施例に記載の方法を実行する電子機器を提供する。
ステップ101において、プライマリノードによって、各セカンダリノードがターゲット共有エンコーダのタイプに基づいてトレーニングサンプルを取得するように、トレーニング対象のターゲット共有エンコーダのタイプを含む共有エンコーダトレーニング命令を各セカンダリノードに送信する。
または、
前記更新要求には、前記ターゲット共有エンコーダの識別子を含む。
前記プライマリノードは、少なくとも1つのセカンダリノードから送信されたターゲット共有エンコーダ取得要求を取得するための第2取得モジュールと、
または、
前記プライマリノードは、少なくとも1つのセカンダリノードから送信されたターゲット共有エンコーダの更新要求を取得するための第3取得モジュールと、をさらに含む。
前記更新要求には、前記ターゲット共有エンコーダの識別子を含む。
各セカンダリノードに含まれるトレーニングサンプルの数を取得するための第4取得モジュールと、
各セカンダリノードに含まれるトレーニングサンプルの数に基づいて、各セカンダリノードの重みを決定するための第2決定モジュールと、をさらに含む。
前記ターゲット共有エンコーダに対応するターゲットパラメータセットを各セカンダリノードにそれぞれ送信し、各セカンダリノードが前記ターゲット共有エンコーダに対応するターゲットパラメータセットに基づいて、前記ターゲット共有エンコーダを続けてトレーニングさせるための第3送信モジュールをさらに含む。
第1セカンダリノードから再返信されたターゲット共有エンコーダパラメータセットを取得するための第5取得モジュールと、
第2事前設定ルールに従って、前記トレーニング対象のターゲット共有エンコーダを生成するための生成モジュールをさらに含む。
第2セカンダリノードは、プライマリノードから送信されたトレーニング対象のターゲット共有エンコーダのタイプを含む前記共有エンコーダトレーニング命令を取得するための第1取得モジュール71と、
前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを含むことを決定した後に、確認メッセージを前記プライマリノードに返信するための第1返信モジュール72と、
前記プライマリノードから送信されたターゲット共有エンコーダの初期化パラメータセットを取得するための第2取得モジュール73と、
前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを用いて、モデルをトレーニングし、前記ターゲット共有エンコーダの更新パラメータセットを決定するための第1決定モジュール74と、
前記ターゲット共有エンコーダの更新パラメータセットを前記プライマリノードに返信するための第2返信モジュール75と、を含む。
前記プライマリノードから返信されたターゲット共有エンコーダのパラメータ更新ルールを取得するための第3取得モジュールをさらに含む。
前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルの数を前記プライマリノードに送信するための送信モジュールをさらに含む。
前記ターゲット共有エンコーダに対応するプライベートエンコーダ及びプライベートデコータを決定するための第2決定モジュールをさらに含む。
図8に示すように、本出願の実施例に係る電子機器のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、大型コンピュータ、及び他の適切なコンピュータなどの様々な形式のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルデジタル処理、携帯電話、スマートフォン、ウェアラブルデバイス、他の同様のコンピューティングデバイスなどの様々な形式のモバイルデバイスを表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本出願の実現を制限することを意図したものではない。
各セカンダリノードがトレーニング命令に含まれるターゲット共有エンコーダのタイプに基づいてトレーニングサンプルを取得するように、プライマリノードによって共有エンコーダトレーニング命令を各セカンダリノードに送信し、各セカンダリノードから返信された確認メッセージを取得した後に、各セカンダリノードがそれぞれのトレーニングサンプルを用いて、ターゲット共有エンコーダの初期化パラメータセットをトレーニングするように、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信し、その後、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを取得し、さらに第1事前設定ルールと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、ターゲット共有エンコーダに対応するターゲットパラメータセットを決定する。従って、プライマリノードによって各セカンダリノードを組織し、プライベートトレーニングサンプルを用いてターゲット共有エンコーダをトレーニングし、各セカンダリノードによりターゲット共有エンコーダに対するトレーニング結果に基づいて、ターゲット共有エンコーダのターゲットパラメータセットを決定する。これにより、多領域トレーニング言語材料の共有を実現するだけでなく、多領域トレーニング言語材料の入手難度とコストを低減させ、共有エンコーダの性能をさらに向上させた。
本出願の第7の態様の実施例は、コンピュータプログラムをさらに提供し、前記コンピュータプログラムにおける命令が実行された場合に、上記の実施例に記載の共有エンコーダ生成方法が実行される。
本出願の実施例によれば、コンピュータプログラムが提供される。当該コンピュータプログラムにおける命令が実行された場合に、本出願の実施例の共有エンコーダ生成方法が実行される。
Claims (22)
- 各セカンダリノードがターゲット共有エンコーダのタイプに基づいてトレーニングサンプルを取得するように、プライマリノードによって、トレーニング対象のターゲット共有エンコーダのタイプを含む共有エンコーダトレーニング命令を、各セカンダリノードに送信するステップと、
各セカンダリノードから返信された確認メッセージを取得した後に、各セカンダリノードがそれぞれのトレーニングサンプルを用いて、前記ターゲット共有エンコーダの初期化パラメータセットをトレーニングするように、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信するステップと、
各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを取得するステップと、
第1事前設定ルールと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、前記ターゲット共有エンコーダに対応するターゲットパラメータセットを決定するステップと、を含む、
ことを特徴とする共有エンコーダの生成方法。
- 上記のプライマリノードによって、共有エンコーダトレーニング命令を各セカンダリノードに送信するステップの前に、 前記プライマリノードは、少なくとも1つのセカンダリノードから送信されたターゲット共有エンコーダの取得要求を取得するステップと、
または、
前記プライマリノードは、少なくとも1つのセカンダリノードから送信されたターゲット共有エンコーダの更新要求を取得するステップと、をさらに含み、
前記更新要求には、前記ターゲット共有エンコーダの識別子が含まれる、
ことを特徴とする請求項1に記載の共有エンコーダの生成方法。
- 上記のトレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信した後、
各セカンダリノードに含まれるトレーニングサンプルの数を取得するステップと、
各セカンダリノードに含まれるトレーニングサンプルの数に基づいて、各セカンダリノードの重みを決定するステップと、をさらに含み、 上記の第1事前設定ルールと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、前記ターゲット共有エンコーダに対応するターゲットパラメータセットを決定するステップは、
前記第1事前設定ルールと、前記各セカンダリノードの重みと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、前記ターゲット共有エンコーダに対応するターゲットパラメータセットを決定するステップを含む、
ことを特徴とする請求項1または2に記載の共有エンコーダの生成方法。
- 上記の前記ターゲット共有エンコーダに対応するターゲットパラメータセットを決定した後、
各セカンダリノードが前記ターゲット共有エンコーダに対応するターゲットパラメータセットに基づいて、前記ターゲット共有エンコーダを続けてトレーニングするように、前記ターゲット共有エンコーダに対応するターゲットパラメータセットを、各セカンダリノードにそれぞれ送信するステップをさらに含む、
ことを特徴とする請求項1~3のいずれかに記載の共有エンコーダの生成方法。
- 上記の前記ターゲット共有エンコーダに対応するターゲットパラメータセットを各セカンダリノードにそれぞれ送信した後、
第1セカンダリノードから再返信されたターゲット共有エンコーダパラメータセットを取得するステップと、
取得された前記第1セカンダリノードから返信されたターゲット共有エンコーダパラメータセットの回数に基づいて、前記第1セカンダリノード現在の重み値を決定するステップと、
前記第1事前設定ルールに従って、前記第1セカンダリノードの現在の重み値と、現在再返信されたターゲット共有エンコーダパラメータセットとに基づいて、前記ターゲット共有エンコーダに対応するターゲットパラメータセットを更新するステップと、をさらに含む、
ことを特徴とする請求項4に記載の共有エンコーダの生成方法。
- 上記のトレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信する前に、
第2事前設定ルールに従って、前記トレーニング対象のターゲット共有エンコーダを生成するステップをさらに含む、
ことを特徴とする請求項1~5のいずれかに記載の共有エンコーダの生成方法。
- 第2セカンダリノードは、プライマリノードから送信された共有エンコーダトレーニング命令を取得し、前記トレーニング命令には、トレーニング対象のターゲット共有エンコーダのタイプが含まれる、ステップと、
前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを含むことを決定した後に、確認メッセージを前記プライマリノードに返信するステップと、
前記プライマリノードから送信されたターゲット共有エンコーダの初期化パラメータセットを取得するステップと、
前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを用いて、モデルをトレーニングし、前記ターゲット共有エンコーダの更新パラメータセットを決定するステップと、
前記ターゲット共有エンコーダの更新パラメータセットを前記プライマリノードに返信するステップと、を含む、
ことを特徴とする共有エンコーダの生成方法。
- 上記の確認メッセージを前記プライマリノードに返信した後、
前記プライマリノードから返信されたターゲット共有エンコーダのパラメータ更新ルールを取得するステップをさらに含み、
上記の前記ターゲット共有エンコーダの更新パラメータセットを前記プライマリノードに返信するステップは、
現在、前記更新ルールを満足したことを決定すると、前記ターゲット共有エンコーダの更新パラメータセットを前記プライマリノードに返信するステップを含む、
ことを特徴とする請求項7に記載の共有エンコーダの生成方法。
- 前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルの数を前記プライマリノードに送信するステップをさらに含む、
ことを特徴とする請求項7または8に記載の共有エンコーダの生成方法。
- 上記の前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを用いて、モデルをトレーニングした後、
前記ターゲット共有エンコーダに対応するプライベートエンコーダ及びプライベートデコータを決定するステップをさらに含む、
ことを特徴とする請求項7~9のいずれかに記載の共有エンコーダ生成方法。
- 各セカンダリノードがターゲット共有エンコーダのタイプに基づいてトレーニングサンプルを取得するように、プライマリノードから、トレーニング対象のターゲット共有エンコーダのタイプを含む共有エンコーダトレーニング命令を、各セカンダリノードに送信するための第1送信モジュールと、
各セカンダリノードから返信された確認メッセージを取得した後に、トレーニング対象のターゲット共有エンコーダの初期化パラメータセットを各セカンダリノードに送信し、各セカンダリノードに、それぞれのトレーニングサンプルを用いて、前記ターゲット共有エンコーダの初期化パラメータセットをトレーニングさせるための第2送信モジュールと、
各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットを取得するための第1取得モジュールと、
第1事前設定ルールと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、前記ターゲット共有エンコーダに対応するターゲットパラメータセットを決定するための第1決定モジュールと、を含む、
ことを特徴とする共有エンコーダの生成装置。
- 前記プライマリノードが、少なくとも1つのセカンダリノードから送信されたターゲット共有エンコーダの取得要求を取得するように使用される第2取得モジュールと、
または、
前記プライマリノードが、少なくとも1つのセカンダリノードから送信されたターゲット共有エンコーダの更新要求を取得するように使用される第3取得モジュールと、をさらに含み、
前記更新要求には、前記ターゲット共有エンコーダの識別子が含まれている、
ことを特徴とする請求項11に記載の共有エンコーダの生成装置。
- 各セカンダリノードに含まれるトレーニングサンプルの数を取得するための第4取得モジュールと、
各セカンダリノードに含まれるトレーニングサンプルの数に基づいて、各セカンダリノードの重みを決定するための第2決定モジュールと、をさらに含み、
前記第1決定モジュールは、具体的に、以下のように使用され、
前記第1事前設定ルールと、前記各セカンダリノードの重みと、各セカンダリノードから返信されたターゲット共有エンコーダの更新パラメータセットとに基づいて、前記ターゲット共有エンコーダに対応するターゲットパラメータセットを決定する、
ことを特徴とする請求項11または12に記載の共有エンコーダの生成装置。
- 前記ターゲット共有エンコーダに対応するターゲットパラメータセットを各セカンダリノードにそれぞれ送信し、各セカンダリノードに、前記ターゲット共有エンコーダに対応するターゲットパラメータセットに基づいて、前記ターゲット共有エンコーダを続けてトレーニングさせる第3送信モジュールをさらに含む、
ことを特徴とする請求項11~13のいずれかに記載の共有エンコーダの生成装置。
- 第1セカンダリノードから再返信されたターゲット共有エンコーダパラメータセットを取得するための第5取得モジュールと、
取得された前記第1セカンダリノードから返信されたターゲット共有エンコーダパラメータセットの回数に基づいて、前記第1セカンダリノードの現在の重み値を決定するための第3決定モジュールと、
前記第1事前設定ルールに従って、前記第1セカンダリノードの現在の重み値と、現在再返信されたターゲット共有エンコーダパラメータセットとに基づいて、前記ターゲット共有エンコーダに対応するターゲットパラメータセットを更新するための更新モジュールと、をさらに含む、
ことを特徴とする請求項14に記載の共有エンコーダの生成装置。
- 第2事前設定ルールに従って、前記トレーニング対象のターゲット共有エンコーダを生成するための生成モジュールをさらに含む、
ことを特徴とする請求項11~15のいずれかに記載の共有エンコーダの生成装置。
- 第2セカンダリノードが、プライマリノードから送信された、トレーニング対象のターゲット共有エンコーダのタイプを含む共有エンコーダトレーニング命令を、取得するように使用される第1取得モジュールと、
前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを含むことを決定した後に、確認メッセージを前記プライマリノードに返信するための第1返信モジュールと、
前記プライマリノードから送信されたターゲット共有エンコーダの初期化パラメータセットを取得するための第2取得モジュールと、
前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルを用いて、モデルをトレーニングし、前記ターゲット共有エンコーダの更新パラメータセットを決定するための第1決定モジュールと、
前記ターゲット共有エンコーダの更新パラメータセットを前記プライマリノードに返信するための第2返信モジュールと、を含む、
ことを特徴とする共有エンコーダの生成装置。
- 前記プライマリノードから返信されたターゲット共有エンコーダのパラメータ更新ルールを取得するための第3取得モジュールをさらに含み、
前記第2返信モジュールは、具体的に、以下のように使用され、
現在、前記更新ルールを満足したことを決定すると、前記ターゲット共有エンコーダの更新パラメータセットを前記プライマリノードに返信する、
ことを特徴とする請求項17に記載の装置。
- 前記ターゲット共有エンコーダのタイプに一致するトレーニングサンプルの数を、前記プライマリノードに送信するための送信モジュールをさらに含む、
ことを特徴とする請求項17または18に記載の装置。
- 前記ターゲット共有エンコーダに対応するプライベートエンコーダ及びプライベートデコータを決定するための第2決定モジュールをさらに含む、
ことを特徴とする請求項17~19のいずれかに記載の装置。
- 少なくとも一つのプロセッサと、
前記少なくとも一つのプロセッサと通信可能に接続されたメモリと、を備え、
前記メモリには、前記少なくとも一つのプロセッサによって実行可能な命令が記憶され、前記命令が前記少なくとも一つのプロセッサによって実行されると、前記少なくとも一つのプロセッサが、請求項1~6または7~10のいずれかに記載の方法を実行する、
ことを特徴とする電子機器。
- コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令が実行される場合、請求項1~6または7~10のいずれかに記載の共有エンコーダ生成方法が実行される、
ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911155509.2A CN110909875B (zh) | 2019-11-22 | 2019-11-22 | 共享编码器生成方法、装置及电子设备 |
CN201911155509.2 | 2019-11-22 | ||
PCT/CN2020/083551 WO2021098121A1 (zh) | 2019-11-22 | 2020-04-07 | 共享编码器生成方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022512053A true JP2022512053A (ja) | 2022-02-02 |
JP7159460B2 JP7159460B2 (ja) | 2022-10-24 |
Family
ID=69818726
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021516453A Active JP7159460B2 (ja) | 2019-11-22 | 2020-04-07 | 共有エンコーダ生成方法、装置及び電子機器 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210209417A1 (ja) |
EP (1) | EP3855368A4 (ja) |
JP (1) | JP7159460B2 (ja) |
KR (1) | KR102532368B1 (ja) |
CN (2) | CN115630695A (ja) |
WO (1) | WO2021098121A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115630695A (zh) * | 2019-11-22 | 2023-01-20 | 北京百度网讯科技有限公司 | 共享编码器生成方法、装置及电子设备 |
JP6967099B2 (ja) * | 2020-03-04 | 2021-11-17 | 株式会社日立製作所 | 学習モデル作成システム及び学習モデル作成方法 |
CN111477336A (zh) * | 2020-04-07 | 2020-07-31 | 中南大学 | 传染病诊断数据的融合方法、系统及存储介质 |
CN113377797B (zh) * | 2021-07-02 | 2023-03-28 | 支付宝(杭州)信息技术有限公司 | 联合更新模型的方法、装置及系统 |
CN114612015B (zh) * | 2022-05-09 | 2022-08-02 | 杰创智能科技股份有限公司 | 共享设备的控制方法、装置、电子设备及存储介质 |
WO2024031420A1 (en) * | 2022-08-10 | 2024-02-15 | Qualcomm Incorporated | Remote offline sequential network node encoder training |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110442457A (zh) * | 2019-08-12 | 2019-11-12 | 北京大学深圳研究生院 | 基于联邦学习的模型训练方法、装置及服务器 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8010469B2 (en) * | 2000-09-25 | 2011-08-30 | Crossbeam Systems, Inc. | Systems and methods for processing data flows |
US8849725B2 (en) * | 2009-08-10 | 2014-09-30 | Yahoo! Inc. | Automatic classification of segmented portions of web pages |
CN109447274B (zh) * | 2017-08-30 | 2021-02-09 | 第四范式(北京)技术有限公司 | 用于执行机器学习的分布式系统及其方法 |
CN109472345A (zh) * | 2018-09-28 | 2019-03-15 | 深圳百诺名医汇网络技术有限公司 | 一种权重更新方法、装置、计算机设备和存储介质 |
CN109670594A (zh) * | 2018-12-28 | 2019-04-23 | 北京旷视科技有限公司 | 数据训练方法、装置及电子设备 |
CN115630695A (zh) * | 2019-11-22 | 2023-01-20 | 北京百度网讯科技有限公司 | 共享编码器生成方法、装置及电子设备 |
-
2019
- 2019-11-22 CN CN202211282480.6A patent/CN115630695A/zh active Pending
- 2019-11-22 CN CN201911155509.2A patent/CN110909875B/zh active Active
-
2020
- 2020-04-07 JP JP2021516453A patent/JP7159460B2/ja active Active
- 2020-04-07 KR KR1020207035376A patent/KR102532368B1/ko active IP Right Grant
- 2020-04-07 WO PCT/CN2020/083551 patent/WO2021098121A1/zh unknown
- 2020-04-07 EP EP20864267.8A patent/EP3855368A4/en active Pending
-
2021
- 2021-03-23 US US17/209,576 patent/US20210209417A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110442457A (zh) * | 2019-08-12 | 2019-11-12 | 北京大学深圳研究生院 | 基于联邦学习的模型训练方法、装置及服务器 |
Also Published As
Publication number | Publication date |
---|---|
EP3855368A4 (en) | 2022-07-13 |
KR20210065069A (ko) | 2021-06-03 |
WO2021098121A1 (zh) | 2021-05-27 |
CN110909875A (zh) | 2020-03-24 |
US20210209417A1 (en) | 2021-07-08 |
KR102532368B1 (ko) | 2023-05-15 |
JP7159460B2 (ja) | 2022-10-24 |
EP3855368A1 (en) | 2021-07-28 |
CN110909875B (zh) | 2022-12-23 |
CN115630695A (zh) | 2023-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022512053A (ja) | 共有エンコーダ生成方法、装置及び電子機器 | |
JP7058304B2 (ja) | 異種グラフにおけるノード表現の生成方法、装置及び電子機器 | |
JP2021190086A (ja) | マルチメディアリソースの推薦方法、マルチメディアリソースの推薦装置、電子機器、非一時的なコンピュータ読み取り可能な記憶媒体及びコンピュータプログラム | |
WO2021114590A1 (zh) | 会话推荐方法、装置以及电子设备 | |
JP7091430B2 (ja) | インタラクション情報推薦方法及び装置 | |
US11368855B2 (en) | Network convergence method and device, electronic apparatus, and storage medium | |
JP7200277B2 (ja) | ワードスロットを識別するための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム | |
KR20210151728A (ko) | 검색어의 추천 방법, 타겟 모델의 트레이닝 방법, 장치, 기기, 저장 매체 및 컴퓨터 프로그램 | |
JP7285874B2 (ja) | 巡航制御方法、装置、電子デバイス、車両、コンピュータ可読記憶媒体、およびコンピュータプログラム | |
JP2022505015A (ja) | 知識グラフのベクトル表現生成方法、装置及び電子機器 | |
CN111177339B (zh) | 对话生成方法、装置、电子设备及存储介质 | |
EP4283465A1 (en) | Data processing method and apparatus, and storage medium | |
KR20210127613A (ko) | 대화 생성 방법, 장치, 전자 기기 및 기록 매체 | |
KR20210120919A (ko) | 연산자 합병 방법, 장치, 전자 장비, 컴퓨터 판독가능 저장 매체 및 컴퓨터 프로그램 | |
CN110909136B (zh) | 满意度预估模型的训练方法、装置、电子设备及存储介质 | |
JP2022028889A (ja) | 対話生成方法、装置、電子機器及び記憶媒体 | |
US20210098012A1 (en) | Voice Skill Recommendation Method, Apparatus, Device and Storage Medium | |
JP2021168125A (ja) | スマート応答方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム | |
CN112819497B (zh) | 转化率预测方法、装置、设备和存储介质 | |
CN111680599A (zh) | 人脸识别模型处理方法、装置、设备和存储介质 | |
KR102583112B1 (ko) | 이미지를 처리하는 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
CN111432011B (zh) | 区块链的网络通信方法和设备 | |
CN111951788A (zh) | 一种语言模型的优化方法、装置、电子设备及存储介质 | |
JP2021120899A (ja) | ユーザ識別方法、装置、記憶媒体及び電子機器 | |
JP7372377B2 (ja) | 道路情報確定方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210322 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220713 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220927 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221012 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7159460 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |