JP7297131B2 - 分散型機械学習モデルのトレーニング方法、装置、機器および媒体 - Google Patents
分散型機械学習モデルのトレーニング方法、装置、機器および媒体 Download PDFInfo
- Publication number
- JP7297131B2 JP7297131B2 JP2022145049A JP2022145049A JP7297131B2 JP 7297131 B2 JP7297131 B2 JP 7297131B2 JP 2022145049 A JP2022145049 A JP 2022145049A JP 2022145049 A JP2022145049 A JP 2022145049A JP 7297131 B2 JP7297131 B2 JP 7297131B2
- Authority
- JP
- Japan
- Prior art keywords
- parameter
- participant
- homomorphic
- model
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/008—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols involving homomorphic encryption
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/08—Key distribution or management, e.g. generation, sharing or updating, of cryptographic keys or passwords
- H04L9/088—Usage controlling of secret information, e.g. techniques for restricting cryptographic keys to pre-authorized uses, different access levels, validity of crypto-period, different key- or password length, or different strong and weak cryptographic algorithms
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L2209/00—Additional information or applications relating to cryptographic mechanisms or cryptographic arrangements for secret or secure communication H04L9/00
- H04L2209/46—Secure multiparty computation, e.g. millionaire problem
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Software Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Bioethics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
第1の準同型暗号中間パラメータおよび第2の準同型暗号中間パラメータを取得することと、
第1の干渉パラメータを生成して第2の参加者の第2の準同型公開鍵を用いて暗号化し、第1の暗号化干渉パラメータを形成することと、
前記第1の準同型暗号中間パラメータ、第2の準同型暗号中間パラメータ、第1の暗号化干渉パラメータ、および第1のサブモデルの準同型計算関数に基づいて計算し、第1の暗号化キーパラメータを生成することと、
前記第2の参加者による第2の準同型秘密鍵を用いる前記第1の暗号化キーパラメータの復号化のために、前記第1の暗号化キーパラメータを第2の参加者に伝送することと、
前記第2の参加者により復号化された第1のキーパラメータを取得することと、
前記第1のキーパラメータおよび前記第1の干渉パラメータに基づき、前記第1のサブモデルのトレーニングが完了するまで前記第1のサブモデルを反復更新することとを含む、
分散型機械学習モデルのトレーニング方法を提供する。
第1の準同型暗号中間パラメータおよび第2の準同型暗号中間パラメータを取得するための中間パラメータ取得モジュールと、
第1の干渉パラメータを生成して第2の参加者の第2の準同型公開鍵を用いて暗号化し、第1の暗号化干渉パラメータを形成するための干渉パラメータ形成モジュールと、
前記第1の準同型暗号中間パラメータ、第2の準同型暗号中間パラメータ、第1の暗号化干渉パラメータ、および第1のサブモデルの準同型計算関数に基づいて計算し、第1の暗号化キーパラメータを生成するためのパラメータ生成モジュールと、
前記第2の参加者による第2の準同型秘密鍵を用いる前記第1の暗号化キーパラメータの復号化のために、前記第1の暗号化キーパラメータを第2の参加者に伝送するためのパラメータ復号モジュールと、
前記第2の参加者により復号化された第1のキーパラメータを取得するための第1のキーパラメータ取得モジュールと、
前記第1のキーパラメータおよび前記第1の干渉パラメータに基づき、前記第1のサブモデルのトレーニングが完了するまで前記第1のサブモデルを反復更新するためのサブモデルトレーニングモジュールとを備える、
分散型機械学習モデルのトレーニング装置を更に提供する。
少なくとも1つのプロセッサと、
少なくとも1つのプロセッサに通信接続されたメモリとを備える電子機器であって、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、
前記命令は、前記少なくとも1つのプロセッサが本開示の実施例に係るいずれかの分散型機械学習モデルのトレーニング方法を実行可能であるように、前記少なくとも1つのプロセッサにより実行される、
電子機器を更に提供する。
コンピュータ命令が記憶された非一時的なコンピュータ可読記憶媒体であって、
前記コンピュータ命令は、本開示の実施例に係るいずれかの分散型機械学習モデルのトレーニング方法をコンピュータに実行させることに用いられる、
非一時的なコンピュータ可読記憶媒体を更に提供する。
プロセッサにより実行されると、本開示の実施例に係るいずれかの分散型機械学習モデルのトレーニング方法を実現する、
コンピュータプログラムを更に提供する。
前記第1の準同型暗号中間パラメータ、第2の準同型暗号中間パラメータ、および第1のサブモデルの準同型計算関数に基づいて計算し、前記第1の暗号化干渉パラメータを線形計算に基づいて計算結果に重ねて、第1の暗号化キーパラメータを生成するためのパラメータ生成ユニットを備える。
前記第1の干渉パラメータに基づいて前記第1のキーパラメータを逆方向線形計算し、逆方向線形計算したキーパラメータに基づき、前記第1のサブモデルのトレーニングが完了するまで前記第1のサブモデルを反復更新するためのサブモデルのトレーニングユニットを備える。
前記第1の準同型暗号中間パラメータ、第2の準同型暗号中間パラメータ、第1の暗号化勾配干渉パラメータ、および第1のサブモデルの準同型勾配計算関数に基づいて計算し、第1の暗号化勾配パラメータを生成するための勾配パラメータ生成モジュールと、
前記第1の準同型暗号中間パラメータ、第2の準同型暗号中間パラメータ、第1の暗号化損失干渉パラメータ、および第1のサブモデルの準同型損失計算関数に基づいて計算し、第1の暗号化損失パラメータを生成するための損失パラメータ生成モジュールとを備える。
第1の準同型公開鍵および第1の準同型秘密鍵を含む第1の準同型秘密鍵ペアを生成するための第1の準同型秘密鍵ペア生成モジュールと、
前記第1の準同型公開鍵を第2の参加者に送信するための第1の準同型公開鍵送信モジュールと、
前記第2の参加者から送信された前記第2の参加者により生成された第2の準同型秘密鍵ペア内の第2の準同型公開鍵を受信するための第2の準同型公開鍵受信モジュールとを更に備える。
第1の準同型暗号中間パラメータおよび第2の準同型暗号中間パラメータを取得する前に、前記第1の参加者と前記第2の参加者のサンプルデータ積集合識別子を確定するための積集合識別子確定モジュールを更に備え、少なくとも1人の参加者のサンプルデータにラベルが対応して付されている。
第1の準同型暗号中間パラメータおよび第2の準同型暗号中間パラメータを取得する前に、前記第1の参加者の第1の元のサンプルデータを標準化処理し、サンプル特徴次元の第1の標準化値および第1のサンプルデータを取得し、標準化処理した第1のサンプルデータをモデルのトレーニングに用いるためのサンプルデータ処理モジュールと、
前記第1の標準化値を第3の暗号化秘密鍵で暗号化して第1の暗号化標準化値を形成し、前記第1の暗号化標準化値を信頼された第3者に提供するための第1の標準化値暗号化モジュールとを更に備える。
前記第1のサブモデルのトレーニングが完了した後、前記第1のサブモデルを第3の暗号化秘密鍵で暗号化して第1の暗号化サブモデルを形成し、信頼された第3者が各参加者により提供された暗号化サブモデルに基づいて組み合わせ、各参加者により提供された暗号化標準化値に基づいて非標準化処理を行って更に切り分けるように、前記第1の暗号化サブモデルを前記信頼された第3者に提供するためのモデル切り分けモジュールと、
前記信頼された第3者から返信された切り分けられた第1の非標準化サブモデルを受信するためのサブモデル受信モジュールとを更に備える。
第1のサンプルデータに基づいて第1のサブモデルをトレーニングした後、第1のトレーニング中間パラメータを生成するための第1のトレーニング中間パラメータ生成ユニットと、
設定精度に基づいて前記第1のトレーニング中間パラメータ内の浮動小数点数を第1のBIGINTに変換するための第1のBIGINT確定ユニットと、
前記第1のBIGINT内の整数値をコードし、第1の正の整数に変換するための第1の正の整数確定ユニットと、
第2の参加者の第2の準同型公開鍵を用いて第1の正の整数を暗号化し、前記第1の準同型暗号中間パラメータを取得するための第1の準同型暗号中間パラメータ確定ユニットとを備える。
前記第1の干渉パラメータに基づいて前記第1のキーパラメータに対して干渉除去動作を行うための干渉除去動作ユニットと、
干渉が除去された第1のキーパラメータをデコードし、前記設定精度に従ってスケーリングし、浮動小数点数に変換するための浮動小数点数変換ユニットと、
変換された浮動小数点数形式の第1のキーパラメータを用いて前記第1のサブモデルを反復更新するための反復更新ユニットとを備える。
Claims (18)
- モデルのトレーニングに参加した複数の参加者のうちのいずれかの参加者により実行され、当該参加者は第1の参加者と表記され、他の参加者は第2の参加者と表記され、
前記第1の参加者の第1の元のサンプルデータを標準化処理し、サンプル特徴次元の第1の標準化値および第1のサンプルデータを取得し、標準化処理した第1のサンプルデータをモデルのトレーニングに用いることと、
前記第1の標準化値を第3の暗号化秘密鍵で暗号化して第1の暗号化標準化値を形成し、前記第1の暗号化標準化値を信頼された第3者に提供することと、
第1の準同型暗号中間パラメータおよび第2の準同型暗号中間パラメータを取得し、前記第1の準同型暗号中間パラメータは、第2の参加者の第2の準同型公開鍵を用いて第1のトレーニング中間パラメータを暗号化したデータであり、前記第1のトレーニング中間パラメータは、前記第1の参加者が第1のサンプルデータに基づいて第1のサブモデルをトレーニングした後に生成した中間パラメータであり、前記第2の準同型暗号中間パラメータは、前記第2の参加者の第2の準同型公開鍵を用いて第2のトレーニング中間パラメータを暗号化したデータであり、前記第2のトレーニング中間パラメータは、前記第2の参加者が第2のサンプルデータに基づいて第2のサブモデルをトレーニングした後に生成した中間パラメータであり、機械学習モデルは、少なくとも2人の参加者のそれぞれのローカルなサブモデルで構成されることと、
第1の干渉パラメータを生成して前記第2の参加者の第2の準同型公開鍵を用いて暗号化し、第1の暗号化干渉パラメータを形成することと、
前記第1の準同型暗号中間パラメータ、第2の準同型暗号中間パラメータ、第1の暗号化干渉パラメータ、および第1のサブモデルの準同型計算関数に基づいて計算し、第1の暗号化キーパラメータを生成することと、
前記第2の参加者による第2の準同型秘密鍵を用いる前記第1の暗号化キーパラメータの復号化のために、前記第1の暗号化キーパラメータを前記第2の参加者に伝送することと、
前記第2の参加者により復号化された第1のキーパラメータを取得することと、
前記第1のキーパラメータおよび前記第1の干渉パラメータに基づき、前記第1のサブモデルのトレーニングが完了するまで前記第1のサブモデルを反復更新することと、
前記第1のサブモデルを第3の暗号化秘密鍵で暗号化して第1の暗号化サブモデルを形成し、信頼された第3者が各参加者により提供された暗号化サブモデルに基づいて組み合わせ、各参加者により提供された暗号化標準化値に基づいて非標準化処理を行って更に切り分けるように、前記第1の暗号化サブモデルを前記信頼された第3者に提供することと、
前記信頼された第3者から返信された切り分けられた第1の非標準化サブモデルを受信することとを含む、
ことを特徴とする分散型機械学習モデルのトレーニング方法。 - 前記第1の準同型暗号中間パラメータ、第2の準同型暗号中間パラメータ、第1の暗号化干渉パラメータ、および第1のサブモデルの準同型計算関数に基づいて計算し、第1の暗号化キーパラメータを生成することは、
前記第1の準同型暗号中間パラメータ、第2の準同型暗号中間パラメータ、および第1のサブモデルの準同型計算関数に基づいて計算し、前記第1の暗号化干渉パラメータを線形計算に基づいて計算結果に重ねて、第1の暗号化キーパラメータを生成することを含み、
これに対応して、前記第1のキーパラメータおよび前記第1の干渉パラメータに基づき、前記第1のサブモデルのトレーニングが完了するまで前記第1のサブモデルを反復更新することは、
前記第1の干渉パラメータに基づいて前記第1のキーパラメータを逆方向線形計算し、逆方向線形計算したキーパラメータに基づき、前記第1のサブモデルのトレーニングが完了するまで前記第1のサブモデルを反復更新することを含む、
ことを特徴とする請求項1に記載の方法。 - 前記干渉パラメータは乱数である、
ことを特徴とする請求項1に記載の方法。 - 前記第1の干渉パラメータは、第1の勾配干渉パラメータおよび第1の損失干渉パラメータを含み、
これに対応して、前記第1の準同型暗号中間パラメータ、第2の準同型暗号中間パラメータ、第1の暗号化干渉パラメータ、および第1のサブモデルの準同型計算関数に基づいて計算し、第1の暗号化キーパラメータを生成することは、
前記第1の準同型暗号中間パラメータ、第2の準同型暗号中間パラメータ、第1の暗号化勾配干渉パラメータ、および第1のサブモデルの準同型勾配計算関数に基づいて計算し、第1の暗号化勾配パラメータを生成することと、
前記第1の準同型暗号中間パラメータ、第2の準同型暗号中間パラメータ、第1の暗号化損失干渉パラメータ、および第1のサブモデルの準同型損失計算関数に基づいて計算し、第1の暗号化損失パラメータを生成することとを含む、
ことを特徴とする請求項1に記載の方法。 - 第1の準同型公開鍵および第1の準同型秘密鍵を含む第1の準同型秘密鍵ペアを生成することと、
前記第1の準同型公開鍵を前記第2の参加者に送信することと、
前記第2の参加者から送信された前記第2の参加者により生成された第2の準同型秘密鍵ペア内の第2の準同型公開鍵を受信することとを更に含む、
ことを特徴とする請求項1に記載の方法。 - 前記第1の準同型暗号中間パラメータおよび第2の準同型暗号中間パラメータを取得する前に、
前記第1の参加者と前記第2の参加者のサンプルデータ積集合識別子を確定し、少なくとも1人の参加者のサンプルデータにラベルが対応して付されていることを更に含む、
ことを特徴とする請求項1に記載の方法。 - 前記第1の準同型暗号中間パラメータを取得することは、
前記第1のサンプルデータに基づいて前記第1のサブモデルをトレーニングした後、前記第1のトレーニング中間パラメータを生成することと、
設定精度に基づいて前記第1のトレーニング中間パラメータ内の浮動小数点数を第1のBIGINTに変換することと、
前記第1のBIGINT内の整数値をコードし、第1の正の整数に変換することと、
前記第2の参加者の第2の準同型公開鍵を用いて第1の正の整数を暗号化し、前記第1の準同型暗号中間パラメータを取得することとを含む、
ことを特徴とする請求項1に記載の方法。 - 前記第1のキーパラメータおよび前記第1の干渉パラメータに基づき、前記第1のサブモデルを反復更新することは、
前記第1の干渉パラメータに基づいて前記第1のキーパラメータに対して干渉除去動作を行うことと、
干渉が除去された第1のキーパラメータをデコードし、前記設定精度に従ってスケーリングし、浮動小数点数に変換することと、
変換された浮動小数点数形式の第1のキーパラメータを用いて前記第1のサブモデルを反復更新することとを含む、
ことを特徴とする請求項7に記載の方法。 - 第1の準同型暗号中間パラメータおよび第2の準同型暗号中間パラメータを取得するための中間パラメータ取得モジュールであって、前記第1の準同型暗号中間パラメータは、第2の参加者の第2の準同型公開鍵を用いて第1のトレーニング中間パラメータを暗号化したデータであり、前記第1のトレーニング中間パラメータは、第1の参加者が第1のサンプルデータに基づいて第1のサブモデルをトレーニングした後に生成した中間パラメータであり、前記第2の準同型暗号中間パラメータは、前記第2の参加者の第2の準同型公開鍵を用いて第2のトレーニング中間パラメータを暗号化したデータであり、前記第2のトレーニング中間パラメータは、前記第2の参加者が第2のサンプルデータに基づいて第2のサブモデルをトレーニングした後に生成した中間パラメータであり、機械学習モデルは、少なくとも2人の参加者のそれぞれのローカルなサブモデルで構成される中間パラメータ取得モジュールと、
第1の干渉パラメータを生成して前記第2の参加者の第2の準同型公開鍵を用いて暗号化し、第1の暗号化干渉パラメータを形成するための干渉パラメータ形成モジュールと、
前記第1の準同型暗号中間パラメータ、第2の準同型暗号中間パラメータ、第1の暗号化干渉パラメータ、および第1のサブモデルの準同型計算関数に基づいて計算し、第1の暗号化キーパラメータを生成するためのパラメータ生成モジュールと、
前記第2の参加者による第2の準同型秘密鍵を用いる前記第1の暗号化キーパラメータの復号化のために、前記第1の暗号化キーパラメータを前記第2の参加者に伝送するためのパラメータ復号モジュールと、
前記第2の参加者により復号化された第1のキーパラメータを取得するための第1のキーパラメータ取得モジュールと、
前記第1のキーパラメータおよび前記第1の干渉パラメータに基づき、前記第1のサブモデルのトレーニングが完了するまで前記第1のサブモデルを反復更新するためのサブモデルトレーニングモジュールと、
前記第1の準同型暗号中間パラメータおよび第2の準同型暗号中間パラメータを取得する前に、前記第1の参加者の第1の元のサンプルデータを標準化処理し、サンプル特徴次元の第1の標準化値および第1のサンプルデータを取得し、標準化処理した第1のサンプルデータをモデルのトレーニングに用いるためのサンプルデータ処理モジュールと、
前記第1の標準化値を第3の暗号化秘密鍵で暗号化して第1の暗号化標準化値を形成し、前記第1の暗号化標準化値を信頼された第3者に提供するための第1の標準化値暗号化モジュールと、
前記第1のサブモデルのトレーニングが完了した後、前記第1のサブモデルを第3の暗号化秘密鍵で暗号化して第1の暗号化サブモデルを形成し、信頼された第3者が各参加者により提供された暗号化サブモデルに基づいて組み合わせ、各参加者により提供された暗号化標準化値に基づいて非標準化処理を行って更に切り分けるように、前記第1の暗号化サブモデルを前記信頼された第3者に提供するためのモデル切り分けモジュールと、
前記信頼された第3者から返信された切り分けられた第1の非標準化サブモデルを受信するためのサブモデル受信モジュールとを備える、
ことを特徴とする分散型機械学習モデルのトレーニング装置。 - 前記パラメータ生成モジュールは、
前記第1の準同型暗号中間パラメータ、第2の準同型暗号中間パラメータ、および第1のサブモデルの準同型計算関数に基づいて計算し、前記第1の暗号化干渉パラメータを線形計算に基づいて計算結果に重ねて、前記第1の暗号化キーパラメータを生成するためのパラメータ生成ユニットを備え、
これに対応して、前記サブモデルトレーニングモジュールは、
前記第1の干渉パラメータに基づいて前記第1のキーパラメータを逆方向線形計算し、逆方向線形計算したキーパラメータに基づき、前記第1のサブモデルのトレーニングが完了するまで前記第1のサブモデルを反復更新するためのサブモデルのトレーニングユニットを備える、
ことを特徴とする請求項9に記載の装置。 - 前記干渉パラメータは乱数である、
ことを特徴とする請求項9または10に記載の装置。 - 前記第1の干渉パラメータは、第1の勾配干渉パラメータおよび第1の損失干渉パラメータを含み、
これに対応して、前記パラメータ生成モジュールは、
前記第1の準同型暗号中間パラメータ、第2の準同型暗号中間パラメータ、第1の暗号化勾配干渉パラメータ、および第1のサブモデルの準同型勾配計算関数に基づいて計算し、第1の暗号化勾配パラメータを生成するための勾配パラメータ生成モジュールと、
前記第1の準同型暗号中間パラメータ、第2の準同型暗号中間パラメータ、第1の暗号化損失干渉パラメータ、および第1のサブモデルの準同型損失計算関数に基づいて計算し、第1の暗号化損失パラメータを生成するための損失パラメータ生成モジュールとを備える、
ことを特徴とする請求項9または10に記載の装置。 - 第1の準同型公開鍵および第1の準同型秘密鍵を含む第1の準同型秘密鍵ペアを生成するための第1の準同型秘密鍵ペア生成モジュールと、
前記第1の準同型公開鍵を前記第2の参加者に送信するための第1の準同型公開鍵送信モジュールと、
前記第2の参加者から送信された前記第2の参加者により生成された第2の準同型秘密鍵ペア内の第2の準同型公開鍵を受信するための第2の準同型公開鍵受信モジュールとを更に備える、
ことを特徴とする請求項9に記載の装置。 - 前記第1の準同型暗号中間パラメータおよび第2の準同型暗号中間パラメータを取得する前に、前記第1の参加者と前記第2の参加者のサンプルデータ積集合識別子を確定するための積集合識別子確定モジュールを更に備え、少なくとも1人の参加者のサンプルデータにラベルが対応して付されている、
ことを特徴とする請求項9に記載の装置。 - 前記中間パラメータ取得モジュールは、
前記第1のサンプルデータに基づいて前記第1のサブモデルをトレーニングした後、前記第1のトレーニング中間パラメータを生成するための第1のトレーニング中間パラメータ生成ユニットと、
設定精度に基づいて前記第1のトレーニング中間パラメータ内の浮動小数点数を第1のBIGINTに変換するための第1のBIGINT確定ユニットと、
前記第1のBIGINT内の整数値をコードし、第1の正の整数に変換するための第1の正の整数確定ユニットと、
前記第2の参加者の第2の準同型公開鍵を用いて第1の正の整数を暗号化し、前記第1の準同型暗号中間パラメータを取得するための第1の準同型暗号中間パラメータ確定ユニットとを備える、
ことを特徴とする請求項9に記載の装置。 - 前記サブモデルトレーニングモジュールは、
前記第1の干渉パラメータに基づいて前記第1のキーパラメータに対して干渉除去動作を行うための干渉除去動作ユニットと、
干渉が除去された第1のキーパラメータをデコードし、前記設定精度に従ってスケーリングし、浮動小数点数に変換するための浮動小数点数変換ユニットと、
変換された浮動小数点数形式の第1のキーパラメータを用いて前記第1のサブモデルを反復更新するための反復更新ユニットとを備える、
ことを特徴とする請求項15に記載の装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信接続されたメモリとを備える電子機器であって、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、
前記命令は、前記少なくとも1つのプロセッサが請求項1から8のいずれか1項に記載の分散型機械学習モデルのトレーニング方法を実行可能であるように、前記少なくとも1つのプロセッサにより実行される、
ことを特徴とする電子機器。 - コンピュータ命令が記憶された非一時的なコンピュータ可読記憶媒体であって、
前記コンピュータ命令は、請求項1から8のいずれか1項に記載の分散型機械学習モデルのトレーニング方法をコンピュータに実行させることに用いられる、
ことを特徴とする非一時的なコンピュータ可読記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111079943.4A CN113537516B (zh) | 2021-09-15 | 2021-09-15 | 分布式机器学习模型的训练方法、装置、设备和介质 |
CN202111079943.4 | 2021-09-15 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023043175A JP2023043175A (ja) | 2023-03-28 |
JP7297131B2 true JP7297131B2 (ja) | 2023-06-23 |
Family
ID=78123119
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022145049A Active JP7297131B2 (ja) | 2021-09-15 | 2022-09-13 | 分散型機械学習モデルのトレーニング方法、装置、機器および媒体 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11748661B2 (ja) |
JP (1) | JP7297131B2 (ja) |
KR (1) | KR102515682B1 (ja) |
CN (1) | CN113537516B (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113965313B (zh) * | 2021-12-15 | 2022-04-05 | 北京百度网讯科技有限公司 | 基于同态加密的模型训练方法、装置、设备以及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200242466A1 (en) | 2017-03-22 | 2020-07-30 | Visa International Service Association | Privacy-preserving machine learning |
US20210150037A1 (en) | 2019-11-15 | 2021-05-20 | International Business Machines Corporation | Secure Federation of Distributed Stochastic Gradient Descent |
US20210174243A1 (en) | 2019-12-06 | 2021-06-10 | International Business Machines Corporation | Efficient private vertical federated learning |
US20210234668A1 (en) | 2020-01-27 | 2021-07-29 | Hewlett Packard Enterprise Development Lp | Secure parameter merging using homomorphic encryption for swarm learning |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107135661A (zh) * | 2016-12-26 | 2017-09-05 | 深圳前海达闼云端智能科技有限公司 | 数据处理方法、装置、系统及信息采集设备 |
US11144616B2 (en) * | 2017-02-22 | 2021-10-12 | Cisco Technology, Inc. | Training distributed machine learning with selective data transfers |
CN107135061B (zh) * | 2017-04-17 | 2019-10-22 | 北京科技大学 | 一种5g通信标准下的分布式隐私保护机器学习方法 |
US11205137B2 (en) * | 2018-06-15 | 2021-12-21 | International Business Machines Corporation | Distributed training in a parameter dataset |
CN109165515A (zh) * | 2018-08-10 | 2019-01-08 | 深圳前海微众银行股份有限公司 | 基于联邦学习的模型参数获取方法、系统及可读存储介质 |
US10970402B2 (en) * | 2018-10-19 | 2021-04-06 | International Business Machines Corporation | Distributed learning preserving model security |
CN109886417B (zh) * | 2019-03-01 | 2024-05-03 | 深圳前海微众银行股份有限公司 | 基于联邦学习的模型参数训练方法、装置、设备及介质 |
US11532386B2 (en) * | 2019-03-20 | 2022-12-20 | International Business Machines Corporation | Generating and customizing summarized notes |
US11139961B2 (en) * | 2019-05-07 | 2021-10-05 | International Business Machines Corporation | Private and federated learning |
EP3970074A1 (en) * | 2019-05-16 | 2022-03-23 | FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. | Concepts for federated learning, client classification and training data similarity measurement |
US20200366459A1 (en) * | 2019-05-17 | 2020-11-19 | International Business Machines Corporation | Searching Over Encrypted Model and Encrypted Data Using Secure Single-and Multi-Party Learning Based on Encrypted Data |
CN112149141B (zh) * | 2019-06-28 | 2023-08-29 | 北京百度网讯科技有限公司 | 模型训练方法、装置、设备和介质 |
CN112149706B (zh) * | 2019-06-28 | 2024-03-15 | 北京百度网讯科技有限公司 | 模型训练方法、装置、设备和介质 |
CN111046433B (zh) * | 2019-12-13 | 2021-03-05 | 支付宝(杭州)信息技术有限公司 | 一种基于联邦学习的模型训练方法 |
WO2021223873A1 (en) * | 2020-05-08 | 2021-11-11 | Ecole Polytechnique Federale De Lausanne (Epfl) | System and method for privacy-preserving distributed training of machine learning models on distributed datasets |
US20210398017A1 (en) * | 2020-06-23 | 2021-12-23 | Hewlett Packard Enterprise Development Lp | Systems and methods for calculating validation loss for models in decentralized machine learning |
CA3188608A1 (en) * | 2020-08-27 | 2022-03-03 | Sinem SAV | System and method for privacy-preserving distributed training of neural network models on distributed datasets |
CN112257081B (zh) * | 2020-09-30 | 2023-02-28 | 易联众信息技术股份有限公司 | 纵向联邦标准离差综合评分方法、系统、介质及设备 |
JP7096610B2 (ja) * | 2021-01-15 | 2022-07-06 | 株式会社アクセル | 処理装置、推論装置、学習装置、処理システム、処理方法、及び処理プログラム |
CN113033828B (zh) * | 2021-04-29 | 2022-03-22 | 江苏超流信息技术有限公司 | 模型训练方法、使用方法、系统、可信节点及设备 |
US20220374762A1 (en) * | 2021-05-18 | 2022-11-24 | International Business Machines Corporation | Trusted and decentralized aggregation for federated learning |
CN113037489B (zh) * | 2021-05-25 | 2021-08-27 | 北京百度网讯科技有限公司 | 数据处理方法、装置、设备和存储介质 |
CN113614726A (zh) * | 2021-06-10 | 2021-11-05 | 香港应用科技研究院有限公司 | 对联邦学习系统的动态差异隐私 |
US11907403B2 (en) * | 2021-06-10 | 2024-02-20 | Hong Kong Applied Science And Technology Research Institute Co., Ltd. | Dynamic differential privacy to federated learning systems |
-
2021
- 2021-09-15 CN CN202111079943.4A patent/CN113537516B/zh active Active
-
2022
- 2022-09-08 KR KR1020220114224A patent/KR102515682B1/ko active IP Right Grant
- 2022-09-13 JP JP2022145049A patent/JP7297131B2/ja active Active
- 2022-09-15 US US17/932,405 patent/US11748661B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200242466A1 (en) | 2017-03-22 | 2020-07-30 | Visa International Service Association | Privacy-preserving machine learning |
US20210150037A1 (en) | 2019-11-15 | 2021-05-20 | International Business Machines Corporation | Secure Federation of Distributed Stochastic Gradient Descent |
US20210174243A1 (en) | 2019-12-06 | 2021-06-10 | International Business Machines Corporation | Efficient private vertical federated learning |
US20210234668A1 (en) | 2020-01-27 | 2021-07-29 | Hewlett Packard Enterprise Development Lp | Secure parameter merging using homomorphic encryption for swarm learning |
Also Published As
Publication number | Publication date |
---|---|
KR102515682B1 (ko) | 2023-03-29 |
JP2023043175A (ja) | 2023-03-28 |
CN113537516B (zh) | 2021-12-14 |
US20230078726A1 (en) | 2023-03-16 |
CN113537516A (zh) | 2021-10-22 |
KR20230040278A (ko) | 2023-03-22 |
US11748661B2 (en) | 2023-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022237450A1 (zh) | 多方安全计算方法、装置、设备及存储介质 | |
CN113033828B (zh) | 模型训练方法、使用方法、系统、可信节点及设备 | |
CN108712409B (zh) | 一种基于私有区块链的电子账单交易系统 | |
CN113836556B (zh) | 面向联邦学习的去中心化函数加密隐私保护方法及系统 | |
CN114595835B (zh) | 基于联邦学习的模型训练方法及装置、设备、存储介质 | |
CN112818374A (zh) | 一种模型的联合训练方法、设备、存储介质及程序产品 | |
WO2021239006A1 (zh) | 基于秘密共享的训练方法、装置、电子设备及存储介质 | |
CN112597542B (zh) | 目标资产数据的聚合方法及装置、存储介质、电子装置 | |
JP7297131B2 (ja) | 分散型機械学習モデルのトレーニング方法、装置、機器および媒体 | |
CN115510502B (zh) | 一种隐私保护的pca方法及系统 | |
CN116324778A (zh) | 可更新私有集合交集 | |
CN113240129A (zh) | 一种面向多类型任务图像分析的联邦学习系统 | |
CN115913537A (zh) | 基于隐私保护的数据求交方法、系统及相关设备 | |
CN116167088A (zh) | 一种两方联邦学习中进行隐私保护的方法、系统及终端 | |
CN117675270A (zh) | 面向纵向联邦学习的多模态数据加密传输方法及系统 | |
CN113935050A (zh) | 基于联邦学习的特征提取方法和装置、电子设备、介质 | |
CN113722739A (zh) | 梯度提升树模型的生成方法、装置、电子设备和存储介质 | |
CN116743376A (zh) | 基于高效密文混淆技术的多方秘密分享数据隐私比较方法 | |
CN115564447A (zh) | 一种信用卡交易风险检测方法及装置 | |
CN115580443A (zh) | 一种图数据的处理方法、装置、设备和介质 | |
CN108989031B (zh) | 一种多比特纠错编码解码方法 | |
CN117009723B (zh) | 一种多方计算方法、装置、设备及存储介质 | |
Yan et al. | Secret image sharing based on error-correcting codes | |
CN116915922B (zh) | 图像的传输方法及装置、电子设备和存储介质 | |
CN116127179A (zh) | 信息推荐及模型训练方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220913 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220913 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230315 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230523 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230613 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7297131 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |