JP6556659B2 - ニューラルネットワークシステム、シェア計算装置、ニューラルネットワークの学習方法、プログラム - Google Patents
ニューラルネットワークシステム、シェア計算装置、ニューラルネットワークの学習方法、プログラム Download PDFInfo
- Publication number
- JP6556659B2 JP6556659B2 JP2016098410A JP2016098410A JP6556659B2 JP 6556659 B2 JP6556659 B2 JP 6556659B2 JP 2016098410 A JP2016098410 A JP 2016098410A JP 2016098410 A JP2016098410 A JP 2016098410A JP 6556659 B2 JP6556659 B2 JP 6556659B2
- Authority
- JP
- Japan
- Prior art keywords
- share
- calculation
- layer
- unit
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
[w(md+1,md)(d+1)]n←[w(md+1,md)(d+1)
−δ(md+1)(d+1)H(md)(d,s)Δw(md+1,md)(d+1)]n
のように重みのシェア[w(md+1,md)(d+1)]nを更新し、1≦md+1≦Md+1のすべてのmd+1ついて
[θ(md+1)(d+1)]n←[θ(md+1)(d+1)
−δ(md+1)(d+1)Δθ(md+1)(d+1)]n
のように閾値のシェア[θ(md+1)(d+1)]nを更新する。学習制御部は、前方伝播部、誤差計算部、逆誤差伝播部に、それぞれの処理を1≦s≦Sのすべてのsに対して実行させる。
[w(md+1,md)(d+1)]n←[w(md+1,md)(d+1)
−δ(md+1)(d+1)H(md)(d,s)Δw(md+1,md)(d+1)]n
のように重みのシェア[w(md+1,md)(d+1)]nを更新し、1≦md+1≦Md+1のすべてのmd+1ついて
[θ(md+1)(d+1)]n←[θ(md+1)(d+1)
−δ(md+1)(d+1)Δθ(md+1)(d+1)]n
のように閾値のシェア[θ(md+1)(d+1)]nを更新する(S130(S1301,…,S130N))。
[w(md+1,md)(d+1)]n←[w(md+1,md)(d+1)
−δ(md+1)(d+1)H(md)(d,s)Δw(md+1,md)(d+1)]n
のように重みのシェア[w(md+1,md)(d+1)]nを更新し、1≦md+1≦Md+1のすべてのmd+1ついて
[θ(md+1)(d+1)]n←[θ(md+1)(d+1)
−δ(md+1)(d+1)Δθ(md+1)(d+1)]n
のように閾値のシェア[θ(md+1)(d+1)]nを更新する(S135n)。逆誤差伝播部130nは、dにd−1を代入する(S136n)。逆誤差伝播部130nは、dが0より大きいかを確認し(S137n)、Yesの場合にはステップS132nに戻り、Noの場合には逆誤差伝播S130nを終了する。
上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。
120n 誤差計算部 130n 逆誤差伝播部
140n 学習制御部 190n シェア計算記録部
200 管理装置 210 初期設定部
220 学習指示部 230 終了条件確認部
290 管理記録部 300 端末
320 予言指示部 900 ネットワーク
Claims (6)
- 管理装置とN台のシェア計算装置で構成されたニューラルネットワークシステムであって、
Kを2以上の整数、Nを2K−1以上の整数、nを1以上N以下の整数、Dをニューラルネットワークの層数(ただし、1層目が入力層、D層目が出力層)、dを1以上D以下の整数、Mdをd層目のノード数、mdを1以上Md以下の整数、Sを入力と教師データのセット数、sを1以上S以下の整数、I(s)={I(1)(s),…,I(M1)(s)}をs番目の入力、T(s)={T(1)(s),…,T(MD)(s)}をs番目の入力に対する教師データ、O(s)={O(1)(s),…,O(MD)(s)}をs番目の入力に対する出力、H(d,s)={H(1)(d,s),…,H(Md)(d,s)}をs番目の入力に対するd番目の隠れ層の値(ただし、I(s)=H(1,s)、O(s)=H(D,s))、w(md,md−1)(d)をd層目のmd番目のノードとd−1層目のmd−1番目のノードの間の重み、θ(md)(d)をd層目のmd番目のノードの閾値、Δw(md,md−1)(d)をw(md,md−1)(d)の学習率、Δθ(md)(d)をθ(md)(d)の学習率、[]nをn番目のシェア計算装置が記録するシェアを示す記号、[W(d)]nを[w(1,1)(d)]n,…,[w(md,md−1)(d)]n,…,[w(Md,Md−1)(d)]nの集合、[Θ(d)]nを[θ(1)(d)]n,…,[θ(Md)(d)]nの集合、[ΔW(d)]nを[Δw(1,1)(d)]n,…,[Δw(md,md−1)(d)]n,…,[Δw(Md,Md−1)(d)]nの集合、[ΔΘ(d)]nを[Δθ(1)(d)]n,…,[Δθ(Md)(d)]nの集合、εをあらかじめ定めた誤差の閾値、f()を活性化関数、f’()を前記活性化関数の導関数とし、
前記管理装置は、データからN個のシェアを求めること、K個のシェアからデータを復元することができ、
あらかじめ定めたΔW(1),…,ΔW(D)、ΔΘ(1),…,ΔΘ(D)、εと、S個の入力と教師データのセット(I(1),T(1)),…,(I(S),T(S))を記録する管理記録部と、
1≦n≦Nのすべてのnについて[W(1)]n,…,[W(D)]nと[Θ(1)]n,…,[Θ(D)]nをn番目のシェア計算装置に送信する初期設定部と、
1≦n≦Nのすべてのnについて([I(1)]n,[T(1)]n),…,([I(S)]n,[T(S)]n)をn番目のシェア計算装置に送信し、N個のシェア計算装置に学習開始を指示する学習指示部と、
を備え、
n番目のシェア計算装置は、シェアの加算、シェアの乗算、シェアの定数倍、シェアの大小判定を、他の前記シェア計算装置と共に行うことができ、
[W(1)]n,…,[W(D)]nと[Θ(1)]n,…,[Θ(D)]nと([I(1)]n,[T(1)]n),…,([I(S)]n,[T(S)]n)と、前記のあらかじめ定めたΔW(1),…,ΔW(D)、ΔΘ(1),…,ΔΘ(D)、εを記録するシェア計算記録部と、
1≦m1≦M1のすべてのm1について[H(m1)(1,s)]n=[I(m1)(s)]nとし、
d=1からd=D−1まで順番に1≦md+1≦Md+1のすべてのmd+1について
[H(md+1)(d+1,s)]n=[f(X(md+1)(d+1,s))]n
ただし、
を求め、
[O(mD)(s)]n=[H(mD)(D,s)]n
とすることで、出力のシェア[O(s)]n={[O(1)(s)]n,…,[O(MD)(s)]n})を求める前方伝播部と、
誤差のシェア[E]nを、
のように求め、
Eとεの大小判定結果のシェアである[E<ε]nを求める誤差計算部と、
E<εでない場合には、
1≦mD≦MDのすべてのmDについて[TEMP(mD)]n=[H(mD)(D,s)−T(mD)(s)]nとし、
d=D−1からd=1まで順番に1≦md+1≦Md+1のすべてのmd+1について
[δ(md+1)(d+1)]n=[TEMP(md+1)f’(X(md+1)(d+1,s))]n
ただし、
を求め、
1≦md≦Mdのすべてのmdについて
とし、
1≦md+1≦Md+1、1≦md≦Mdのすべてのmd+1、mdついて
[w(md+1,md)(d+1)]n←[w(md+1,md)(d+1)
−δ(md+1)(d+1)H(md)(d,s)Δw(md+1,md)(d+1)]n
のように重みのシェア[w(md+1,md)(d+1)]nを更新し、
1≦md+1≦Md+1のすべてのmd+1ついて
[θ(md+1)(d+1)]n←[θ(md+1)(d+1)
−δ(md+1)(d+1)Δθ(md+1)(d+1)]n
のように閾値のシェア[θ(md+1)(d+1)]nを更新する逆誤差伝播部と、
前記前方伝播部、前記誤差計算部、前記逆誤差伝播部に、それぞれの処理を1≦s≦Sのすべてのsに対して実行させる学習制御部と、
を備え、
前記管理装置又はN台の前記シェア計算装置のいずれかが、K台以上の前記シェア計算装置からEとεの大小判定結果のシェアを受信し、Eとεの大小判定結果を示すデータを復元する終了条件確認部も備え、
前記活性化関数f(X)は、X≦0のときはf(X)=0、X>0のときはf(X)=Xである
ことを特徴とするニューラルネットワークシステム。 - 請求項1記載のニューラルネットワークシステムであって、
前記初期設定部は、
2≦d≦D、1≦md≦Md、1≦md−1≦Md−1のすべてのd、md、md−1ついてのw(md,md−1)(d)を所定の体上からランダムに選択し、1≦d≦D、1≦md≦Mdのすべてのd、mdついてのθ(md)(d)を前記所定の体上からランダムに選択し、選択したすべてのw(md,md−1)(d)とθ(md)(d)について[w(md,md−1)(d)]1,…,[w(md,md−1)(d)]Nと[θ(md)(d)]1,…,[θ(md)(d)]Nを求めることで、1≦n≦Nのすべてのnについて[W(1)]n,…,[W(D)]nと[Θ(1)]n,…,[Θ(D)]nを取得し、
前記学習指示部は、
1≦s≦Sのすべての(I(s),T(s))について([I(s)]1,[T(s)]1),…,([I(s)]N,[T(s)]N)を求めることで、1≦n≦Nのすべてのnについて([I(1)]n,[T(1)]n),…,([I(S)]n,[T(S)]n)を取得する
ことを特徴とするニューラルネットワークシステム。 - 管理装置とN台のシェア計算装置で構成されたニューラルネットワークシステムのn番目のシェア計算装置であって、
Kを2以上の整数、Nを2K−1以上の整数、nを1以上N以下の整数、Dをニューラルネットワークの層数(ただし、1層目が入力層、D層目が出力層)、dを1以上D以下の整数、Mdをd層目のノード数、mdを1以上Md以下の整数、Sを入力と教師データのセット数、sを1以上S以下の整数、I(s)={I(1)(s),…,I(M1)(s)}をs番目の入力、T(s)={T(1)(s),…,T(MD)(s)}をs番目の入力に対する教師データ、O(s)={O(1)(s),…,O(MD)(s)}をs番目の入力に対する出力、H(d,s)={H(1)(d,s),…,H(Md)(d,s)}をs番目の入力に対するd番目の隠れ層の値(ただし、I(s)=H(1,s)、O(s)=H(D,s))、w(md,md−1)(d)をd層目のmd番目のノードとd−1層目のmd−1番目のノードの間の重み、θ(md)(d)をd層目のmd番目のノードの閾値、Δw(md,md−1)(d)をw(md,md−1)(d)の学習率、Δθ(md)(d)をθ(md)(d)の学習率、[]nをn番目のシェア計算装置が記録するシェアを示す記号、[W(d)]nを[w(1,1)(d)]n,…,[w(md,md−1)(d)]n,…,[w(Md,Md−1)(d)]nの集合、[Θ(d)]nを[θ(1)(d)]n,…,[θ(Md)(d)]nの集合、[ΔW(d)]nを[Δw(1,1)(d)]n,…,[Δw(md,md−1)(d)]n,…,[Δw(Md,Md−1)(d)]nの集合、[ΔΘ(d)]nを[Δθ(1)(d)]n,…,[Δθ(Md)(d)]nの集合、εをあらかじめ定めた誤差の閾値、f()を活性化関数、f’()を前記活性化関数の導関数とし、
当該シェア計算装置は、
シェアの加算、シェアの乗算、シェアの定数倍、シェアの大小判定を、他の前記シェア計算装置と共に行うことができ、
あらかじめ前記管理装置から[W(1)]n,…,[W(D)]nと[Θ(1)]n,…,[Θ(D)]nと([I(1)]n,[T(1)]n),…,([I(S)]n,[T(S)]n)を受信し、
[W(1)]n,…,[W(D)]nと[Θ(1)]n,…,[Θ(D)]nと([I(1)]n,[T(1)]n),…,([I(S)]n,[T(S)]n)と、あらかじめ定めたΔW(1),…,ΔW(D)、ΔΘ(1),…,ΔΘ(D)、εを記録するシェア計算記録部と、
1≦m1≦M1のすべてのm1について[H(m1)(1,s)]n=[I(m1)(s)]nとし、
d=1からd=D−1まで順番に1≦md+1≦Md+1のすべてのmd+1について
[H(md+1)(d+1,s)]n=[f(X(md+1)(d+1,s))]n
ただし、
を求め、
[O(mD)(s)]n=[H(mD)(D,s)]n
とすることで、出力のシェア[O(s)]n={[O(1)(s)]n,…,[O(MD)(s)]n})を求める前方伝播部と、
誤差のシェア[E]nを、
のように求め、
Eとεの大小判定結果のシェアである[E<ε]nを求める誤差計算部と、
E<εでない場合には、
1≦mD≦MDのすべてのmDについて[TEMP(mD)]n=[H(mD)(D,s)−T(mD)(s)]nとし、
d=D−1からd=1まで順番に1≦md+1≦Md+1のすべてのmd+1について
[δ(md+1)(d+1)]n=[TEMP(md+1)f’(X(md+1)(d+1,s))]n
ただし、
を求め、
1≦md≦Mdのすべてのmdについて
とし、
1≦md+1≦Md+1、1≦md≦Mdのすべてのmd+1、mdついて
[w(md+1,md)(d+1)]n←[w(md+1,md)(d+1)
−δ(md+1)(d+1)H(md)(d,s)Δw(md+1,md)(d+1)]n
のように重みのシェア[w(md+1,md)(d+1)]nを更新し、
1≦md+1≦Md+1のすべてのmd+1ついて
[θ(md+1)(d+1)]n←[θ(md+1)(d+1)
−δ(md+1)(d+1)Δθ(md+1)(d+1)]n
のように閾値のシェア[θ(md+1)(d+1)]nを更新する逆誤差伝播部と、
前記前方伝播部、前記誤差計算部、前記逆誤差伝播部に、それぞれの処理を1≦s≦Sのすべてのsに対して実行させる学習制御部と、
を備え、
前記活性化関数f(X)は、X≦0のときはf(X)=0、X>0のときはf(X)=Xである
ことを特徴とするシェア計算装置。 - 管理装置とN台のシェア計算装置で構成されたニューラルネットワークシステムの学習方法であって、
Kを2以上の整数、Nを2K−1以上の整数、nを1以上N以下の整数、Dをニューラルネットワークの層数(ただし、1層目が入力層、D層目が出力層)、dを1以上D以下の整数、Mdをd層目のノード数、mdを1以上Md以下の整数、Sを入力と教師データのセット数、sを1以上S以下の整数、I(s)={I(1)(s),…,I(M1)(s)}をs番目の入力、T(s)={T(1)(s),…,T(MD)(s)}をs番目の入力に対する教師データ、O(s)={O(1)(s),…,O(MD)(s)}をs番目の入力に対する出力、H(d,s)={H(1)(d,s),…,H(Md)(d,s)}をs番目の入力に対するd番目の隠れ層の値(ただし、I(s)=H(1,s)、O(s)=H(D,s))、w(md,md−1)(d)をd層目のmd番目のノードとd−1層目のmd−1番目のノードの間の重み、θ(md)(d)をd層目のmd番目のノードの閾値、Δw(md,md−1)(d)をw(md,md−1)(d)の学習率、Δθ(md)(d)をθ(md)(d)の学習率、[]nをn番目のシェア計算装置が記録するシェアを示す記号、[W(d)]nを[w(1,1)(d)]n,…,[w(md,md−1)(d)]n,…,[w(Md,Md−1)(d)]nの集合、[Θ(d)]nを[θ(1)(d)]n,…,[θ(Md)(d)]nの集合、[ΔW(d)]nを[Δw(1,1)(d)]n,…,[Δw(md,md−1)(d)]n,…,[Δw(Md,Md−1)(d)]nの集合、[ΔΘ(d)]nを[Δθ(1)(d)]n,…,[Δθ(Md)(d)]nの集合、εをあらかじめ定めた誤差の閾値、f()を活性化関数、f’()を前記活性化関数の導関数とし、
前記管理装置は、データからN個のシェアを求めること、K個のシェアからデータを復元することができ、
あらかじめ定めたΔW(1),…,ΔW(D)、ΔΘ(1),…,ΔΘ(D)、εと、S個の入力と教師データのセット(I(1),T(1)),…,(I(S),T(S))を記録する管理記録部を備え、
前記管理装置が、
1≦n≦Nのすべてのnについて[W(1)]n,…,[W(D)]nと[Θ(1)]n,…,[Θ(D)]nをn番目のシェア計算装置に送信する初期設定ステップと、
1≦n≦Nのすべてのnについて([I(1)]n,[T(1)]n),…,([I(S)]n,[T(S)]n)をn番目のシェア計算装置に送信し、N個のシェア計算装置に学習開始を指示する学習指示ステップと、
を実行し、
n番目のシェア計算装置は、シェアの加算、シェアの乗算、シェアの定数倍、シェアの大小判定を、他の前記シェア計算装置と共に行うことができ、
[W(1)]n,…,[W(D)]nと[Θ(1)]n,…,[Θ(D)]nと([I(1)]n,[T(1)]n),…,([I(S)]n,[T(S)]n)と、前記のあらかじめ定めたΔW(1),…,ΔW(D)、ΔΘ(1),…,ΔΘ(D)、εを記録するシェア計算記録部を備え、
N台のシェア計算装置が、
1≦m1≦M1のすべてのm1について[H(m1)(1,s)]n=[I(m1)(s)]nとし、
d=1からd=D−1まで順番に1≦md+1≦Md+1のすべてのmd+1について
[H(md+1)(d+1,s)]n=[f(X(md+1)(d+1,s))]n
ただし、
を求め、
[O(mD)(s)]n=[H(mD)(D,s)]n
とすることで、出力のシェア[O(s)]n={[O(1)(s)]n,…,[O(MD)(s)]n})を求める前方伝播ステップと、
誤差のシェア[E]nを、
のように求め、
Eとεの大小判定結果のシェアである[E<ε]nを求める誤差計算ステップと、
を実行し、
前記管理装置又はN台の前記シェア計算装置のいずれかが、K台以上の前記シェア計算装置からEとεの大小判定結果のシェアを受信し、Eとεの大小判定結果を示すデータを復元する終了条件確認ステップを実行し、
N台の前記シェア計算装置が、
E<εでない場合には、
1≦mD≦MDのすべてのmDについて[TEMP(mD)]n=[H(mD)(D,s)−T(mD)(s)]nとし、
d=D−1からd=1まで順番に1≦md+1≦Md+1のすべてのmd+1について
[δ(md+1)(d+1)]n=[TEMP(md+1)f’(X(md+1)(d+1,s))]n
ただし、
を求め、
1≦md≦Mdのすべてのmdについて
とし、
1≦md+1≦Md+1、1≦md≦Mdのすべてのmd+1、mdついて
[w(md+1,md)(d+1)]n←[w(md+1,md)(d+1)
−δ(md+1)(d+1)H(md)(d,s)Δw(md+1,md)(d+1)]n
のように重みのシェア[w(md+1,md)(d+1)]nを更新し、
1≦md+1≦Md+1のすべてのmd+1ついて
[θ(md+1)(d+1)]n←[θ(md+1)(d+1)
−δ(md+1)(d+1)Δθ(md+1)(d+1)]n
のように閾値のシェア[θ(md+1)(d+1)]nを更新する逆誤差伝播ステップを実行し、
N台の前記シェア計算装置は、前記前方伝播ステップ、前記誤差計算ステップ、前記逆誤差伝播ステップにおいて、それぞれの処理を1≦s≦Sのすべてのsに対して実行し、
前記活性化関数f(X)は、X≦0のときはf(X)=0、X>0のときはf(X)=Xである
ことを特徴とするニューラルネットワークの学習方法。 - 請求項4記載のニューラルネットワークの学習方法であって、
前記初期設定ステップでは、
2≦d≦D、1≦md≦Md、1≦md−1≦Md−1のすべてのd、md、md−1ついてのw(md,md−1)(d)を所定の体上からランダムに選択し、1≦d≦D、1≦md≦Mdのすべてのd、mdついてのθ(md)(d)を前記所定の体上からランダムに選択し、選択したすべてのw(md,md−1)(d)とθ(md)(d)について[w(md,md−1)(d)]1,…,[w(md,md−1)(d)]Nと[θ(md)(d)]1,…,[θ(md)(d)]Nを求めることで、1≦n≦Nのすべてのnについて[W(1)]n,…,[W(D)]nと[Θ(1)]n,…,[Θ(D)]nを取得し、
前記学習指示ステップでは、
1≦s≦Sのすべての(I(s),T(s))について([I(s)]1,[T(s)]1),…,([I(s)]N,[T(s)]N)を求めることで、1≦n≦Nのすべてのnについて([I(1)]n,[T(1)]n),…,([I(S)]n,[T(S)]n)を取得する
ことを特徴とするニューラルネットワークの学習方法。 - 請求項3記載のシェア計算装置としてコンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016098410A JP6556659B2 (ja) | 2016-05-17 | 2016-05-17 | ニューラルネットワークシステム、シェア計算装置、ニューラルネットワークの学習方法、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016098410A JP6556659B2 (ja) | 2016-05-17 | 2016-05-17 | ニューラルネットワークシステム、シェア計算装置、ニューラルネットワークの学習方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017207839A JP2017207839A (ja) | 2017-11-24 |
JP6556659B2 true JP6556659B2 (ja) | 2019-08-07 |
Family
ID=60414974
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016098410A Active JP6556659B2 (ja) | 2016-05-17 | 2016-05-17 | ニューラルネットワークシステム、シェア計算装置、ニューラルネットワークの学習方法、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6556659B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7414655B2 (ja) | 2020-07-01 | 2024-01-16 | 株式会社東芝 | 学習システム、情報処理装置、学習方法およびプログラム |
IL277910A (en) | 2020-10-09 | 2022-05-01 | Google Llc | Privacy-preserving machine learning using a gradient stimulus |
WO2022168257A1 (ja) * | 2021-02-05 | 2022-08-11 | 日本電気株式会社 | 連合学習システム、連合学習装置、連合学習方法および連合学習プログラム |
JP7451445B2 (ja) | 2021-02-10 | 2024-03-18 | 株式会社東芝 | 秘匿演算方法、秘匿演算システム及び秘匿演算管理装置 |
JP2022150498A (ja) * | 2021-03-26 | 2022-10-07 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 学習プログラム、学習方法及び学習装置 |
WO2023188259A1 (ja) * | 2022-03-31 | 2023-10-05 | 日本電信電話株式会社 | 秘密グローバルモデル計算装置、秘密グローバルモデル計算システム構成方法、プログラム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105981088B (zh) * | 2014-01-28 | 2019-05-03 | 日本电信电话株式会社 | 秘密计算方法、秘密计算系统、注册者终端以及记录介质 |
-
2016
- 2016-05-17 JP JP2016098410A patent/JP6556659B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017207839A (ja) | 2017-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6556659B2 (ja) | ニューラルネットワークシステム、シェア計算装置、ニューラルネットワークの学習方法、プログラム | |
EP3771179B1 (en) | Graph data processing method, system and storage medium | |
JP6825138B2 (ja) | プライバシー保護のための分散型マルチパーティセキュリティモデル訓練フレームワーク | |
JP6921233B2 (ja) | 秘密分散を使用したロジスティック回帰モデリング方式 | |
EP3659292B1 (en) | Secure multi-party computation with no trusted initializer | |
US20190294956A1 (en) | Secure data processing | |
CN115943394A (zh) | 用于安全纵向联邦学习的方法、装置和系统 | |
CN112990276B (zh) | 基于自组织集群的联邦学习方法、装置、设备及存储介质 | |
JP5860557B1 (ja) | 秘密公開方法、秘密公開システム、秘密公開装置、およびプログラム | |
WO2022072415A1 (en) | Privacy preserving machine learning using secure multi-party computation | |
CN112805769B (zh) | 秘密s型函数计算系统、装置、方法及记录介质 | |
JP7361928B2 (ja) | 勾配ブースティングを介したプライバシーを守る機械学習 | |
US10748454B2 (en) | Secret computation apparatus, method for the same, and program | |
JP2021501920A (ja) | 信頼できるイニシャライザを用いた秘密共有 | |
KR20220140759A (ko) | 분류 정확도를 향상시키기 위한 기계 학습 모델링 데이터의 처리 | |
US11943277B2 (en) | Conversion system, method and program | |
US11329808B2 (en) | Secure computation device, secure computation authentication system, secure computation method, and program | |
JP7397212B2 (ja) | コンテンツ配信における情報に対するアクセスを保護するためのセキュアなmpcおよびベクトル計算の使用 | |
US20230088588A1 (en) | Security as a service for machine learning | |
JPWO2019009180A1 (ja) | 秘密計算システム、秘密計算装置、秘密計算方法、プログラム、および記録媒体 | |
WO2023188257A1 (ja) | 秘密グローバルモデル計算装置、ローカルモデル登録方法、プログラム | |
WO2023188259A1 (ja) | 秘密グローバルモデル計算装置、秘密グローバルモデル計算システム構成方法、プログラム | |
CN116304644B (zh) | 一种基于联邦学习的数据处理方法、装置、设备及介质 | |
WO2023188258A1 (ja) | 計算装置、計算方法、およびプログラム | |
WO2023188261A1 (ja) | 秘密グローバルモデル計算装置、ローカルモデル登録方法、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180607 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190521 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190610 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190709 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190710 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6556659 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |