JP7279796B2 - 秘密勾配降下法計算方法、秘密深層学習方法、秘密勾配降下法計算システム、秘密深層学習システム、秘密計算装置、およびプログラム - Google Patents
秘密勾配降下法計算方法、秘密深層学習方法、秘密勾配降下法計算システム、秘密深層学習システム、秘密計算装置、およびプログラム Download PDFInfo
- Publication number
- JP7279796B2 JP7279796B2 JP2021539762A JP2021539762A JP7279796B2 JP 7279796 B2 JP7279796 B2 JP 7279796B2 JP 2021539762 A JP2021539762 A JP 2021539762A JP 2021539762 A JP2021539762 A JP 2021539762A JP 7279796 B2 JP7279796 B2 JP 7279796B2
- Authority
- JP
- Japan
- Prior art keywords
- secret
- value
- activation
- gradient
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/06—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols the encryption apparatus using shift registers or memories for block-wise or stream coding, e.g. DES systems or RC4; Hash functions; Pseudorandom sequence generators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/08—Key distribution or management, e.g. generation, sharing or updating, of cryptographic keys or passwords
- H04L9/0816—Key establishment, i.e. cryptographic processes or cryptographic protocols whereby a shared secret becomes available to two or more parties, for subsequent use
- H04L9/085—Secret sharing or secret splitting, e.g. threshold schemes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L2209/00—Additional information or applications relating to cryptographic mechanisms or cryptographic arrangements for secret or secure communication H04L9/00
- H04L2209/04—Masking or blinding
- H04L2209/046—Masking or blinding of operations, operands or results of the operations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L2209/00—Additional information or applications relating to cryptographic mechanisms or cryptographic arrangements for secret or secure communication H04L9/00
- H04L2209/46—Secure multiparty computation, e.g. millionaire problem
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Complex Calculations (AREA)
- Storage Device Security (AREA)
Description
文中で使用する記号「→」「^」は、本来直前の文字の真上に記載されるべきものであるが、テキスト記法の制限により、当該文字の直後に記載する。数式中においてはこれらの記号は本来の位置、すなわち文字の真上に記述している。例えば、「a→」「a^」は数式中では次式で表される。
秘密一括写像はルックアップテーブルを計算する機能であり、定義域と値域を任意に定めることができる技術である。秘密一括写像ではベクトル単位で処理を行うため、複数の入力に対して同じ処理をする際の効率が良いという性質がある。以下に、秘密一括写像の具体的な処理を示す。
シェアの列[a→]:=([a0], …, [am-1])と公開値tとを入力とし、[a→]の各要素をtビット算術右シフトした[b→]:=([b0], …, [bm-1])を出力する。以下、右シフトはrshiftと表す。算術右シフトは左側を0ではなく符号ビットでパディングするシフトであり、論理右シフトrlshiftを用いて、式(1)~(3)のように、rshift([A×2n], n-m)=[A×2m]を構成する。なお、論理右シフトrlshiftの詳細は参考文献2を参照されたい。
単純な勾配降下法では、計算した勾配gに対してw=w-ηg(ηは学習率)という処理を行ってパラメータwを更新する。一方、Adamでは勾配に対して式(4)~(8)の処理を行ってパラメータを更新する。勾配gを計算するまでの処理は、単純な勾配降下法の場合でも、Adamを適用した場合でも同じ処理である。なお、tは何回目の学習かを表す変数であり、gtはt回目の勾配を表す。また、m, v, m^, v^はgと同じ大きさの行列であり、すべて0で初期化されているものとする。・t(上付き添え字のt)はt乗を表す。
第一実施形態では、秘密一括写像を用いて、勾配やパラメータ、計算途中の値を秘匿したまま、勾配降下法の最適化手法Adamを実現する。
入力1: 勾配[G]
入力2: パラメータ[W]
入力3: 0で初期化した[M], [V]
入力4: ハイパーパラメータβ1, β2, β^1,t, β^2,t
入力5: 学習回数t
出力1: 更新したパラメータ[W]
出力2: 更新した[M], [V]
1: [M]←β1[M]+(1-β1)[G]
2: [V]←β2[V]+(1-β2)[G]○[G]
3: [M^]←β^1,t[M]
4: [V^]←β^2,t[V]
5: [G^]←Adam([V^])
6: [G^]←[G^]○[M^]
7: [W]←[W]-[G^]
変形例1では、第一実施形態で用いた秘密一括写像Adamを構成する際に、定義域と値域からなるテーブルの作成方法を工夫する。
変形例2では、第一実施形態で、さらに各変数の精度を表1のように設定する。
入力1: 勾配[G]
入力2: パラメータ[W]
入力3: 0で初期化した[M], [V]
入力4: ハイパーパラメータβ1, β2, β^1,t, β^2,t
入力5: 学習回数t
出力1: 更新したパラメータ[W]
出力2: 更新した[M], [V]
1: [M]←β1[M]+(1-β1)[G] (精度:bw+bβ)
2: [M]←rshift([M],bβ) (精度:bw)
3: [V]←β2[V]+(1-β2)[G]○[G] (精度:2bw+bβ)
4: [V]←rshift([V],bβ) (精度:2bw)
5: [M^]←β^1,t[M] (精度:bw+bβ^_1)
6: [V^]←β^2,t[V] (精度:2bw+bβ^_2)
7: [G^]←Adam([V^]) (精度:bg^)
8: [G^]←[G^]○[M^] (精度:bg^+bw+bβ^_1)
9: [G^]←rshift([G^],bg^+bβ^_1) (精度:bw)
10: [W]←[W]-[G^] (精度:bw)
第二実施形態では、秘密一括写像を用いて実現した最適化手法Adamによってディープラーニングを行う。この例では、学習データ、学習ラベル、パラメータを秘匿したままディープラーニングを行う。隠れ層および出力層で用いる活性化関数は何を用いてもよく、ニューラルネットワークのモデルの形も任意である。ここでは、隠れ層の数がn層のディープニューラルネットワークを学習するものとする。すなわち、Lを層の番号として、入力層はL=0であり、出力層はL=n+1となる。第二実施形態によれば、単純な勾配降下法を用いた従来技術と比較して、少ない学習回数であっても良い学習結果を得られる。
入力1: 学習データの特徴量[X]
入力2: 学習データの正解ラベル[T]
入力3: l層とl+1層間のパラメータ[Wl]
出力: 更新したパラメータ[Wl]
1: すべての[W]を初期化
2: (1)順伝搬の計算
3: [U1]←[W0]・[X]
4: [Y1]←Activation([U1])
5: for i=1 to n-1 do
6: [Ui+1]←[Wi]・[Yi]
7: [Yi+1]←Activation([Ui+1])
8: end for
9: [Un+1]←[Wn]・[Yn]
10: [Yn+1]←Activation2([Un+1])
11: (2)逆伝搬の計算
12: [Zn+1]←Activation2'([Yn+1],[T])
13: [Zn]←Activation'([Un])○([Zn+1]・[Wn])
14: for i=1 to n-1 do
15: [Zn-i]←Activation'([Un-i])○([Zn-i+1]・[Wn-i])
16: end for
17: (3)勾配の計算
18: [G0]←[Z1]・[X]
19: for i=1 to n-1 do
20: [Gi]←[Zi+1]・[Yi]
21: end for
22: [Gn]←[Zn+1]・[Yn]
23: (4)パラメータの更新
24: [G0]←rshift([G0],H')
25: for i=1 to n-1 do
26: [Gi]←rshift([Gi],H')
27: end for
28: [Gn]←rshift([Gn],H')
29: for i=0 to n do
30: [Mi]←β1[Mi]+(1-β1)[Gi]
31: [Vi]←β2[Vi]+(1-β2)[Gi]○[Gi]
32: [M^i]←β^1,t[Mi]
33: [V^i]←β^2,t[Vi]
34: [G^i]←Adam([V^i])
35: [G^i]←[G^i]○[M^i]
36: [Wi]←[Wi]-[G^i]
37: end for
第二実施形態のディープラーニングで、学習に用いる各値の精度を表2のように設定する。wは各層の間のパラメータ、xは学習データ、tは各学習データに対応する正解データ(教師データ)である。隠れ層の活性化関数の出力は、正解データの精度と同じになるように処理する。また、g^は秘密一括写像Adamの計算によって得られる値である。
入力1: 学習データの特徴量[X]
入力2: 学習データの正解ラベル[T]
入力3: l層とl+1層間のパラメータ[Wl]
出力: 更新したパラメータ[Wl]
1: すべての[W]を初期化 (精度:bw)
2: (1)順伝搬の計算
3: [U1]←[W0]・[X] (精度:bw+bx)
4: [Y1]←ReLU([U1]) (精度:bw+bx)
5: for i=1 to n-1 do
6: [Ui+1]←[Wi]・[Yi] (精度:2bw+bx)
7: [Yi+1]←ReLU([Ui+1]) (精度:2bw+bx)
8: [Yi+1]←rshift([Yi+1],bw) (精度:bw+bx)
9: end for
10: [Un+1]←[Wn]・[Yn] (精度:2bw+bx)
11: [Yn+1]←softmax([Un+1]) (精度:by)
12: (2)逆伝搬の計算
13: [Zn+1]←[Yn+1]-[T] (精度:by)
14: [Zn]←ReLU'([Un])○([Zn+1]・[Wn]) (精度:bw+by)
15: [Zn]←rshift([Zn],by) (精度:bw)
16: for i=1 to n-1 do
17: [Zn-i]←ReLU'([Un-i])○([Zn-i+1]・[Wn-i]) (精度:2bw)
18: [Zn-i]←rshift([Zn-i],bw) (精度:bw)
19: end for
20: (3)勾配の計算
21: [G0]←[Z1]・[X] (精度:bw+bx)
22: for i=1 to n-1 do
23: [Gi]←[Zi+1]・[Yi] (精度:2bw+bx)
24: end for
25: [Gn]←[Zn+1]・[Yn] (精度:bw+bx+by)
26: (4)パラメータの更新
27: [G0]←rshift([G0],bx+H') (精度:bw)
28: for i=1 to n-1 do
29: [Gi]←rshift([Gi],bw+bx+H') (精度:bw)
30: end for
31: [Gn]←rshift([Gn],bx+by+H') (精度:bw)
32: for i=0 to n do
33: [Mi]←β1[Mi]+(1-β1)[Gi] (精度:bw+bβ)
34: [Mi]←rshift([Mi],bβ) (精度:bw)
35: [Vi]←β2[Vi]+(1-β2)[Gi]○[Gi] (精度:2bw+bβ)
36: [Vi]←rshift([Vi],bβ) (精度:2bw)
37: [M^i]←β^1,t[Mi] (精度:bw+bβ^_1)
38: [V^i]←β^2,t[Vi] (精度:2bw+bβ^_2)
39: [G^i]←Adam([V^i]) (精度:bg^)
40: [G^i]←[G^i]○[M^i] (精度:bg^+bw+bβ^_1)
41: [G^i]←rshift([G^i],bg^+bβ^_1) (精度:bw)
42: [Wi]←[Wi]-[G^i] (精度:bw)
43: end for
本発明では、勾配降下法の最適化手法Adamに含まれる平方根や除算といった秘密計算が苦手とする計算をまとめて1つの関数とみなすことで、1回の秘密一括写像で最適化手法Adamの処理を効率的に行えるようにした。これによって、秘密計算上で機械学習を行う従来技術よりも少ない回数での学習が可能になり、全体の処理時間を短く抑えることができる。この最適化手法は機械学習モデルの形は問わず、勾配降下法を用いて学習する場合であればどのようなモデルにも適用できる。例えば、ニューラルネットワーク(ディープラーニング)やロジスティック回帰、線形回帰といった様々な機械学習で用いることができる。
上記実施形態で説明した各装置における各種の処理機能をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムを図8に示すコンピュータの記憶部1020に読み込ませ、制御部1010、入力部1030、出力部1040などに動作させることにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
Claims (8)
- 複数の秘密計算装置を含む秘密勾配降下法計算システムが実行する、少なくとも勾配GとパラメータWとを秘匿したまま勾配降下法を計算する秘密勾配降下法計算方法であって、
β1, β2, η, εは予め定めたハイパーパラメータとし、○は要素ごとの積とし、tは学習回数とし、[G]は上記勾配Gの秘匿値とし、[W]は上記パラメータWの秘匿値とし、[M], [M^], [V], [V^], [G^]は上記勾配Gと要素数が等しい行列M, M^, V, V^, G^の秘匿値とし、β^1,t, β^2,t, g^を次式とし、
Adamは値v^の行列V^の秘匿値[V^]を入力として値g^の行列G^の秘匿値[G^]を出力する秘密一括写像を計算する関数とし、
各秘密計算装置のパラメータ更新部が、[M]←β1[M]+(1-β1)[G]を計算し、
上記パラメータ更新部が、[V]←β2[V]+(1-β2)[G]○[G]を計算し、
上記パラメータ更新部が、[M^]←β^1,t[M]を計算し、
上記パラメータ更新部が、[V^]←β^2,t[V]を計算し、
上記パラメータ更新部が、[G^]←Adam([V^])を計算し、
上記パラメータ更新部が、[G^]←[G^]○[M^]を計算し、
上記パラメータ更新部が、[W]←[W]-[G^]を計算する、
秘密勾配降下法計算方法。 - 請求項1に記載の秘密勾配降下法計算方法であって、
rshiftは算術右シフトとし、bβはβ1およびβ2の精度とし、bβ^_1はβ^1,tの精度とし、bg^はg^の精度とし、
上記パラメータ更新部が、[M]←β1[M]+(1-β1)[G]を計算した後に、[M]←rshift([M],bβ)を計算し、
上記パラメータ更新部が、[V]←β2[V]+(1-β2)[G]○[G]を計算した後に、[V]←rshift([V],bβ)を計算し、
上記パラメータ更新部が、[G^]←[G^]○[M^]を計算した後に、[G^]←rshift([G^],bg^+bβ^_1)を計算する、
秘密勾配降下法計算方法。 - 複数の秘密計算装置を含む秘密深層学習システムが実行する、少なくとも学習データの特徴量Xと学習データの正解データTとパラメータWとを秘匿したままディープニューラルネットワークを学習する秘密深層学習方法であって、
β1, β2, η, εは予め定めたハイパーパラメータとし、・は行列の積とし、○は要素ごとの積とし、tは学習回数とし、[G]は勾配Gの秘匿値とし、[W]は上記パラメータWの秘匿値とし、[X]は上記学習データの特徴量Xの秘匿値とし、[T]は上記学習データの正解ラベルTの秘匿値とし、[M], [M^], [V], [V^], [G^], [U], [Y], [Z]は上記勾配Gと要素数が等しい行列M, M^, V, V^, G^, U, Y, Zの秘匿値とし、β^1,t, β^2,t, g^を次式とし、
Adamは値v^の行列V^の秘匿値[V^]を入力として値g^の行列G^の秘匿値[G^]を出力する秘密一括写像を計算する関数とし、rshiftは算術右シフトとし、mは1回の学習に用いる学習データの数とし、H'は次式とし、
nは上記ディープニューラルネットワークの隠れ層の数とし、Activationは上記隠れ層の活性化関数とし、Activation2は上記ディープニューラルネットワークの出力層の活性化関数とし、Activation2'は上記活性化関数Activation2に対応する損失関数とし、Activation'は上記活性化関数Activationの微分とし、
各秘密計算装置の順伝搬計算部が、[U1]←[W0]・[X]を計算し、
上記順伝搬計算部が、[Y1]←Activation([U1])を計算し、
上記順伝搬計算部が、1以上n-1以下の各iについて[Ui+1]←[Wi]・[Yi]を計算し、
上記順伝搬計算部が、1以上n-1以下の各iについて[Yi+1]←Activation([Ui+1])を計算し、
上記順伝搬計算部が、[Un+1]←[Wn]・[Yn]を計算し、
上記順伝搬計算部が、[Yn+1]←Activation2([Un+1])を計算し、
各秘密計算装置の逆伝搬計算部が、[Zn+1]←Activation2'([Yn+1],[T])を計算し、
上記逆伝搬計算部が、[Zn]←Activation'([Un])○([Zn+1]・[Wn])を計算し、
上記逆伝搬計算部が、1以上n-1以下の各iについて[Zn-i]←Activation'([Un-i])○([Zn-i+1]・[Wn-i])を計算し、
各秘密計算装置の勾配計算部が、[G0]←[Z1]・[X]を計算し、
上記勾配計算部が、1以上n-1以下の各iについて[Gi]←[Zi+1]・[Yi]を計算し、
上記勾配計算部が、[Gn]←[Zn+1]・[Yn]を計算し、
各秘密計算装置のパラメータ更新部が、[G0]←rshift([G0],H')を計算し、
上記パラメータ更新部が、1以上n-1以下の各iについて[Gi]←rshift([Gi],H')を計算し、
上記パラメータ更新部が、[Gn]←rshift([Gn],H')を計算し、
上記パラメータ更新部が、0以上n以下の各iについて、請求項1に記載の秘密勾配降下法計算方法により、i層とi+1層間の勾配[Gi]を用いてi層とi+1層間のパラメータ[Wi]を学習する、
秘密深層学習方法。 - 請求項3に記載の秘密深層学習方法であって、
bwはwの精度とし、byはYの要素の精度とし、bβはβ1およびβ2の精度とし、bβ^_1はβ^1,tの精度とし、bg^はg^の精度とし、
上記順伝搬計算部が、[Yi+1]←Activation([Ui+1])を計算した後に、[Yi+1]←rshift([Yi+1],bw)を計算し、
上記逆伝搬計算部が、[Zn]←Activation'([Un])○([Zn+1]・[Wn])を計算した後に、[Zn]←rshift([Zn],by)を計算し、
各上記逆伝搬計算部が、[Zn-i]←Activation'([Un-i])○([Zn-i+1]・[Wn-i])を計算した後に、[Zn-i]←rshift([Zn-i],bw)を計算し、
上記パラメータ更新部が、0以上n以下の各iについて、請求項2に記載の秘密勾配降下法計算方法により、i層とi+1層間の勾配[Gi]を用いてi層とi+1層間のパラメータ[Wi]を学習する、
秘密深層学習方法。 - 複数の秘密計算装置を含み、少なくとも勾配GとパラメータWとを秘匿したまま勾配降下法を計算する秘密勾配降下法計算システムであって、
β1, β2, η, εは予め定めたハイパーパラメータとし、○は要素ごとの積とし、tは学習回数とし、[G]は上記勾配Gの秘匿値とし、[W]は上記パラメータWの秘匿値とし、[M], [M^], [V], [V^], [G^]は上記勾配Gと要素数が等しい行列M, M^, V, V^, G^の秘匿値とし、β^1,t, β^2,t, g^を次式とし、
Adamは値v^の行列V^の秘匿値[V^]を入力として値g^の行列G^の秘匿値[G^]を出力する秘密一括写像を計算する関数とし、
各秘密計算装置は、
[M]←β1[M]+(1-β1)[G]と、[V]←β2[V]+(1-β2)[G]○[G]と、[M^]←β^1,t[M]と、[V^]←β^2,t[V]と、[G^]←Adam([V^])と、[G^]←[G^]○[M^]と、[W]←[W]-[G^]とを計算するパラメータ更新部を含む、
秘密勾配降下法計算システム。 - 複数の秘密計算装置を含み、少なくとも学習データの特徴量Xと学習データの正解データTとパラメータWとを秘匿したままディープニューラルネットワークを学習する秘密深層学習システムであって、
β1, β2, η, εは予め定めたハイパーパラメータとし、・は行列の積とし、○は要素ごとの積とし、tは学習回数とし、[G]は勾配Gの秘匿値とし、[W]は上記パラメータWの秘匿値とし、[X]は上記学習データの特徴量Xの秘匿値とし、[T]は上記学習データの正解ラベルTの秘匿値とし、[M], [M^], [V], [V^], [G^], [U], [Y], [Z]は上記勾配Gと要素数が等しい行列M, M^, V, V^, G^, U, Y, Zの秘匿値とし、β^1,t, β^2,t, g^を次式とし、
Adamは値v^の行列V^の秘匿値[V^]を入力として値g^の行列G^の秘匿値[G^]を出力する秘密一括写像を計算する関数とし、rshiftは算術右シフトとし、mは1回の学習に用いる学習データの数とし、H'は次式とし、
nは上記ディープニューラルネットワークの隠れ層の数とし、Activationは上記隠れ層の活性化関数とし、Activation2は上記ディープニューラルネットワークの出力層の活性化関数とし、Activation2'は上記活性化関数Activation2に対応する損失関数とし、Activation'は上記活性化関数Activationの微分とし、
各秘密計算装置は、
[U1]←[W0]・[X]と、[Y1]←Activation([U1])と、1以上n-1以下の各iについての[Ui+1]←[Wi]・[Yi], [Yi+1]←Activation([Ui+1])と、[Un+1]←[Wn]・[Yn]と、[Yn+1]←Activation2([Un+1])とを計算する順伝搬計算部と、
[Zn+1]←Activation2'([Yn+1],[T])と、[Zn]←Activation'([Un])○([Zn+1]・[Wn])と、1以上n-1以下の各iについての[Zn-i]←Activation'([Un-i])○([Zn-i+1]・[Wn-i])とを計算する逆伝搬計算部と、
[G0]←[Z1]・[X]と、1以上n-1以下の各iについての[Gi]←[Zi+1]・[Yi]と、[Gn]←[Zn+1]・[Yn]とを計算する勾配計算部と、
[G0]←rshift([G0],H')と、1以上n-1以下の各iについての[Gi]←rshift([Gi],H')と、[Gn]←rshift([Gn],H')とを計算し、0以上n以下の各iについて、請求項5に記載の秘密勾配降下法計算システムにより、i層とi+1層間の勾配[Gi]を用いてi層とi+1層間のパラメータ[Wi]を学習するパラメータ更新部と、
を含む秘密深層学習システム。 - 請求項5に記載の秘密勾配降下法計算システムまたは請求項6に記載の秘密深層学習システムにおいて用いられる秘密計算装置。
- 請求項7に記載の秘密計算装置としてコンピュータを機能させるためのプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/031941 WO2021029034A1 (ja) | 2019-08-14 | 2019-08-14 | 秘密勾配降下法計算方法、秘密深層学習方法、秘密勾配降下法計算システム、秘密深層学習システム、秘密計算装置、およびプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021029034A1 JPWO2021029034A1 (ja) | 2021-02-18 |
JPWO2021029034A5 JPWO2021029034A5 (ja) | 2022-04-20 |
JP7279796B2 true JP7279796B2 (ja) | 2023-05-23 |
Family
ID=74570940
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021539762A Active JP7279796B2 (ja) | 2019-08-14 | 2019-08-14 | 秘密勾配降下法計算方法、秘密深層学習方法、秘密勾配降下法計算システム、秘密深層学習システム、秘密計算装置、およびプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220329408A1 (ja) |
EP (1) | EP4016507A4 (ja) |
JP (1) | JP7279796B2 (ja) |
CN (1) | CN114207694B (ja) |
AU (1) | AU2019461061B2 (ja) |
WO (1) | WO2021029034A1 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160020904A1 (en) | 2013-03-04 | 2016-01-21 | Thomson Licensing | Method and system for privacy-preserving recommendation based on matrix factorization and ridge regression |
WO2017183587A1 (ja) | 2016-04-18 | 2017-10-26 | 日本電信電話株式会社 | 学習装置、学習方法および学習プログラム |
JP2018156619A (ja) | 2017-03-16 | 2018-10-04 | 株式会社デンソー | 連続最適化問題の大域的探索装置及びプログラム |
JP2019008383A (ja) | 2017-06-21 | 2019-01-17 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体 |
JP2019113777A (ja) | 2017-12-26 | 2019-07-11 | 株式会社アクセル | 処理装置、処理方法、処理プログラム、及び暗号処理システム |
JP2019113761A (ja) | 2017-12-25 | 2019-07-11 | 株式会社アクセル | 処理装置、処理方法、処理プログラム、及び暗号処理システム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09106390A (ja) * | 1995-10-12 | 1997-04-22 | Sumitomo Metal Ind Ltd | ニューラルネットワーク |
JP4354609B2 (ja) * | 1999-07-16 | 2009-10-28 | パナソニック株式会社 | 有限体上の連立方程式求解装置及び逆元演算装置 |
CN100353342C (zh) * | 2003-09-26 | 2007-12-05 | 日本电信电话株式会社 | 标签隐私保护方法、标签装置、后端装置 |
JP6309432B2 (ja) * | 2014-11-12 | 2018-04-11 | 日本電信電話株式会社 | 秘密計算システム及び方法並びに管理サーバ及びプログラム |
CN109328377B (zh) * | 2016-07-06 | 2021-12-21 | 日本电信电话株式会社 | 秘密计算系统、秘密计算装置、秘密计算方法、以及程序 |
US11200346B2 (en) * | 2016-07-06 | 2021-12-14 | Nippon Telegraph And Telephone Corporation | Secure computation for reading multiple elements from a secure text array |
KR101852116B1 (ko) * | 2016-11-15 | 2018-04-25 | 재단법인대구경북과학기술원 | 디노이징 장치 및 노이즈 제거 방법 |
EP4220464A1 (en) * | 2017-03-22 | 2023-08-02 | Visa International Service Association | Privacy-preserving machine learning |
JP7272363B2 (ja) * | 2017-08-30 | 2023-05-12 | インファー,インク. | 高精度プライバシ保護実数値関数評価 |
US11816575B2 (en) * | 2018-09-07 | 2023-11-14 | International Business Machines Corporation | Verifiable deep learning training service |
CN110084063B (zh) * | 2019-04-23 | 2022-07-15 | 中国科学技术大学 | 一种保护隐私数据的梯度下降计算方法 |
-
2019
- 2019-08-14 EP EP19941104.2A patent/EP4016507A4/en active Pending
- 2019-08-14 JP JP2021539762A patent/JP7279796B2/ja active Active
- 2019-08-14 US US17/634,237 patent/US20220329408A1/en active Pending
- 2019-08-14 AU AU2019461061A patent/AU2019461061B2/en active Active
- 2019-08-14 WO PCT/JP2019/031941 patent/WO2021029034A1/ja unknown
- 2019-08-14 CN CN201980099184.2A patent/CN114207694B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160020904A1 (en) | 2013-03-04 | 2016-01-21 | Thomson Licensing | Method and system for privacy-preserving recommendation based on matrix factorization and ridge regression |
WO2017183587A1 (ja) | 2016-04-18 | 2017-10-26 | 日本電信電話株式会社 | 学習装置、学習方法および学習プログラム |
JP2018156619A (ja) | 2017-03-16 | 2018-10-04 | 株式会社デンソー | 連続最適化問題の大域的探索装置及びプログラム |
JP2019008383A (ja) | 2017-06-21 | 2019-01-17 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体 |
JP2019113761A (ja) | 2017-12-25 | 2019-07-11 | 株式会社アクセル | 処理装置、処理方法、処理プログラム、及び暗号処理システム |
JP2019113777A (ja) | 2017-12-26 | 2019-07-11 | 株式会社アクセル | 処理装置、処理方法、処理プログラム、及び暗号処理システム |
Non-Patent Citations (2)
Title |
---|
三品 気吹 ほか,秘密計算によるロジスティック回帰は本当に使えるか?,2019年暗号と情報セキュリティシンポジウム予稿集,日本,一般社団法人電子情報通信学会,2019年01月15日,4C2-3,p. 1-8 |
三品 気吹 ほか,高精度かつ高効率な秘密ロジスティック回帰の設計と実装,コンピュータセキュリティシンポジウム2018論文集,日本,一般社団法人情報処理学会,2018年10月15日,Vol.2018, No.2,p.1229-1236 |
Also Published As
Publication number | Publication date |
---|---|
EP4016507A4 (en) | 2023-05-10 |
WO2021029034A1 (ja) | 2021-02-18 |
CN114207694A (zh) | 2022-03-18 |
EP4016507A1 (en) | 2022-06-22 |
US20220329408A1 (en) | 2022-10-13 |
AU2019461061A1 (en) | 2022-03-03 |
AU2019461061B2 (en) | 2023-03-30 |
JPWO2021029034A1 (ja) | 2021-02-18 |
CN114207694B (zh) | 2024-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11354539B2 (en) | Encrypted data model verification | |
US11087223B2 (en) | Learning and inferring insights from encrypted data | |
Wu et al. | Batch gradient method with smoothing L1/2 regularization for training of feedforward neural networks | |
EP3863002B1 (en) | Hidden sigmoid function calculation system, hidden logistic regression calculation system, hidden sigmoid function calculation device, hidden logistic regression calculation device, hidden sigmoid function calculation method, hidden logistic regression calculation method, and program | |
EP3863003B1 (en) | Hidden sigmoid function calculation system, hidden logistic regression calculation system, hidden sigmoid function calculation device, hidden logistic regression calculation device, hidden sigmoid function calculation method, hidden logistic regression calculation method, and program | |
JP6942900B1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US11681939B2 (en) | Quantum data loader | |
Joshi | Support vector machines | |
WO2021029024A1 (ja) | 秘密ソフトマックス関数計算システム、秘密ソフトマックス関数計算装置、秘密ソフトマックス関数計算方法、秘密ニューラルネットワーク計算システム、秘密ニューラルネットワーク学習システム、プログラム | |
US20190180185A1 (en) | Random matrix hardware for machine learning | |
Mojarrad et al. | A new variable shape parameter strategy for RBF approximation using neural networks | |
JP7279796B2 (ja) | 秘密勾配降下法計算方法、秘密深層学習方法、秘密勾配降下法計算システム、秘密深層学習システム、秘密計算装置、およびプログラム | |
EP3806071B1 (en) | Secret collective approximation system, secret calculation device, secret collective approximation method, and program | |
Zhao et al. | Quantum-inspired variational algorithms for partial differential equations: application to financial derivative pricing | |
Bourne et al. | Geometric modelling of polycrystalline materials: Laguerre tessellations and periodic semi-discrete optimal transport | |
JP6825119B2 (ja) | 秘密読み込み装置、秘密書き込み装置、それらの方法、およびプログラム | |
Niu et al. | R package for statistical inference in dynamical systems using kernel based gradient matching: KGode | |
JP7398401B2 (ja) | 最適化方法、情報処理装置及びそれを用いたシステム | |
US20230421350A1 (en) | Optimal profile selection for fhe based analytical models | |
US20230306237A1 (en) | Identify and avoid overflow during machine learning (ml) inference with homomorphic encryption | |
Lazovskaya et al. | Polynomial Neural Network Approximation of Duffing Equation Solution | |
Sun | Privacy-Preserving Logistic Regression Training with A Faster Gradient Variant | |
Knechtli et al. | Monte Carlo Methods | |
Elouerkhaoui | The Homogeneous Transformation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220203 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220203 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230424 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7279796 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |