JPWO2020071441A1 - 秘密シグモイド関数計算システム、秘密ロジスティック回帰計算システム、秘密シグモイド関数計算装置、秘密ロジスティック回帰計算装置、秘密シグモイド関数計算方法、秘密ロジスティック回帰計算方法、プログラム - Google Patents

秘密シグモイド関数計算システム、秘密ロジスティック回帰計算システム、秘密シグモイド関数計算装置、秘密ロジスティック回帰計算装置、秘密シグモイド関数計算方法、秘密ロジスティック回帰計算方法、プログラム Download PDF

Info

Publication number
JPWO2020071441A1
JPWO2020071441A1 JP2020550513A JP2020550513A JPWO2020071441A1 JP WO2020071441 A1 JPWO2020071441 A1 JP WO2020071441A1 JP 2020550513 A JP2020550513 A JP 2020550513A JP 2020550513 A JP2020550513 A JP 2020550513A JP WO2020071441 A1 JPWO2020071441 A1 JP WO2020071441A1
Authority
JP
Japan
Prior art keywords
share
secret
grad
eta
bit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020550513A
Other languages
English (en)
Other versions
JP7092206B2 (ja
Inventor
気吹 三品
気吹 三品
大 五十嵐
大 五十嵐
浩気 濱田
浩気 濱田
亮 菊池
亮 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2020071441A1 publication Critical patent/JPWO2020071441A1/ja
Application granted granted Critical
Publication of JP7092206B2 publication Critical patent/JP7092206B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/08Key distribution or management, e.g. generation, sharing or updating, of cryptographic keys or passwords
    • H04L9/0816Key establishment, i.e. cryptographic processes or cryptographic protocols whereby a shared secret becomes available to two or more parties, for subsequent use
    • H04L9/085Secret sharing or secret splitting, e.g. threshold schemes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09CCIPHERING OR DECIPHERING APPARATUS FOR CRYPTOGRAPHIC OR OTHER PURPOSES INVOLVING THE NEED FOR SECRECY
    • G09C1/00Apparatus or methods whereby a given sequence of signs, e.g. an intelligible text, is transformed into an unintelligible sequence of signs by transposing the signs or groups of signs or by replacing them by others according to a predetermined system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/38Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
    • G06F7/48Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
    • G06F7/544Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L2209/00Additional information or applications relating to cryptographic mechanisms or cryptographic arrangements for secret or secure communication H04L9/00
    • H04L2209/46Secure multiparty computation, e.g. millionaire problem
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/008Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols involving homomorphic encryption

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Analysis (AREA)
  • Computing Systems (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Complex Calculations (AREA)
  • Storage Device Security (AREA)

Abstract

mapσをシグモイド関数σ(x)の定義域を表すパラメータ(a0, …, ak-1)と値域を表すパラメータ(σ(a0), …, σ(ak-1)) (a0, …, ak-1はa0<…<ak-1を満たす実数)により定義される秘密一括写像とし、3個以上の秘密シグモイド関数計算装置で構成され、入力ベクトルxのシェア[[x]]から、入力ベクトルxに対するシグモイド関数の値yのシェア[[y]]を計算する秘密シグモイド関数計算システムであって、[[y]]= mapσ([[x]])= ([[σ(af(0))]], …, [[σ(af(m-1))]]) (ただし、f(i)(0≦i≦m-1)は、aj≦xi<aj+1となるj)により、シェア[[y]]を計算する秘密一括写像計算手段とを含む。

Description

本発明は、秘密計算技術に関する。特に、本発明は、シグモイド関数を秘密計算する技術、又は、ロジスティック回帰モデルのモデルパラメータを秘密計算する技術に関する。
シグモイド関数を秘密計算するための従来の方法として、完全準同型暗号ベースの秘密計算で3次多項式近似するもの(非特許文献1)、加法準同型暗号ベースの秘密計算で多項式近似するもの(非特許文献2、非特許文献3)がある。
ここで、秘密計算とは、暗号化された数値を復元することなく指定された演算の演算結果を得る方法のことである(例えば参考非特許文献1参照)。参考非特許文献1の方法では、数値を復元することのできる複数の情報を3つの秘密計算装置に分散するという暗号化を行い、数値を復元することなく、加減算、定数和、乗算、定数倍、論理演算(否定、論理積、論理和、排他的論理和)、データ形式変換(整数、二進数)の結果を3つの秘密計算装置に分散された状態、すなわち暗号化されたまま保持させることができる。一般に、分散数は3に限らずW(Wは3以上の所定の定数)とすることができ、W個の秘密計算装置による協調計算によって秘密計算を実現するプロトコルはマルチパーティプロトコルと呼ばれる。
(参考非特許文献1:千田浩司,濱田浩気,五十嵐大,高橋克巳,“軽量検証可能3パーティ秘匿関数計算の再考”,In CSS,2010.)
Kyoohyung Han, Seungwan Hong, Jung Hee Cheon, and Daejun Park, "Efficient logistic regression on large encrypted data", https://eprint.iacr.org/2018/662.pdf, 2018. 呉双, 照屋唯紀, 川本淳平, 佐久間淳, 菊池浩明, "Privacy-preservation for stochastic gradient descent", 2013年度人工知能学会全国大会(第27 回) 論文集, https://www.jstage.jst.go.jp/article/pjsai/JSAI2013/0/JSAI2013_3L1OS06a3/_pdf/-char/ja, 一般社団法人人工知能学会, 2013. 青野良範, 林卓也, レチュウフォン, 王立華, "大規模かつプライバシー保護を可能とするロジスティック解析手法の提案", In SCIS2016, 2016.
しかし、シグモイド関数は、次式で表される非線形関数であり(図1参照)、精度と処理速度の2つを両立させてシグモイド関数を秘密計算するのは容易ではない。
Figure 2020071441
非特許文献1〜3に記載の方法は、いずれも近似精度がよくない上に、xの定義域によって毎回近似式を作り直す必要があるため、実用性に欠ける。また、近似多項式は次数を増やすほどその近似精度は向上するが、そのぶん掛け算の回数が増えるため処理が遅くなるという問題がある。
そこで本発明は、高速かつ高精度にシグモイド関数を秘密計算する技術を提供することを目的とする。または、本発明は、シグモイド関数を秘密計算する技術を用いて、高速かつ高精度にロジスティック回帰モデルのモデルパラメータを秘密計算する技術を提供することを目的とする。
本発明の一態様による秘密シグモイド関数計算システムは、mapσをシグモイド関数σ(x)の定義域を表すパラメータ(a0, …, ak-1)と値域を表すパラメータ(σ(a0), …, σ(ak-1)) (ただし、kは1以上の整数、a0, …, ak-1はa0<…<ak-1を満たす実数)により定義される秘密一括写像とし、3個以上の秘密シグモイド関数計算装置で構成され、入力ベクトルx=(x0, …, xm-1)のシェア[[x]]=([[x0]], …, [[xm-1]])から、入力ベクトルxに対するシグモイド関数の値y=(y0, …, ym-1)のシェア[[y]]=([[y0]], …, [[ym-1]])を計算する秘密シグモイド関数計算システムであって、前記シェア[[x]]から、mapσ([[x]])=([[σ(af(0))]], …, [[σ(af(m-1))]])(ただし、f(i)(0≦i≦m-1)は、aj≦xi<aj+1となるj)を計算し、([[y0]], …, [[ym-1]])= ([[σ(af(0))]], …, [[σ(af(m-1))]])により、前記シェア[[y]]を計算する秘密一括写像計算手段とを含む。
本発明の一態様による秘密ロジスティック回帰計算システムは、mを1以上の整数、ηを0<η<1を満たす実数、Sigmoid([[x]])を請求項1に記載の秘密シグモイド関数計算システムを用いて入力ベクトルxのシェア[[x]]から、入力ベクトルxに対するシグモイド関数の値yのシェア[[y]]を計算する関数とし、3個以上の秘密ロジスティック回帰計算装置で構成され、説明変数のデータxi のシェア[[xi ]](0≦i≦m-1)、目的変数のデータyiのシェア[[yi]](0≦i≦m-1)から、ロジスティック回帰モデルのモデルパラメータwのシェア[[w]]を計算する秘密ロジスティック回帰計算システムであって、モデルパラメータwの初期値w0 のシェア[[w0 ]]を設定する初期化手段と、i=0, …, m-1に対して、t回更新を行ったモデルパラメータwの値wt のシェア[[wt ]]と前記シェア[[xi ]]から、[[bi]]=hpsum([[wt ]], [[(1, xi )]])により、[[bi]]を計算し、前記[[bi]] (0≦i≦m-1)から、([[c0]],…, [[cm-1]])=Sigmoid(([[b0]],…, [[bm-1]]))により、([[c0]],…, [[cm-1]])を計算し、i=0, …, m-1に対して、前記シェア[[yi]]と前記([[c0]],…, [[cm-1]])の第i要素[[ci]]から、[[di]]=[[ci]]-[[yi]]により、誤差[[di]]を計算する誤差計算手段と、j=0, …, nに対して、前記誤差[[di]] (0≦i≦m-1)と前記シェア[[xi ]]の第j要素[[xi,j]] (0≦i≦m-1)から、[[e]]=Σi=0 m-1[[di]][[xi,j]]により、[[e]]を計算し、前記シェア[[wt ]]の第j要素[[wj,t]]と前記[[e]]から、[[wj,t+1]]=[[wj,t]]-η(1/m)[[e]]により、t+1回更新を行ったモデルパラメータwの値wt+1 のシェア[[wt+1 ]]の第j要素[[wj,t+1]]を計算するモデルパラメータ更新手段とを含む。
本発明の一態様による秘密ロジスティック回帰計算システムは、mを1以上の整数、ηを0<η<1を満たす実数、Sigmoid([[x]])を請求項1に記載の秘密シグモイド関数計算システムを用いて入力ベクトルxのシェア[[x]]から、入力ベクトルxに対するシグモイド関数の値yのシェア[[y]]を計算する関数とし、秘密計算の対象となる任意の値をpとし、pの精度をb_p[bit]と表記した場合には、pのシェア[[p]]は実際には[[p×2b_p]]という固定小数点数のシェアであることを表し、秘密計算の対象となる任意のベクトルをqとし、qの要素をqiとし、qの精度をb_q[bit]と表記した場合には、qのシェア[[q]]は実際には[[qi×2b_q]]という固定小数点数のシェアにより構成されることを表し、w,w0 ,wt ,wt+1 ,eta_grad_ave_shiftの精度をb_w[bit]と表記し、xi (0≦i≦m-1)の精度をb_x[bit]と表記し、yi(0≦i≦m-1),ci(0≦i≦m-1),di(0≦i≦m-1)の精度をb_y[bit]と表記し、ηの精度をb_η[bit]と表記し、学習データ数の逆数1/mの精度をb_m+H[bit]と表記し、bi(0≦i≦m-1)の精度をb_w+b_x[bit]と表記し、eの精度をb_y+b_x[bit]と表記し、eta_gradの精度をb_y+b_x+b_η[bit]と表記し、eta_grad_shiftの精度をb_tmp[bit]と表記し、eta_grad_aveの精度をb_tmp+b_m+H[bit]と表記し、b_w,b_x,b_y,b_η,b_m,H,b_tmpを予め定められた正の整数とし、rshift(a,b)は、aという値をb[bit]だけ算術右シフトすることを表わすとして、3個以上の秘密ロジスティック回帰計算装置で構成され、説明変数のデータxi のシェア[[xi ]](0≦i≦m-1)、目的変数のデータyiのシェア[[yi]](0≦i≦m-1)から、ロジスティック回帰モデルのモデルパラメータwのシェア[[w]]を計算する秘密ロジスティック回帰計算システムであって、モデルパラメータwの初期値w0 のシェア[[w0 ]]を設定する初期化手段と、i=0, …, m-1に対して、t回更新を行ったモデルパラメータwの値wt のシェア[[wt ]]と前記シェア[[xi ]]から、[[bi]]=hpsum([[wt ]], [[(1, xi )]])により、[[bi]]を計算し、前記[[bi]] (0≦i≦m-1)から、([[c0]],…, [[cm-1]])=Sigmoid(([[b0]],…, [[bm-1]]))により、([[c0]],…, [[cm-1]])を計算し、i=0, …, m-1に対して、前記シェア[[yi]]と前記([[c0]],…, [[cm-1]])の第i要素[[ci]]から、[[di]]=[[ci]]-[[yi]]により、誤差[[di]]を計算する誤差計算手段と、j=0, …, nに対して、前記誤差[[di]] (0≦i≦m-1)と前記シェア[[xi ]]の第j要素[[xi,j]] (0≦i≦m-1)から、[[e]]=Σi=0 m-1[[di]][[xi,j]]により、[[e]]を計算し、前記η及び前記[[e]]から、[[eta_grad]]=η[[e]]により、[[eta_grad]]を計算し、前記[[eta_grad]]から、[[eta_grad_shift]]=rshift([[eta_grad]], b_y+b_x+b_η-b_tmp)により、[[eta_grad_shift]]を計算し、前記[[eta_grad_shift]]から、[[eta_grad_ave]]=(1/m)[[eta_grad_shift]]により、[[eta_grad_ave]]を計算し、前記[[eta_grad_ave]]から、[[eta_grad_ave_shift]]=rshift([[eta_grad_ave]], b_tmp+b_m+H-b_w)により、[[eta_grad_ave_shift]]を計算し、前記シェア[[wt ]]の第j要素[[wj,t]]と前記[[eta_grad_ave_shift]]から、[[wj,t+1]]=[[wj,t]]-[[eta_grad_ave_shift]]により、t+1回更新を行ったモデルパラメータwの値wt+1 のシェア[[wt+1 ]]の第j要素[[wj,t+1]]を計算するモデルパラメータ更新手段とを含む。
本発明の一態様による秘密ロジスティック回帰計算システムは、mを1以上の整数、ηを0<η<1を満たす実数、Sigmoid([[x]])を請求項1に記載の秘密シグモイド関数計算システムを用いて入力ベクトルxのシェア[[x]]から、入力ベクトルxに対するシグモイド関数の値yのシェア[[y]]を計算する関数とし、秘密計算の対象となる任意の値をpとし、pの精度をb_p[bit]と表記した場合には、pのシェア[[p]]は実際には[[p×2b_p]]という固定小数点数のシェアであることを表し、秘密計算の対象となる任意のベクトルをqとし、qの要素をqiとし、qの精度をb_q[bit]と表記した場合には、qのシェア[[q]]は実際には[[qi×2b_q]]という固定小数点数のシェアにより構成されることを表し、w,w0 ,wt ,wt+1 ,eta_grad_aveの精度をb_w[bit]と表記し、xi (0≦i≦m-1)の精度をb_x[bit]と表記し、yi(0≦i≦m-1),ci(0≦i≦m-1),di(0≦i≦m-1)の精度をb_y[bit]と表記し、ηの精度をb_η[bit]と表記し、bi(0≦i≦m-1)の精度をb_w+b_x[bit]と表記し、eの精度をb_y+b_x[bit]と表記し、b_w,b_x,b_y,b_ηを予め定められた正の整数とし、rshift(a,b)は、aという値をb[bit]だけ算術右シフトすることを表わすとし、floorは切り捨てを表す関数とし、X=-(floor(log2(η/m)))として、3個以上の秘密ロジスティック回帰計算装置で構成され、説明変数のデータxi のシェア[[xi ]](0≦i≦m-1)、目的変数のデータyiのシェア[[yi]](0≦i≦m-1)から、ロジスティック回帰モデルのモデルパラメータwのシェア[[w]]を計算する秘密ロジスティック回帰計算システムであって、モデルパラメータwの初期値w0 のシェア[[w0 ]]を設定する初期化手段と、i=0, …, m-1に対して、t回更新を行ったモデルパラメータwの値wt のシェア[[wt ]]と前記シェア[[xi ]]から、[[bi]]=hpsum([[wt ]], [[(1, xi )]])により、[[bi]]を計算し、前記[[bi]] (0≦i≦m-1)から、([[c0]],…, [[cm-1]])=Sigmoid(([[b0]],…, [[bm-1]]))により、([[c0]],…, [[cm-1]])を計算し、i=0, …, m-1に対して、前記シェア[[yi]]と前記([[c0]],…, [[cm-1]])の第i要素[[ci]]から、[[di]]=[[ci]]-[[yi]]により、誤差[[di]]を計算する誤差計算手段と、j=0, …, nに対して、前記誤差[[di]] (0≦i≦m-1)と前記シェア[[xi ]]の第j要素[[xi,j]] (0≦i≦m-1)から、[[e]]=Σi=0 m-1[[di]][[xi,j]]により、[[e]]を計算し、前記[[e]]から、[[eta_grad_ave]]=rshift([[e]], X+b_y+b_x-b_w)により、[[eta_grad_ave]]を計算し、前記シェア[[wt ]]の第j要素[[wj,t]]と前記[[eta_grad_ave]]から、[[wj,t+1]]=[[wj,t]]-[[eta_grad_ave]]により、t+1回更新を行ったモデルパラメータwの値wt+1 のシェア[[wt+1 ]]の第j要素[[wj,t+1]]を計算するモデルパラメータ更新手段とを含む。
本発明によれば、高速かつ高精度にシグモイド関数を秘密計算することが可能となる。または、本発明によれば、高速かつ高精度にロジスティック回帰モデルのモデルパラメータを秘密計算することが可能となる。
シグモイド関数σ(x)を表す図。 秘密ロジスティック回帰計算アルゴリズムを示す図。 秘密シグモイド関数計算システム10の構成を示すブロック図。 秘密シグモイド関数計算装置100iの構成を示すブロック図。 秘密シグモイド関数計算システム10の動作を示すフローチャート。 秘密ロジスティック回帰計算システム20の構成を示すブロック図。 秘密ロジスティック回帰計算装置200iの構成を示すブロック図。 秘密ロジスティック回帰計算システム20の動作を示すフローチャート。
以下、本発明の実施の形態について、詳細に説明する。なお、同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
後述する秘密シグモイド関数計算アルゴリズム、秘密ロジスティック回帰計算アルゴリズムは、既存の秘密計算上の演算の組み合わせで構築される。これらのアルゴリズムが必要とする演算は、秘匿化、加算、乗算、エイチピーサム(hpsum)である。なお、エイチピーサムとは積和のことである。以下、各演算について説明していく。
<演算>
[秘匿化]
[[x]]をxを秘密分散で秘匿した値(以下、xのシェアという)とする。秘密分散方法には、任意の方法を用いることができる。例えば、GF(261-1)上のShamir秘密分散、Z2上の複製秘密分散を用いることができる。
ある1つのアルゴリズムの中で複数の秘密分散方法を組み合わせて用いてもよい。この場合、適宜相互に変換するものとする。
また、n次元ベクトルx=(x0, …, xn-1)に対して、[[x]]=([[x0]], …, [[xn-1]])とする。nは、モデルパラメータの数であり、所定の正の整数である。
なお、xを[[x]]の平文という。
xから[[x]]を求める方法(秘匿化)、[[x]]からxを求める方法(復元)として、具体的には、参考非特許文献1、参考非特許文献2に記載の方法がある。
(参考非特許文献2:Shamir, A., “How to share a secret”, Communications of theACM, Vol.22, No.11, pp.612-613, 1979.)
[加算、乗算]
秘密計算による加算[[x]]+[[y]]は、[[x]], [[y]]を入力とし、[[x+y]]を出力する。秘密計算による乗算[[x]]×[[y]](mul([[x]], [[y]]))は、[[x]], [[y]]を入力とし、[[x×y]]を出力する。
なお、[[x]]、[[y]]のいずれかが秘匿されていない値(以下、公開値という)であってもよい。例えば、β、γを公開値として、[[x]], βを入力として、[[x+β]]を出力するようにしたり、γ, [[y]]を入力とし、[[γ×y]]を出力することもできる。
加算、乗算の具体的方法として、参考非特許文献3、参考非特許文献4に記載の方法がある。
(参考非特許文献3:Ben-Or, M., Goldwasser, S. and Wigderson, A., “Completenesstheorems for non-cryptographic fault-tolerant distributed computation”, Proceedings of the twentieth annual ACM symposium on Theory of computing, ACM, pp. 1-10, 1988.)
(参考非特許文献4:Gennaro, R., Rabin, M. O. and Rabin, T., “Simplied VSS and fast-track multiparty computations with applications to threshold cryptography”, Proceedings of the seventeenth annual ACM symposium on Principles of distributed computing, ACM, pp.101-111, 1998.)
[エイチピーサム(hpsum)]
秘密計算hpsum([[x]], [[y]])は、[[x]], [[y]](ただし、x=(x0, …, xn-1), y=(y0, …, yn-1))を入力とし、[[Σj=0 n-1xjyj]]を出力する。つまり、2つのベクトルの第j要素の積の和を出力する。
<技術的背景>
(秘密一括写像)
図1に示すような単調増加関数であるシグモイド関数σ(x)を秘密計算するために、本発明の実施形態では、秘密一括写像を用いる。以下、秘密一括写像について説明する。
秘密一括写像は、ルックアップテーブルを計算する機能であり、定義域と値域を任意に定めることができる技術である。例として、入力を10倍する関数を秘密一括写像で計算する場合を考える。ある定義域X={1, 3, 5}と、その10倍の値の集合である値域Y={10, 30, 50}を用意したとする。秘密一括写像では、定義域に属さない入力xに対しては、定義域に属する、x以下の最大の値が出力される。そのため、4を入力すると30が出力される。しかし、定義域をX={1, 2, 3, 4, 5}、値域をY={10, 20, 30, 40, 50}というふうにより細かく設定することで、4を入力したときに40が出力されるようになり、高い精度での計算が可能になる。この性質を使うことで、固定小数点数でもデータ型の上限を超えることがなくかつ計算誤差も小さい、適切な精度を設定することができる。なお、秘密一括写像の処理時間は定義域や値域のサイズに依存する。このため、計算精度の高さと処理速度は、トレードオフの関係になる。
[アルゴリズム]
ここでは、秘密一括写像を用いてシグモイド関数を秘密計算するアルゴリズム(秘密シグモイド関数計算アルゴリズム)について説明する。例えば、参考非特許文献5に記載の秘密一括写像のアルゴリズムを用いることができる。
(参考非特許文献5:濱田浩気, 五十嵐大, 千田浩司, “秘匿計算上の一括写像アルゴリズム”, 電子情報通信学会論文誌A, Vol.J96-A, No.4, pp.157-165, 2013.)
秘密一括写像は、ベクトルx=(x0, …, xm-1)のシェア[[x]]=([[x0]], …, [[xm-1]])を入力とし、関数の定義域を表すパラメータ(a0, …, ak-1)と関数の値域を表すパラメータ(b0, …, bk-1)(ただし、a0, …, ak-1, b0, …, bk-1は実数であり、a0<…<ak-1を満たす。)を用いて、ベクトルの各要素のシェアを写像させたシェア、すなわち、0≦i≦m-1に対して、aj≦xi<aj+1かつyi=bjであるような([[y0]], …, [[ym-1]])を出力するものである。
秘密シグモイド関数計算アルゴリズムは、秘密一括写像における関数の定義域を表すパラメータ(a0, …, ak-1)と関数の値域を表すパラメータ(b0, …, bk-1)をbj=σ(aj)(0≦j≦k-1)を満たすように選択したものである(以下、当該秘密一括写像をmapσと表す)。
つまり、秘密シグモイド関数計算アルゴリズムは、ベクトルx=(x0, …, xm-1)のシェア[[x]]=([[x0]], …, [[xm-1]])を入力とし、シグモイド関数σ(x)の定義域を表すパラメータ(a0, …, ak-1)と値域を表すパラメータ(σ(a0), …, σ(ak-1))(ただし、kは1以上の整数、a0, …, ak-1はa0<…<ak-1を満たす実数)により定義される秘密一括写像mapσを用いて、0≦i≦m-1に対して、aj≦xi<aj+1となるjをf(i)とし、([[σ(af(0))]], …, [[σ(af(m-1))]])を出力する。
上述した通り、秘密一括写像における定義域と値域は任意に設定できる値であるため、必要な精度や処理速度に応じて決めることができる。そのため、多項式を用いて近似する場合と異なり、任意の精度の値を設定できる。したがって、例えば、平文と遜色ない精度を実現することも可能となる。
また、秘密一括写像を用いてシグモイド関数を秘密計算することには、別の利点もある。以下、説明する。処理コストの観点から(浮動小数点でなく)固定小数点を用いて計算する場合、乗算のたびに数値精度が増大し、データ型の上限を超えてしまうことがあるため、途中で意図的な桁落としを行う必要が生じることがある。しかし、秘密一括写像を用いると、定義域と値域を独立に設定することができるため、シグモイド関数の計算をすると同時に数値精度の調節も行うことができ、効率的である。
なお、以下では、秘密シグモイド関数計算アルゴリズムをSigmoidと表すこととする。したがって、Sigmoid([[x]])=([[σ(af(0))]], …, [[σ(af(m-1))]])となる。
(ロジスティック回帰分析)
ロジスティック回帰分析のモデルf(x)(ただし、x=(x1, …, xn))は、n+1次元ベクトルw=(w0, …, wn)をモデルパラメータとして、次式により表される。
Figure 2020071441
ただし、(1, x)はn+1次元ベクトル(1, x1, …, xn)を表す。
モデルパラメータwを学習する方法として、関数の最小値を探索する学習法である最急降下法がある。最急降下法では、以下の入力、パラメータを用いて学習を行う。
(入力)説明変数のデータxi 、目的変数のデータyi(ただし、0≦i≦m-1、mは1以上の整数であり、学習データの数を表す)
(パラメータ)学習率η(0<η<1)、学習回数T
なお、学習率η及び学習回数Tについては、適切な値が設定されるものとする。
wt =(w0,t, …, wn,t)をt回(0≦t≦T-1)更新を行ったモデルパラメータとして、以下の式により学習する。
Figure 2020071441
つまり、学習データxi , yiを用いて、モデルパラメータwの第j要素wjごとに更新していく。なお、モデルパラメータwの初期値w0 については適切な値が設定されるものとする。
[アルゴリズム]
ここでは、ロジスティック回帰モデルのモデルパラメータを秘密計算するアルゴリズム(秘密ロジスティック回帰計算アルゴリズム)について説明する。秘密ロジスティック回帰計算アルゴリズムは、説明変数のデータxi のシェア[[xi ]]、目的変数のデータyiのシェア[[yi]]を入力とし、公開値であるパラメータη, Tを用いて、モデルパラメータwのシェア[[w]]を計算し、出力する。具体的な手順を図2に示す。図2をみれば、ステップ4〜ステップ23では式(3)に従い[[w]]を計算していることがわかる。また、ステップ10において、秘密シグモイド関数計算アルゴリズムSigmoidを用いてシグモイド関数の値を求めていることもわかる。
秘密シグモイド関数計算アルゴリズムSigmoidを用いると、シグモイド関数の計算の精度がよくなるため、従来の方法(非特許文献1〜3に記載の方法)と比較して、ロジスティック回帰の計算の精度もよくなる。また、非特許文献2及び3に記載の方法では、計算過程において値の一部が秘匿化できておらず安全性に問題があるが、秘密ロジスティック回帰計算アルゴリズムの各ステップをみればわかるように、計算過程において秘密が保持されているため、外部に情報を全く漏らさず、安全に計算することができる。
また、秘密一括写像を用いてシグモイド関数を計算する場合、同時に近似精度の調節ができる性質を利用することにより、繰り返し乗算する必要があるロジスティック回帰分析の計算でも、データ型の上限を超えることなく計算することが可能になる。
(適用例)
上述した通り、秘密一括写像では精度を任意に設定することができるが、値域や定義域のサイズに比例するオーバーヘッドがかかるため、より効率よくシグモイド関数を秘密計算するためには精度とオーバーヘッドのバランスを考える必要がある。例えば、精度を10-4程度に設定すると、平文と比較しても定義域や値域のサイズを少なく抑えつつ、精度よく計算することができる。
また、ロジスティック回帰分析では最終的に2値分類する際の閾値として、x=0付近の値を用いることが多いため、x=0付近におけるシグモイド関数の近似精度が高くなるのが好ましい。図1からわかるように、シグモイド関数はx=0付近で大きく値が変化するが、それ以外の範囲ではほぼ一定の値になる。そこで、シグモイド関数の当該性質を利用し、値が大きく変化する部分については定義域や値域を細かく設定する一方で、それ以外の範囲については、粗く設定することにより、全体として定義域や値域のサイズを大きくすることなく、効率よく精度を上げることができる。
<第1実施形態>
以下、図3〜図5を参照して秘密シグモイド関数計算システム10について説明する。図3は、秘密シグモイド関数計算システム10の構成を示すブロック図である。秘密シグモイド関数計算システム10は、W個(Wは3以上の所定の整数)の秘密シグモイド関数計算装置1001、…、100Wを含む。秘密シグモイド関数計算装置1001、…、100Wは、ネットワーク800に接続しており、相互に通信可能である。ネットワーク800は、例えば、インターネットなどの通信網あるいは同報通信路などでよい。図4は、秘密シグモイド関数計算装置100i(1≦i≦W)の構成を示すブロック図である。図5は、秘密シグモイド関数計算システム10の動作を示すフローチャートである。
図4に示すように秘密シグモイド関数計算装置100iは、秘密一括写像計算部110iと、記録部190iを含む。記録部190iを除く秘密シグモイド関数計算装置100iの各構成部は、秘密シグモイド関数計算アルゴリズムで必要とされる演算、つまり、少なくとも秘匿化、加算、乗算、エイチピーサム(hpsum)、秘密一括写像のうち、各構成部の機能を実現するうえで必要になる演算を実行できるように構成されている。本発明において個々の演算を実現するための具体的な機能構成は、例えば参考非特許文献1〜5のそれぞれで開示されるアルゴリズムを実行できるような構成で十分であり、これらは従来的構成であるから詳細な説明については省略する。また、記録部190iは、秘密シグモイド関数計算装置100iの処理に必要な情報を記録する構成部である。例えば、記録部190iは、秘密一括写像mapσの定義に必要となるシグモイド関数σ(x)の定義域を表すパラメータ(a0, …, ak-1)と値域を表すパラメータ(σ(a0), …, σ(ak-1)) (ただし、kは1以上の整数、a0, …, ak-1はa0<…<ak-1を満たす実数)を記録しておく。ここで、先述したように、x=0付近(つまり、-ε<x<ε、ε(>0)は所定の実数)においてその他の範囲(つまり、x≦-εまたはx≧ε)よりも隣接する点の間隔が相対的に狭くなる(あるいは、点が相対的に多くなる)ようにパラメータ(a0, …, ak-1)を選択すると、x=0付近におけるシグモイド関数の近似精度が高くすることができる。
W個の秘密シグモイド関数計算装置100iによる協調計算によって、秘密シグモイド関数計算システム10はマルチパーティプロトコルである秘密シグモイド関数計算アルゴリズムを実現する。よって、秘密シグモイド関数計算システム10の秘密一括写像計算手段110(図示していない)は秘密一括写像計算部1101、…、110Wで構成される。
秘密シグモイド関数計算システム10は、入力ベクトルx=(x0, …, xm-1)のシェア[[x]]=([[x0]], …, [[xm-1]])から、入力ベクトルxに対するシグモイド関数の値y=(y0, …, ym-1)のシェア[[y]]=([[y0]], …, [[ym-1]])を計算する。ここで、一般に、入力ベクトルに対するシグモイド関数を計算するとは、入力ベクトルの各要素に対するシグモイド関数の値を計算することを意味するものとする。以下、図5に従い秘密シグモイド関数計算システム10の動作について説明する。
秘密一括写像計算手段110は、入力ベクトルx=(x0, …, xm-1)のシェア[[x]]=([[x0]], …, [[xm-1]])から、mapσ([[x]])=([[σ(af(0))]], …, [[σ(af(m-1))]])(ただし、f(i)(0≦i≦m-1)は、aj≦xi<aj+1となるj)を計算し、([[y0]], …, [[ym-1]])=([[σ(af(0))]], …, [[σ(af(m-1))]])により、シェア[[y]]を計算する(S110)。
本実施形態の発明によれば、高速かつ高精度にシグモイド関数を秘密計算することが可能となる。特に、平文と遜色ない精度にて、シグモイド関数を秘密計算することが可能となる。
本実施形態の発明は、秘密計算が容易ではない非線形関数であるシグモイド関数の計算を、秘密一括写像を用いることで実現する。したがって、秘密一括写像の定義域が任意に定められることを利用すると、必要に応じて処理速度に優先してより高い精度でのシグモイド関数の秘密計算を実現することができる。
第1実施形態において、定義域、値域を設定する際にシグモイド関数の逆関数σ-1を用いてもよい。
すなわち、関数の定義域を表すパラメータ(a0, …, ak-1)と関数の値域を表すパラメータ(b0, …, bk-1)を設定するときに、逆シグモイド関数σ-1を用いてもよい。例えば、所望のパラメータ(b0, …, bk-1)を定めた後に、各bi(0≦i≦k-1)に対応するaiの値を逆シグモイド関数σ-1を用いて計算する。このようにして、計算された(a0, …, ak-1)を関数の定義域を表すパラメータとし、所望のパラメータ(b0, …, bk-1)を関数の値域を表すパラメータとしてもよい。
逆シグモイド関数σ-1は例えば以下のようになる。
σ-1(x)=-ln((1/x)-1)
逆関数を用いることで、シグモイド関数のような傾きが急激に変化する関数の定義域や値域を容易に計算することができる。
<第2実施形態>
以下、図6〜図8を参照して秘密ロジスティック回帰計算システム20について説明する。図6は、秘密ロジスティック回帰計算システム20の構成を示すブロック図である。秘密ロジスティック回帰計算システム20は、W'個(W'は3以上の所定の整数)の秘密ロジスティック回帰計算装置2001、…、200W'を含む。秘密ロジスティック回帰計算装置2001、…、200W'は、ネットワーク800に接続しており、相互に通信可能である。ネットワーク800は、例えば、インターネットなどの通信網あるいは同報通信路などでよい。図7は、秘密ロジスティック回帰計算装置200i(1≦i≦W')の構成を示すブロック図である。図8は、秘密ロジスティック回帰計算システム20の動作を示すフローチャートである。
図7に示すように秘密ロジスティック回帰計算装置200iは、初期化部210iと、誤差計算部220iと、モデルパラメータ更新部230iと、条件判定部240iと、記録部290iを含む。記録部290iを除く秘密ロジスティック回帰計算装置200iの各構成部は、秘密ロジスティック回帰計算アルゴリズムで必要とされる演算、つまり、少なくとも秘匿化、加算、乗算、エイチピーサム(hpsum)、秘密一括写像のうち、各構成部の機能を実現するうえで必要になる演算を実行できるように構成されている。本発明において個々の演算を実現するための具体的な機能構成は、例えば参考非特許文献1〜5のそれぞれで開示されるアルゴリズムを実行できるような構成で十分であり、これらは従来的構成であるから詳細な説明については省略する。また、記録部290iは、秘密ロジスティック回帰計算装置200iの処理に必要な情報を記録する構成部である。例えば、記録部290iは、パラメータη, T(ただし、ηを0<η<1を満たす実数、Tは1以上の整数)を記録しておく。また、記録部290iは、秘密シグモイド関数計算アルゴリズムSigmoidの計算に必要なパラメータも記録しておく。例えば、記録部290iは、パラメータ(a0, …, ak-1), (σ(a0), …, σ(ak-1))を記録しておく。
W'個の秘密ロジスティック回帰計算装置200iによる協調計算によって、秘密ロジスティック回帰計算システム20はマルチパーティプロトコルである秘密ロジスティック回帰計算アルゴリズムを実現する。よって、秘密ロジスティック回帰計算システム20の初期化手段210(図示していない)は初期化部2101、…、210W'で構成され、誤差計算手段220(図示していない)は誤差計算部2201、…、220W'で構成され、モデルパラメータ更新手段230(図示していない)はモデルパラメータ更新部2301、…、230W'で構成され、収束条件判定手段240(図示していない)は条件判定部2401、…、240W'で構成される。
秘密ロジスティック回帰計算システム20は、説明変数のデータxi のシェア[[xi ]](0≦i≦m-1、ただし、mは1以上の整数)、目的変数のデータyiのシェア[[yi]] (0≦i≦m-1)から、ロジスティック回帰モデルのモデルパラメータwのシェア[[w]]を計算する(図2参照)。以下、図8に従い秘密ロジスティック回帰計算システム20の動作について説明する。
初期化手段210は、モデルパラメータwの初期値w0 のシェア[[w0 ]]を設定する(S210)。具体的には、予め記録部290iに記録している、適切な初期値w0 のシェア[[w0 ]]を設定するのでよい。図2の秘密ロジスティック回帰計算アルゴリズムのステップ1に対応する。
誤差計算手段220は、i=0, …, m-1に対して、t回更新を行ったモデルパラメータwの値wt のシェア[[wt ]]とシェア[[xi ]]から、[[bi]]=hpsum([[wt ]], [[(1, xi )]])により、[[bi]]を計算し、[[bi]] (0≦i≦m-1)から、([[c0]],…, [[cm-1]])=Sigmoid(([[b0]],…, [[bm-1]]))により、([[c0]],…, [[cm-1]])を計算し、i=0, …, m-1に対して、シェア[[yi]]と([[c0]],…, [[cm-1]])の第i要素[[ci]]から、[[di]]=[[ci]]-[[yi]]により、誤差[[di]]を計算する(S220)。図2の秘密ロジスティック回帰計算アルゴリズムのステップ5〜15に対応する。なお、Sigmoidは、秘密シグモイド関数計算システム10を用いて計算すればよい。
モデルパラメータ更新手段230は、j=0, …, nに対して、S220で計算した誤差[[di]] (0≦i≦m-1)とシェア[[xi ]]の第j要素[[xi,j]] (0≦i≦m-1)から、[[e]]=Σi=0 m-1[[di]][[xi,j]]により、[[e]]を計算し、シェア[[wt ]]の第j要素[[wj,t]]と[[e]]から、[[wj,t+1]]=[[wj,t]]-η(1/m)[[e]]により、t+1回更新を行ったモデルパラメータwの値wt+1 のシェア[[wt+1 ]]の第j要素[[wj,t+1]]を計算する(S230)。図2の秘密ロジスティック回帰計算アルゴリズムのステップ16〜21に対応する。
条件判定部240は、事前に設定されたモデルパラメータ更新の繰り返し条件、つまり、t<Tを判定し、条件が満たされる場合はS220〜S230の処理を繰り返し、繰り返し条件が満たされない場合(所定の学習回数Tに達した場合)、シェア[[wT-1 ]]をモデルパラメータwのシェア[[w]]として出力し、処理を終了する(S240)。
本実施形態の発明によれば、高速かつ高精度にロジスティック回帰モデルのモデルパラメータを秘密計算することが可能となる。
<<第2実施形態の変形例1>>
秘密一括写像と右シフトを用いてロジスティック回帰分析を行ってもよい。秘密一括写像には数値精度の調節をできる性質がある。しかし、より高い精度で計算したい場合、及び/又は、大きな学習データを用いる場合は、右シフトを用いて精度の調節を更に行ってもよい。なお、単に右シフトと書いた場合には、算術右シフトを表す。
なお、第2実施形態の変形例1では、処理コストを低減するために、固定小数点数に対して秘密計算が行われる。すなわち、秘密計算の対象であるw等の値が小数を含む場合には、秘密計算は、この値に2bを乗算した値に対して行われるとする。この場合、その秘密計算の結果に対して2bを除算した値を計算することにより、もともと秘密計算の対象となっていた値に対応する秘密計算の結果が得られる。このときのbを、精度と呼ぶ。
すなわち、第2実施形態の変形例1では、秘密計算の対象となる任意の値をpとし、pの精度をb_p[bit]と表記した場合には、pのシェア[[p]]は実際には[[p×2b_p]]という固定小数点数のシェアであることを表す。
また、秘密計算の対象となる任意のベクトルをqとし、qの要素をqiとし、qの精度をb_q[bit]と表記した場合には、qのシェア[[q]]は実際には[[qi×2b_q]]という固定小数点数のシェアにより構成されることを表す。
なお、2bの乗算は、例えば秘密ロジスティック回帰計算装置200によって適切なときに行われる。適切なときの例は、秘密計算の対象となるデータが秘密ロジスティック回帰計算装置200に登録されるとき、秘密計算の対象を平文からシェアに変換するとき、又は、秘密計算の前である。
また、2bの除算は、例えば秘密ロジスティック回帰計算装置200によって適切なときに行われる。適切なときの例は、秘密計算の結果を秘密計算を依頼したクライアントに返すとき、シェアを平文に変換するとき、又は、秘密計算の後である。
このため、以下では、2bの乗算及び2bの除算については言及しないことがある。
w,w0 ,wt ,wt+1 ,eta_grad_ave_shiftの精度をb_w[bit]と表記し、xi (0≦i≦m-1)の精度をb_x[bit]と表記し、yi(0≦i≦m-1),ci(0≦i≦m-1),di(0≦i≦m-1)の精度をb_y[bit]と表記し、ηの精度をb_η[bit]と表記し、学習データ数の逆数1/mの精度をb_m+H[bit]と表記し、bi(0≦i≦m-1)の精度をb_w+b_x[bit]と表記し、eの精度をb_y+b_x[bit]と表記し、eta_gradの精度をb_y+b_x+b_η[bit]と表記し、eta_grad_shiftの精度をb_tmp[bit]と表記し、eta_grad_aveの精度をb_tmp+b_m+H[bit]と表記する。b_w,b_x,b_y,b_η,b_m,H,b_tmpは、秘密計算を行うコンピュータの性能に応じて予め定められる正の整数である。なお、Hは、H≧log2(m)を満たすとする。
また、秘密計算で除算を行うのは容易ではないため、データ数mが平文で得られることを利用して事前に1/mの計算を平文で行っておく。それによって、秘密計算中では1/mとの乗算として計算することができる。その際1/mの精度b_m[bit]を保証するためには、1/mに2b_m+Hをかける必要がある。
以下、第2実施形態の秘密ロジスティック回帰計算装置200と異なる部分を中心に説明する。
初期化手段210によるS210の処理及び誤差計算手段220によるS220の処理は、上記と同様である。第2実施形態の変形例1では、モデルパラメータ更新手段230は、下記の処理を行う。
モデルパラメータ更新手段230は、j=0,…,nに対して、S220で計算した誤差[[di]](0≦i≦m-1)とシェア[[xi ]]の第j要素[[xi,j]](0≦i≦m-1)から、[[e]]=Σi=0 m-1[[di]][[xi,j]]により、[[e]]を計算する。
つぎに、モデルパラメータ更新手段230は、η及び[[e]]から、[[eta_grad]]=η[[e]]を計算する。iの最大値がmの場合(つまりデータ数がm件の場合)、eta_gradが必要とするメモリ量はb_y+b_x+ b_η+ceil(log2(m))[bit]となる。この値が大きくなってオーバーフローしてしまうため、次の処理でrshiftする。なお、ceilは切り上げを意味する。
つぎに、モデルパラメータ更新手段230は、[[eta_grad]]から、[[eta_grad_shift]]=rshift([[eta_grad]], b_y+b_x+b_η-b_tmp)を計算する。ここで、rshift(a,b)は、aという値をb[bit]ぶん算術右シフトすることを表す。eta_gradはb_y+b_x+ b_η+ceil(log2(m))[bit]のメモリを必要とする(例:b_y=14,b_x=17,b_η=7,m=10万の場合55bit)ため、ここで、右シフトをせずにeta_grad_aveを計算すると、更にb_m+H(例:b_m=17, H=17)[bit]増えるためオーバーフローする可能性がある。マシンの性能にもよるが、一般的には64bitを超えるとオーバーフローする。なお、秘密計算では、もっと扱えるメモリ量が少ない場合もある。
つぎに、モデルパラメータ更新手段230は、[[eta_grad_shift]]から、[[eta_grad_ave]]=(1/m)[[eta_grad_shift]]を計算する。
つぎに、モデルパラメータ更新手段230は、[[eta_grad_ave]]から、[[eta_grad_ave_shift]]=rshift([[eta_grad_ave]], b_tmp+b_m+H-b_w)を計算する。
最後に、モデルパラメータ更新部230は、シェア[[wt ]]の第j要素[[wj,t]]と[[eta_grad_ave_shift]]から、[[wj,t+1]]=[[wj,t]]-[[eta_grad_ave_shift]]により、t+1回更新を行ったモデルパラメータwの値wt+1 のシェア[[wt+1 ]]の第j要素[[wj,t+1]]を計算する。
条件判定部240の処理は上記と同様である。
なお、論理右シフトから算術右シフトへの変換は例えば以下の処理を行えばよい。なお、以下の説明において、rlshift(a,b)はaをb[bit]論理右シフトすることを表す。以下の説明では、秘密計算を、2bを乗算した値に対して行っていることを明示的に示している。このため、例えば、[[B×2n]]は文字通りB×2nという値がシェアされていることを表している。
精度n[bit]の値aをm[bit]に右シフトする場合、|a|≦Aとなる精度n[bit]の値Aを加算する。ここで、n>mであるとする。
B×2n=a×2n+A×2n
B×2nをn-m[bit]ぶん論理右シフトする。
B×2m=rlshift(B×2n,n-m)
シフト前に加算したAを引く。
a×2m=B×2m-A×2m
すなわち、eta_gradの精度はb_y+b_x+b_ηであるため、モデルパラメータ更新部230は、まず、|eta_grad|≦Aとなる精度b_y+b_x+b_ηの値Aを定める。そして、モデルパラメータ更新部230は、B×2n=eta_grad×2n+A×2nを満たすB×2nのシェア[[B×2n]]を計算する。そして、モデルパラメータ更新部230は、計算されたシェア[[B×2n]]に基づいて、B×2m=rlshift([[B×2n]],b_y+b_x+b_η-(b_y+b_x+b_η-b_tmp))を満たすB×2nのシェア[[B×2n]]を計算する。そして、モデルパラメータ更新部230は、計算されたシェア[[B×2n]]に基づいて、a×2m=B×2m-A×2mを満たすa×2mのシェア[[a×2m]]を計算する。計算された[[a×2m]]が、上記の説明における[[eta_grad_shift]]となる。
また、eta_grad_aveの精度はb_tmp+b_m+Hであるため、モデルパラメータ更新部230は、まず、|eta_grad_ave|≦Aとなる精度b_tmp+b_m+Hの値Aを定める。そして、モデルパラメータ更新部230は、B×2n=eta_grad_ave×2n+A×2nを満たすB×2nのシェア[[B×2n]]を計算する。そして、モデルパラメータ更新部230は、計算されたシェア[[B×2n]]に基づいて、B×2m=rlshift([[B×2n]],b_tmp+b_m+H-(b_tmp+b_m+H-b_w))を満たすB×2nのシェア[[B×2n]]を計算する。そして、モデルパラメータ更新部230は、計算されたシェア[[B×2n]]に基づいて、a×2m=B×2m-A×2mを満たすa×2mのシェア[[a×2m]]を計算する。計算された[[a×2m]]が、上記の説明における[[eta_grad_ave_shift]]となる。
このように、右シフトを取り入れることで、より高精度な計算や大規模な学習データの処理が可能となる。
なお、変形例1でも、平文のアーキテクチャで一般的ではない一括写像を使っているので、変形例1は具体的な処理は平文の処理をそのまま秘密計算にしたのとは違う処理になり自明ではないと言える。
また、使用する計算機の性能により定まる限られたビット数の中で、精度の調整も含めた固定小数点での具体的なロジスティック回帰が構成されたことは無い。
一括写像が精度調整の効果を持っているので、この精度調整は平文の場合と同じにはならず秘密計算特有の性質を持っている。
これらのことは、以下に説明する変形例2以降についても当てはまる。
<<第2実施形態の変形例2>>
η/mを2べきで近似し、右シフト(rshift)に置き換えてもよい。第2実施形態の変形例1では、学習率ηを高い精度にすることで細やかな設定が可能である。しかし、第2実施形態の変形例1では、右シフト演算が2回必要であり、b_y+b,x+b_η,b_tmp+b_m+Hが大きな値になりやすいため、計算の効率が落ちる可能性がある。このため、第2実施形態の変形例2では、ηとの乗算と1/mとの乗算をまとめてη/mとして処理することで処理回数を減らし、計算効率を向上させる。
第2実施形態の変形例2は、第2実施形態の変形例1と比べると、処理効率は良いが、学習率ηの細かい設定はできない。しかし、学習率の違いは最終的に得られるパラメータの良し悪しにはあまり影響しないため、問題は殆どないと考えられる。
なお、第2実施形態の変形例1では、処理コストを低減するために、固定小数点数に対して秘密計算が行われる。すなわち、秘密計算の対象であるw等の値が小数を含む場合には、秘密計算は、この値に2bを乗算した値に対して行われるとする。この場合、その秘密計算の結果に対して2bを除算した値を計算することにより、もともと秘密計算の対象となっていた値に対応する秘密計算の結果が得られる。このときのbを、精度と呼ぶ。
すなわち、第2実施形態の変形例1では、秘密計算の対象となる任意の値をpとし、pの精度をb_p[bit]と表記した場合には、pのシェア[[p]]は実際には[[p×2b_p]]という固定小数点数のシェアであることを表す。
また、秘密計算の対象となる任意のベクトルをqとし、qの要素をqiとし、qの精度をb_q[bit]と表記した場合には、qのシェア[[q]]は実際には[[qi×2b_q]]という固定小数点数のシェアにより構成されることを表す。
なお、2bの乗算は、例えば秘密ロジスティック回帰計算装置200によって適切なときに行われる。適切なときの例は、秘密計算の対象となるデータが秘密ロジスティック回帰計算装置200に登録されるとき、秘密計算の対象を平文からシェアに変換するとき、又は、秘密計算の前である。
また、2bの除算は、例えば秘密ロジスティック回帰計算装置200によって適切なときに行われる。適切なときの例は、秘密計算の結果を秘密計算を依頼したクライアントに返すとき、シェアを平文に変換するとき、又は、秘密計算の後である。
このため、以下では、2bの乗算及び2bの除算については言及しないことがある。
w,w0 ,wt ,wt+1 ,eta_grad_aveの精度をb_w[bit]と表記し、xi (0≦i≦m-1)の精度をb_x[bit]と表記し、yi(0≦i≦m-1),ci(0≦i≦m-1),di(0≦i≦m-1)の精度をb_y[bit]と表記し、ηの精度をb_η[bit]と表記し、bi(0≦i≦m-1)の精度をb_w+b_x[bit]と表記し、eの精度をb_y+b_x[bit]と表記する。b_w,b_x,b_y,b_ηは、秘密計算を行うコンピュータの性能に応じて予め定められる正の整数である。
以下、第2実施形態の秘密ロジスティック回帰計算装置200と異なる部分を中心に説明する。
初期化手段210によるS210の処理及び誤差計算手段220によるS220の処理は、上記と同様である。第2実施形態の変形例2では、モデルパラメータ更新手段230は、下記の処理を行う。
モデルパラメータ更新手段230は、j=0,…,nに対して、S220で計算した誤差[[di]](0≦i≦m-1)とシェア[[xi ]]の第j要素[[xi,j]](0≦i≦m-1)から、[[e]]=Σi=0 m-1[[di]][[xi,j]]により、[[e]]を計算する。eの必要メモリは、b_y=14,b_x=17,m=10万の場合、b_y_b_x+ceil(log_2(m))=48[bit]となるため、変形例1よりもメモリにゆとりがある。つまり、データ数mをもっと増やしてもオーバーフローしないため、更に大きな学習データを入れることが可能である。
つぎに、モデルパラメータ更新手段230は、[[e]]から、[[eta_grad_ave]]=rshift([[e]], X+b_y+b_x-b_w)を計算する。ここで、Xはη/mを2Xでの割り算で近似するような値であり例えば以下のように計算される。floorは切り捨てを表す関数である。Xは秘密計算の前に、秘密ロジスティック回帰計算装置200によって計算される。
X=-(floor(log2(η/m)))
最後に、モデルパラメータ更新部230は、シェア[[wt ]]の第j要素[[wj,t]]と[[eta_grad_ave]]から、[[wj,t+1]]=[[wj,t]]-[[eta_grad_ave]]により、t+1回更新を行ったモデルパラメータwの値wt+1 のシェア[[wt+1 ]]の第j要素[[wj,t+1]]を計算する。
条件判定部240の処理は上記と同様である。
第2実施形態の変形例1と同様、論理右シフトから算術右シフトへの変換は例えば以下の処理を行えばよい。なお、第2実施形態の変形例2では、Xについて考慮する必要がある。以下の説明では、秘密計算を、2bを乗算した値に対して行っていることを明示的に示している。このため、例えば、[[B×2n]]は文字通りB×2nという値がシェアされていることを表している。
精度n[bit]の値aをm[bit]に右シフトすると同時に2Xで割り算をする場合、|a|≦Aとなる精度n[bit]の値Aを加算する。
B×2n=a×2n+A×2n
B×2nをn-m+X[bit]ぶん論理右シフトする。
B×2m/(2X)=rlshift(B×2n,n-m+X)
シフト前に加算したAを引く。
a×2m/2X=B×2m/2X-A×2m/2X
eの精度はb_y+b_xであるため、モデルパラメータ更新部230は、まず、|e|≦Aとなる精度b_y+b_xの値Aを定める。そして、モデルパラメータ更新部230は、B×2n=e×2n+A×2nを満たすB×2nのシェア[[B×2n]]を計算する。そして、モデルパラメータ更新部230は、計算されたシェア[[B×2n]]に基づいて、B×2m/(2X)=rlshift([[B×2n]],b_y+b_x-(X+b_y+b_x-b_w)+X)を満たすB×2m/(2X)のシェア[[B×2m/(2X)]]を計算する。そして、モデルパラメータ更新部230は、計算されたシェア[[B×2m/(2X)]]に基づいて、a×2m/2X=B×2m/2X-A×2m/2Xを満たすa×2m/2Xのシェア[[a×2m/2X]]を計算する。計算された[[a×2m/2X]]が、上記の説明における[[eta_grad_ave]]となる。
このように、右シフトを取り入れることで、より高精度な計算や大規模な学習データの処理が可能となる。
<<第2実施形態の変形例3>>
第2実施形態のロジスティック回帰を行う際に、右シフトを用いてデータを秘匿したまま正規化を行ってもよい。例えば身長と年齢などの値域の異なるデータを全て0から1などの特定の範囲に収まるようにする前処理である正規化は、機械学習全般でよく用いられている。そのため、秘密計算上の機械学習を実運用可能なものにするためには、正規化を秘密計算上でできる必要がある。
あるデータ列x=x0,x1,…,xmを、0≦^xi≦1と(^xi^xの任意の要素)なるように正規化する場合、xの最大値maxx→と最小値minx→を用いて以下のような性質を持つシフト量Sを計算する。
2S≧max(|maxx→|,|minx→|) …(A)max(a,b)は、aとbの大きい方の値を示す。上記の計算で得たシフトS量を用いて以下の計算を行うと、0≦^xi≦1となるように正規化できる。
^x=rshift(x,S)
^xを用いて学習することで得られたモデルパラメータ^w=^w0,^w1,…,^wnを、正規化せずに計算した場合のパラメータwに戻す場合は、以下の計算を行えばよい。
w=^w×2-S …(B)
以下、第2実施形態の秘密ロジスティック回帰計算装置200と異なる部分を中心に説明する。
第2実施形態の変形例3の秘密ロジスティック回帰計算装置200は、まず、上記式(A)を満たすシフト量Sj(j=0,1,…,n)を各説明変数xj に対して計算する。そして、秘密ロジスティック回帰計算装置200は、計算されたシフト量S及び[[xj ]]を用いて、[[^xj ]]=rshift([[xj ]],Sj)を計算する。秘密ロジスティック回帰計算装置200は、[[xi ]]に代えて[[^xi ]]を用いて、上記の初期化手段210、誤差計算手段220及びモデルパラメータ更新手段230の処理を行うことにより、モデルパラメータのシェア[[^w]]を計算する。最後に、秘密ロジスティック回帰計算装置200は、[[^w]]を用いて、[[w]]=[[^w]]×2-Sを計算する。
このように、正規化を行うことにより、秘密計算上の機械学習を実運用可能なものにすることができる。
<<第2実施形態の変形例4>>
第2実施形態のロジスティック回帰を行う際に、Nesterov Accelerated Gradient(NAG)法を適用してもよい。単純な勾配降下法を用いてパラメータ学習を行うと学習効率が良くないため、実際には学習効率を上げるために最適化手法を取り入れる場合が多い。しかし、多くの最適化手法は除算などの秘密計算が苦手とする計算を含むため、秘密計算でパラメータ学習を行う際に最適化手法を取り入れることは容易ではない。そのような状況の中で、NAG法は、加減乗算のみで実現できる最適化手法であり、低コストで秘密計算に取り入れることができる。
勾配降下法でのパラメータ学習式は以下である。
wj,t+1=wj,t-η(1/m)Σi=0 m(f(xi )t-yi)xi,j
f(xi )=σ(w・(1,xi ))
これに対して、NAG法を適用した場合のパラメータ学習式は以下のようになる。
vj,t+1=αvj,t-η(1/m)Σi=0 m(f(xi )t-yi)xi,j
wj,t+1=wj,t-vj,t+1
f(xi )=σ(θ・(1,xi ))
θ=w-αv
vは、第2実施形態の変形例4で新たに追加された重みのベクトルである。αは0≦α≦1となるパラメータ(減衰率)で任意に定めることができる。第2実施形態の変形例2にNAG法を適用した場合の変形例である第2実施形態の変形例4は、以下のようになる。
以下、第2実施形態の変形例2の秘密ロジスティック回帰計算装置200と異なる部分を中心に説明する。第2実施形態の変形例2と同様の部分については、重複説明を省略する。
w,w0 ,wt ,wt+1 ,eta_grad_aveの精度をb_w[bit]と表記し、xi (0≦i≦m-1)の精度をb_x[bit]と表記し、yi(0≦i≦m-1),ci(0≦i≦m-1),di(0≦i≦m-1)の精度をb_y[bit]と表記し、bi(0≦i≦m-1)の精度をb_w+b_x[bit]と表記し、eの精度をb_y+b_x[bit]と表記し、減衰率αの精度をb_αと表記し、v,v0 ,vt ,vt+1 ,の精度をb_vと表記し、alpha_vの精度をb_v+b_αと表記する。b_w,b_x,b_y,b_αは、秘密計算を行うコンピュータの性能に応じて予め定められる正の整数である。なお、b_v+b_α=b_wとなるように、b_v+b_αを設定してもよい。これにより、処理が容易となる。
初期化手段210は、モデルパラメータwの初期値w0 のシェア[[w0 ]]に加えて、重みベクトルvの初期値のv0 のシェア[[v0 ]]を設定する(S210)。具体的には、予め記録部290iに記録している、適切な初期値w0 のシェア[[w0 ]]及び適切な初期値v0 のシェア[[v0 ]]を設定するのでよい。
誤差計算手段220は、まず、θ=w-αvを計算する。そして、誤差計算手段220は、wに代えてθを用いて上記と同様の誤差の計算を行う。
第2実施形態の変形例4では、モデルパラメータ更新手段230は、下記の処理を行う。
モデルパラメータ更新手段230は、j=0,…,nに対して、S220で計算した誤差[[di]](0≦i≦m-1)とシェア[[xi ]]の第j要素[[xi,j]](0≦i≦m-1)から、[[e]]=Σi=0 m-1[[di]][[xi,j]]により、[[e]]を計算する。
第2実施形態の変形例2と同様にして、モデルパラメータ更新手段230は、[[e]]から、[[eta_grad_ave]]=rshift([[e]], X+b_y+b_x-b_w)を計算する。
モデルパラメータ更新手段230は、α及びシェア[[vt ]]の第j要素[[vj,t]](0≦i≦m-1)から、[[alpha_v]]=α[[vj,t]]を計算する。
モデルパラメータ更新手段230は、[[vj,t+1]]=[[alpha_v]]-[[eta_grad_ave]]により、t+1回更新を行った重みベクトルvの値vt+1 のシェア[[vt+1 ]]の第j要素[[vj,t+1]]を計算する。
モデルパラメータ更新部230は、シェア[[wt ]]の第j要素[[wj,t]]と[[vj,t+1]]から、[[wj,t+1]]=[[wj,t]]-[[vj,t+1]]により、t+1回更新を行ったモデルパラメータwの値wt+1 のシェア[[wt+1 ]]の第j要素[[wj,t+1]]を計算する。
モデルパラメータ更新手段230は、[[vj,t+1]]から、[[vj,t+1]]=rshift([[vj,t+1]], b_α)を計算する。すなわち、モデルパラメータ更新手段230は、vj,t+1をb_αだけ右シフトした値のシェア[[vj,t+1]]を、新たなシェア[[vj,t+1]]とする。
条件判定部240の処理は上記と同様である。
このように、NAG法による最適化手法を用いることにより、学習効率を上げることができる。
<補記>
本発明の装置は、例えば単一のハードウェアエンティティとして、キーボードなどが接続可能な入力部、液晶ディスプレイなどが接続可能な出力部、ハードウェアエンティティの外部に通信可能な通信装置(例えば通信ケーブル)が接続可能な通信部、CPU(Central Processing Unit、キャッシュメモリやレジスタなどを備えていてもよい)、メモリであるRAMやROM、ハードディスクである外部記憶装置並びにこれらの入力部、出力部、通信部、CPU、RAM、ROM、外部記憶装置の間のデータのやり取りが可能なように接続するバスを有している。また必要に応じて、ハードウェアエンティティに、CD−ROMなどの記録媒体を読み書きできる装置(ドライブ)などを設けることとしてもよい。このようなハードウェア資源を備えた物理的実体としては、汎用コンピュータなどがある。
ハードウェアエンティティの外部記憶装置には、上述の機能を実現するために必要となるプログラムおよびこのプログラムの処理において必要となるデータなどが記憶されている(外部記憶装置に限らず、例えばプログラムを読み出し専用記憶装置であるROMに記憶させておくこととしてもよい)。また、これらのプログラムの処理によって得られるデータなどは、RAMや外部記憶装置などに適宜に記憶される。
ハードウェアエンティティでは、外部記憶装置(あるいはROMなど)に記憶された各プログラムとこの各プログラムの処理に必要なデータが必要に応じてメモリに読み込まれて、適宜にCPUで解釈実行・処理される。その結果、CPUが所定の機能(上記、…部、…手段などと表した各構成要件)を実現する。
本発明は上述の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。また、上記実施形態において説明した処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されるとしてもよい。
既述のように、上記実施形態において説明したハードウェアエンティティ(本発明の装置)における処理機能をコンピュータによって実現する場合、ハードウェアエンティティが有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記ハードウェアエンティティにおける処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD−RAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto-Optical disc)等を、半導体メモリとしてEEP−ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、ハードウェアエンティティを構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
本発明の一態様による秘密ロジスティック回帰計算システムは、mを1以上の整数、ηを0<η<1を満たす実数、Sigmoid([[x]])を前記の秘密シグモイド関数計算システムを用いて入力ベクトルxのシェア[[x]]から、入力ベクトルxに対するシグモイド関数の値yのシェア[[y]]を計算する関数とし、3個以上の秘密ロジスティック回帰計算装置で構成され、説明変数のデータxi のシェア[[xi ]](0≦i≦m-1)、目的変数のデータyiのシェア[[yi]](0≦i≦m-1)から、ロジスティック回帰モデルのモデルパラメータwのシェア[[w]]を計算する秘密ロジスティック回帰計算システムであって、モデルパラメータwの初期値w0 のシェア[[w0 ]]を設定する初期化手段と、i=0, …, m-1に対して、t回更新を行ったモデルパラメータwの値wt のシェア[[wt ]]と前記シェア[[xi ]]から、[[bi]]=hpsum([[wt ]], [[(1, xi )]])により、[[bi]]を計算し、前記[[bi]] (0≦i≦m-1)から、([[c0]],…, [[cm-1]])=Sigmoid(([[b0]],…, [[bm-1]]))により、([[c0]],…, [[cm-1]])を計算し、i=0, …, m-1に対して、前記シェア[[yi]]と前記([[c0]],…, [[cm-1]])の第i要素[[ci]]から、[[di]]=[[ci]]-[[yi]]により、誤差[[di]]を計算する誤差計算手段と、j=0, …, nに対して、前記誤差[[di]] (0≦i≦m-1)と前記シェア[[xi ]]の第j要素[[xi,j]] (0≦i≦m-1)から、[[e]]=Σi=0 m-1[[di]][[xi,j]]により、[[e]]を計算し、前記シェア[[wt ]]の第j要素[[wj,t]]と前記[[e]]から、[[wj,t+1]]=[[wj,t]]-η(1/m)[[e]]により、t+1回更新を行ったモデルパラメータwの値wt+1 のシェア[[wt+1 ]]の第j要素[[wj,t+1]]を計算するモデルパラメータ更新手段とを含む。
本発明の一態様による秘密ロジスティック回帰計算システムは、mを1以上の整数、ηを0<η<1を満たす実数、Sigmoid([[x]])を前記の秘密シグモイド関数計算システムを用いて入力ベクトルxのシェア[[x]]から、入力ベクトルxに対するシグモイド関数の値yのシェア[[y]]を計算する関数とし、秘密計算の対象となる任意の値をpとし、pの精度をb_p[bit]と表記した場合には、pのシェア[[p]]は実際には[[p×2b_p]]という固定小数点数のシェアであることを表し、秘密計算の対象となる任意のベクトルをqとし、qの要素をqiとし、qの精度をb_q[bit]と表記した場合には、qのシェア[[q]]は実際には[[qi×2b_q]]という固定小数点数のシェアにより構成されることを表し、w,w0 ,wt ,wt+1 ,eta_grad_ave_shiftの精度をb_w[bit]と表記し、xi (0≦i≦m-1)の精度をb_x[bit]と表記し、yi(0≦i≦m-1),ci(0≦i≦m-1),di(0≦i≦m-1)の精度をb_y[bit]と表記し、ηの精度をb_η[bit]と表記し、学習データ数の逆数1/mの精度をb_m+H[bit]と表記し、bi(0≦i≦m-1)の精度をb_w+b_x[bit]と表記し、eの精度をb_y+b_x[bit]と表記し、eta_gradの精度をb_y+b_x+b_η[bit]と表記し、eta_grad_shiftの精度をb_tmp[bit]と表記し、eta_grad_aveの精度をb_tmp+b_m+H[bit]と表記し、b_w,b_x,b_y,b_η,b_m,H,b_tmpを予め定められた正の整数とし、rshift(a,b)は、aという値をb[bit]だけ算術右シフトすることを表わすとして、3個以上の秘密ロジスティック回帰計算装置で構成され、説明変数のデータxi のシェア[[xi ]](0≦i≦m-1)、目的変数のデータyiのシェア[[yi]](0≦i≦m-1)から、ロジスティック回帰モデルのモデルパラメータwのシェア[[w]]を計算する秘密ロジスティック回帰計算システムであって、モデルパラメータwの初期値w0 のシェア[[w0 ]]を設定する初期化手段と、i=0, …, m-1に対して、t回更新を行ったモデルパラメータwの値wt のシェア[[wt ]]と前記シェア[[xi ]]から、[[bi]]=hpsum([[wt ]], [[(1, xi )]])により、[[bi]]を計算し、前記[[bi]] (0≦i≦m-1)から、([[c0]],…, [[cm-1]])=Sigmoid(([[b0]],…, [[bm-1]]))により、([[c0]],…, [[cm-1]])を計算し、i=0, …, m-1に対して、前記シェア[[yi]]と前記([[c0]],…, [[cm-1]])の第i要素[[ci]]から、[[di]]=[[ci]]-[[yi]]により、誤差[[di]]を計算する誤差計算手段と、j=0, …, nに対して、前記誤差[[di]] (0≦i≦m-1)と前記シェア[[xi ]]の第j要素[[xi,j]] (0≦i≦m-1)から、[[e]]=Σi=0 m-1[[di]][[xi,j]]により、[[e]]を計算し、前記η及び前記[[e]]から、[[eta_grad]]=η[[e]]により、[[eta_grad]]を計算し、前記[[eta_grad]]から、[[eta_grad_shift]]=rshift([[eta_grad]], b_y+b_x+b_η-b_tmp)により、[[eta_grad_shift]]を計算し、前記[[eta_grad_shift]]から、[[eta_grad_ave]]=(1/m)[[eta_grad_shift]]により、[[eta_grad_ave]]を計算し、前記[[eta_grad_ave]]から、[[eta_grad_ave_shift]]=rshift([[eta_grad_ave]], b_tmp+b_m+H-b_w)により、[[eta_grad_ave_shift]]を計算し、前記シェア[[wt ]]の第j要素[[wj,t]]と前記[[eta_grad_ave_shift]]から、[[wj,t+1]]=[[wj,t]]-[[eta_grad_ave_shift]]により、t+1回更新を行ったモデルパラメータwの値wt+1 のシェア[[wt+1 ]]の第j要素[[wj,t+1]]を計算するモデルパラメータ更新手段とを含む。
本発明の一態様による秘密ロジスティック回帰計算システムは、mを1以上の整数、ηを0<η<1を満たす実数、Sigmoid([[x]])を前記の秘密シグモイド関数計算システムを用いて入力ベクトルxのシェア[[x]]から、入力ベクトルxに対するシグモイド関数の値yのシェア[[y]]を計算する関数とし、秘密計算の対象となる任意の値をpとし、pの精度をb_p[bit]と表記した場合には、pのシェア[[p]]は実際には[[p×2b_p]]という固定小数点数のシェアであることを表し、秘密計算の対象となる任意のベクトルをqとし、qの要素をqiとし、qの精度をb_q[bit]と表記した場合には、qのシェア[[q]]は実際には[[qi×2b_q]]という固定小数点数のシェアにより構成されることを表し、w,w0 ,wt ,wt+1 ,eta_grad_aveの精度をb_w[bit]と表記し、xi (0≦i≦m-1)の精度をb_x[bit]と表記し、yi(0≦i≦m-1),ci(0≦i≦m-1),di(0≦i≦m-1)の精度をb_y[bit]と表記し、ηの精度をb_η[bit]と表記し、bi(0≦i≦m-1)の精度をb_w+b_x[bit]と表記し、eの精度をb_y+b_x[bit]と表記し、b_w,b_x,b_y,b_ηを予め定められた正の整数とし、rshift(a,b)は、aという値をb[bit]だけ算術右シフトすることを表わすとし、floorは切り捨てを表す関数とし、X=-(floor(log2(η/m)))として、3個以上の秘密ロジスティック回帰計算装置で構成され、説明変数のデータxi のシェア[[xi ]](0≦i≦m-1)、目的変数のデータyiのシェア[[yi]](0≦i≦m-1)から、ロジスティック回帰モデルのモデルパラメータwのシェア[[w]]を計算する秘密ロジスティック回帰計算システムであって、モデルパラメータwの初期値w0 のシェア[[w0 ]]を設定する初期化手段と、i=0, …, m-1に対して、t回更新を行ったモデルパラメータwの値wt のシェア[[wt ]]と前記シェア[[xi ]]から、[[bi]]=hpsum([[wt ]], [[(1, xi )]])により、[[bi]]を計算し、前記[[bi]] (0≦i≦m-1)から、([[c0]],…, [[cm-1]])=Sigmoid(([[b0]],…, [[bm-1]]))により、([[c0]],…, [[cm-1]])を計算し、i=0, …, m-1に対して、前記シェア[[yi]]と前記([[c0]],…, [[cm-1]])の第i要素[[ci]]から、[[di]]=[[ci]]-[[yi]]により、誤差[[di]]を計算する誤差計算手段と、j=0, …, nに対して、前記誤差[[di]] (0≦i≦m-1)と前記シェア[[xi ]]の第j要素[[xi,j]] (0≦i≦m-1)から、[[e]]=Σi=0 m-1[[di]][[xi,j]]により、[[e]]を計算し、前記[[e]]から、[[eta_grad_ave]]=rshift([[e]], X+b_y+b_x-b_w)により、[[eta_grad_ave]]を計算し、前記シェア[[wt ]]の第j要素[[wj,t]]と前記[[eta_grad_ave]]から、[[wj,t+1]]=[[wj,t]]-[[eta_grad_ave]]により、t+1回更新を行ったモデルパラメータwの値wt+1 のシェア[[wt+1 ]]の第j要素[[wj,t+1]]を計算するモデルパラメータ更新手段とを含む。
xから[[x]]を求める方法(秘匿化)、[[x]]からxを求める方法(復元)として、具体的には、参考非特許文献1、参考非特許文献2に記載の方法がある。
(参考非特許文献2:Shamir, A., “How to share a secret”, Communications of the ACM, Vol.22, No.11, pp.612-613, 1979.)
加算、乗算の具体的方法として、参考非特許文献3、参考非特許文献4に記載の方法がある。
(参考非特許文献3:Ben-Or, M., Goldwasser, S. and Wigderson, A., “Completeness theorems for non-cryptographic fault-tolerant distributed computation”, Proceedings of the twentieth annual ACM symposium on Theory of computing, ACM, pp. 1-10, 1988.)
(参考非特許文献4:Gennaro, R., Rabin, M. O. and Rabin, T., “Simplified VSS and fast-track multiparty computations with applications to threshold cryptography”, Proceedings of the seventeenth annual ACM symposium on Principles of distributed computing, ACM, pp.101-111, 1998.)
図4に示すように秘密シグモイド関数計算装置100iは、秘密一括写像計算部110iと、記録部190iを含む。記録部190iを除く秘密シグモイド関数計算装置100iの各構成部は、秘密シグモイド関数計算アルゴリズムで必要とされる演算、つまり、少なくとも秘匿化、加算、乗算、エイチピーサム(hpsum)、秘密一括写像のうち、各構成部の機能を実現するうえで必要になる演算を実行できるように構成されている。本発明において個々の演算を実現するための具体的な機能構成は、例えば参考非特許文献1〜5のそれぞれで開示されるアルゴリズムを実行できるような構成で十分であり、これらは従来的構成であるから詳細な説明については省略する。また、記録部190iは、秘密シグモイド関数計算装置100iの処理に必要な情報を記録する構成部である。例えば、記録部190iは、秘密一括写像mapσの定義に必要となるシグモイド関数σ(x)の定義域を表すパラメータ(a0, …, ak-1)と値域を表すパラメータ(σ(a0), …, σ(ak-1)) (ただし、kは1以上の整数、a0, …, ak-1はa0<…<ak-1を満たす実数)を記録しておく。ここで、先述したように、x=0付近(つまり、-ε<x<ε、ε(>0)は所定の実数)においてその他の範囲(つまり、x≦-εまたはx≧ε)よりも隣接する点の間隔が相対的に狭くなる(あるいは、点が相対的に多くなる)ようにパラメータ(a0, …, ak-1)を選択すると、x=0付近におけるシグモイド関数の近似精度高くすることができる。
収束条件判定手段240は、事前に設定されたモデルパラメータ更新の繰り返し条件、つまり、t<Tを判定し、条件が満たされる場合はS220〜S230の処理を繰り返し、繰り返し条件が満たされない場合(所定の学習回数Tに達した場合)、シェア[[wT-1 ]]をモデルパラメータwのシェア[[w]]として出力し、処理を終了する(S240)。
最後に、モデルパラメータ更新手段230は、シェア[[wt ]]の第j要素[[wj,t]]と[[eta_grad_ave_shift]]から、[[wj,t+1]]=[[wj,t]]-[[eta_grad_ave_shift]]により、t+1回更新を行ったモデルパラメータwの値wt+1 のシェア[[wt+1 ]]の第j要素[[wj,t+1]]を計算する。
収束条件判定手段240の処理は上記と同様である。
すなわち、eta_gradの精度はb_y+b_x+b_ηであるため、モデルパラメータ更新部230は、まず、|eta_grad|≦Aとなる精度b_y+b_x+b_ηの値Aを定める。そして、モデルパラメータ更新手段230は、B×2n=eta_grad×2n+A×2nを満たすB×2nのシェア[[B×2n]]を計算する。そして、モデルパラメータ更新手段230は、計算されたシェア[[B×2n]]に基づいて、B×2m=rlshift([[B×2n]],b_y+b_x+b_η-(b_y+b_x+b_η-b_tmp))を満たすB×2nのシェア[[B×2n]]を計算する。そして、モデルパラメータ更新部230は、計算されたシェア[[B×2n]]に基づいて、a×2m=B×2m-A×2mを満たすa×2mのシェア[[a×2m]]を計算する。計算された[[a×2m]]が、上記の説明における[[eta_grad_shift]]となる。
また、eta_grad_aveの精度はb_tmp+b_m+Hであるため、モデルパラメータ更新部230は、まず、|eta_grad_ave|≦Aとなる精度b_tmp+b_m+Hの値Aを定める。そして、モデルパラメータ更新手段230は、B×2n=eta_grad_ave×2n+A×2nを満たすB×2nのシェア[[B×2n]]を計算する。そして、モデルパラメータ更新部230は、計算されたシェア[[B×2n]]に基づいて、B×2m=rlshift([[B×2n]],b_tmp+b_m+H-(b_tmp+b_m+H-b_w))を満たすB×2nのシェア[[B×2n]]を計算する。そして、モデルパラメータ更新手段230は、計算されたシェア[[B×2n]]に基づいて、a×2m=B×2m-A×2mを満たすa×2mのシェア[[a×2m]]を計算する。計算された[[a×2m]]が、上記の説明における[[eta_grad_ave_shift]]となる。
なお、第2実施形態の変形例では、処理コストを低減するために、固定小数点数に対して秘密計算が行われる。すなわち、秘密計算の対象であるw等の値が小数を含む場合には、秘密計算は、この値に2bを乗算した値に対して行われるとする。この場合、その秘密計算の結果に対して2bを除算した値を計算することにより、もともと秘密計算の対象となっていた値に対応する秘密計算の結果が得られる。このときのbを、精度と呼ぶ。
すなわち、第2実施形態の変形例では、秘密計算の対象となる任意の値をpとし、pの精度をb_p[bit]と表記した場合には、pのシェア[[p]]は実際には[[p×2b_p]]という固定小数点数のシェアであることを表す。
最後に、モデルパラメータ更新手段230は、シェア[[wt ]]の第j要素[[wj,t]]と[[eta_grad_ave]]から、[[wj,t+1]]=[[wj,t]]-[[eta_grad_ave]]により、t+1回更新を行ったモデルパラメータwの値wt+1 のシェア[[wt+1 ]]の第j要素[[wj,t+1]]を計算する。
収束条件判定手段240の処理は上記と同様である。
eの精度はb_y+b_xであるため、モデルパラメータ更新部230は、まず、|e|≦Aとなる精度b_y+b_xの値Aを定める。そして、モデルパラメータ更新部230は、B×2n=e×2n+A×2nを満たすB×2nのシェア[[B×2n]]を計算する。そして、モデルパラメータ更新手段230は、計算されたシェア[[B×2n]]に基づいて、B×2m/(2X)=rlshift([[B×2n]],b_y+b_x-(X+b_y+b_x-b_w)+X)を満たすB×2m/(2X)のシェア[[B×2m/(2X)]]を計算する。そして、モデルパラメータ更新手段230は、計算されたシェア[[B×2m/(2X)]]に基づいて、a×2m/2X=B×2m/2X-A×2m/2Xを満たすa×2m/2Xのシェア[[a×2m/2X]]を計算する。計算された[[a×2m/2X]]が、上記の説明における[[eta_grad_ave]]となる。
2S≧max(|maxx→|,|minx→|) …(A)
max(a,b)は、aとbの大きい方の値を示す。上記の計算で得たシフト量Sを用いて以下の計算を行うと、0≦^xi≦1となるように正規化できる。
第2実施形態の変形例3の秘密ロジスティック回帰計算装置200は、まず、上記式(A)を満たすシフト量Sj(j=0,1,…,n)を各説明変数xj に対して計算する。そして、秘密ロジスティック回帰計算装置200は、計算されたシフト量S j 及び[[xj ]]を用いて、[[^xj ]]=rshift([[xj ]],Sj)を計算する。秘密ロジスティック回帰計算装置200は、[[xi ]]に代えて[[^xi ]]を用いて、上記の初期化手段210、誤差計算手段220及びモデルパラメータ更新手段230の処理を行うことにより、モデルパラメータのシェア[[^w]]を計算する。最後に、秘密ロジスティック回帰計算装置200は、[[^w]]を用いて、[[w]]=[[^w]]×2-Sを計算する。
w,w0 ,wt ,wt+1 ,eta_grad_aveの精度をb_w[bit]と表記し、xi (0≦i≦m-1)の精度をb_x[bit]と表記し、yi(0≦i≦m-1),ci(0≦i≦m-1),di(0≦i≦m-1)の精度をb_y[bit]と表記し、bi(0≦i≦m-1)の精度をb_w+b_x[bit]と表記し、eの精度をb_y+b_x[bit]と表記し、減衰率αの精度をb_αと表記し、v,v0 ,vt ,vt+1 精度をb_vと表記し、alpha_vの精度をb_v+b_αと表記する。b_w,b_x,b_y,b_αは、秘密計算を行うコンピュータの性能に応じて予め定められる正の整数である。なお、b_v+b_α=b_wとなるように、b_v+b_αを設定してもよい。これにより、処理が容易となる。
収束条件判定手段240の処理は上記と同様である。

Claims (13)

  1. mapσをシグモイド関数σ(x)の定義域を表すパラメータ(a0, …, ak-1)と値域を表すパラメータ(σ(a0), …, σ(ak-1)) (ただし、kは1以上の整数、a0, …, ak-1はa0<…<ak-1を満たす実数)により定義される秘密一括写像とし、
    3個以上の秘密シグモイド関数計算装置で構成され、入力ベクトルx=(x0, …, xm-1)のシェア[[x]]=([[x0]], …, [[xm-1]])から、入力ベクトルxに対するシグモイド関数の値y=(y0, …, ym-1)のシェア[[y]]=([[y0]], …, [[ym-1]])を計算する秘密シグモイド関数計算システムであって、
    前記シェア[[x]]から、mapσ([[x]])=([[σ(af(0))]], …, [[σ(af(m-1))]])(ただし、f(i)(0≦i≦m-1)は、aj≦xi<aj+1となるj)を計算し、([[y0]], …, [[ym-1]])=([[σ(af(0))]], …, [[σ(af(m-1))]])により、前記シェア[[y]]を計算する秘密一括写像計算手段と
    を含む秘密シグモイド関数計算システム。
  2. mを1以上の整数、ηを0<η<1を満たす実数、Sigmoid([[x]])を請求項1に記載の秘密シグモイド関数計算システムを用いて入力ベクトルxのシェア[[x]]から、入力ベクトルxに対するシグモイド関数の値yのシェア[[y]]を計算する関数とし、
    3個以上の秘密ロジスティック回帰計算装置で構成され、説明変数のデータxi のシェア[[xi ]](0≦i≦m-1)、目的変数のデータyiのシェア[[yi]](0≦i≦m-1)から、ロジスティック回帰モデルのモデルパラメータwのシェア[[w]]を計算する秘密ロジスティック回帰計算システムであって、
    モデルパラメータwの初期値w0 のシェア[[w0 ]]を設定する初期化手段と、
    i=0, …, m-1に対して、t回更新を行ったモデルパラメータwの値wt のシェア[[wt ]]と前記シェア[[xi ]]から、[[bi]]=hpsum([[wt ]], [[(1, xi )]])により、[[bi]]を計算し、
    前記[[bi]] (0≦i≦m-1)から、([[c0]],…, [[cm-1]])=Sigmoid(([[b0]],…, [[bm-1]]))により、([[c0]],…, [[cm-1]])を計算し、
    i=0, …, m-1に対して、前記シェア[[yi]]と前記([[c0]],…, [[cm-1]])の第i要素[[ci]]から、[[di]]=[[ci]]-[[yi]]により、誤差[[di]]を計算する誤差計算手段と、
    j=0, …, nに対して、
    前記誤差[[di]] (0≦i≦m-1)と前記シェア[[xi ]]の第j要素[[xi,j]] (0≦i≦m-1)から、[[e]]=Σi=0 m-1[[di]][[xi,j]]により、[[e]]を計算し、
    前記シェア[[wt ]]の第j要素[[wj,t]]と前記[[e]]から、[[wj,t+1]]=[[wj,t]]-η(1/m)[[e]]により、t+1回更新を行ったモデルパラメータwの値wt+1 のシェア[[wt+1 ]]の第j要素[[wj,t+1]]を計算するモデルパラメータ更新手段と
    を含む秘密ロジスティック回帰計算システム。
  3. mを1以上の整数、ηを0<η<1を満たす実数、Sigmoid([[x]])を請求項1に記載の秘密シグモイド関数計算システムを用いて入力ベクトルxのシェア[[x]]から、入力ベクトルxに対するシグモイド関数の値yのシェア[[y]]を計算する関数とし、
    秘密計算の対象となる任意の値をpとし、pの精度をb_p[bit]と表記した場合には、pのシェア[[p]]は実際には[[p×2b_p]]という固定小数点数のシェアであることを表し、
    秘密計算の対象となる任意のベクトルをqとし、qの要素をqiとし、qの精度をb_q[bit]と表記した場合には、qのシェア[[q]]は実際には[[qi×2b_q]]という固定小数点数のシェアにより構成されることを表し、
    w,w0 ,wt ,wt+1 ,eta_grad_ave_shiftの精度をb_w[bit]と表記し、xi (0≦i≦m-1)の精度をb_x[bit]と表記し、yi(0≦i≦m-1),ci(0≦i≦m-1),di(0≦i≦m-1)の精度をb_y[bit]と表記し、ηの精度をb_η[bit]と表記し、学習データ数の逆数1/mの精度をb_m+H[bit]と表記し、bi(0≦i≦m-1)の精度をb_w+b_x[bit]と表記し、eの精度をb_y+b_x[bit]と表記し、eta_gradの精度をb_y+b_x+b_η[bit]と表記し、eta_grad_shiftの精度をb_tmp[bit]と表記し、eta_grad_aveの精度をb_tmp+b_m+H[bit]と表記し、
    b_w,b_x,b_y,b_η,b_m,H,b_tmpを予め定められた正の整数とし、
    rshift(a,b)は、aという値をb[bit]だけ算術右シフトすることを表わすとして、
    3個以上の秘密ロジスティック回帰計算装置で構成され、説明変数のデータxi のシェア[[xi ]](0≦i≦m-1)、目的変数のデータyiのシェア[[yi]](0≦i≦m-1)から、ロジスティック回帰モデルのモデルパラメータwのシェア[[w]]を計算する秘密ロジスティック回帰計算システムであって、
    モデルパラメータwの初期値w0 のシェア[[w0 ]]を設定する初期化手段と、
    i=0, …, m-1に対して、t回更新を行ったモデルパラメータwの値wt のシェア[[wt ]]と前記シェア[[xi ]]から、[[bi]]=hpsum([[wt ]], [[(1, xi )]])により、[[bi]]を計算し、
    前記[[bi]] (0≦i≦m-1)から、([[c0]],…, [[cm-1]])=Sigmoid(([[b0]],…, [[bm-1]]))により、([[c0]],…, [[cm-1]])を計算し、
    i=0, …, m-1に対して、前記シェア[[yi]]と前記([[c0]],…, [[cm-1]])の第i要素[[ci]]から、[[di]]=[[ci]]-[[yi]]により、誤差[[di]]を計算する誤差計算手段と、
    j=0, …, nに対して、
    前記誤差[[di]] (0≦i≦m-1)と前記シェア[[xi ]]の第j要素[[xi,j]] (0≦i≦m-1)から、[[e]]=Σi=0 m-1[[di]][[xi,j]]により、[[e]]を計算し、
    前記η及び前記[[e]]から、[[eta_grad]]=η[[e]]により、[[eta_grad]]を計算し、
    前記[[eta_grad]]から、[[eta_grad_shift]]=rshift([[eta_grad]], b_y+b_x+b_η-b_tmp)により、[[eta_grad_shift]]を計算し、
    前記[[eta_grad_shift]]から、[[eta_grad_ave]]=(1/m)[[eta_grad_shift]]により、[[eta_grad_ave]]を計算し、
    前記[[eta_grad_ave]]から、[[eta_grad_ave_shift]]=rshift([[eta_grad_ave]], b_tmp+b_m+H-b_w)により、[[eta_grad_ave_shift]]を計算し、
    前記シェア[[wt ]]の第j要素[[wj,t]]と前記[[eta_grad_ave_shift]]から、[[wj,t+1]]=[[wj,t]]-[[eta_grad_ave_shift]]により、t+1回更新を行ったモデルパラメータwの値wt+1 のシェア[[wt+1 ]]の第j要素[[wj,t+1]]を計算するモデルパラメータ更新手段と
    を含む秘密ロジスティック回帰計算システム。
  4. mを1以上の整数、ηを0<η<1を満たす実数、Sigmoid([[x]])を請求項1に記載の秘密シグモイド関数計算システムを用いて入力ベクトルxのシェア[[x]]から、入力ベクトルxに対するシグモイド関数の値yのシェア[[y]]を計算する関数とし、
    秘密計算の対象となる任意の値をpとし、pの精度をb_p[bit]と表記した場合には、pのシェア[[p]]は実際には[[p×2b_p]]という固定小数点数のシェアであることを表し、
    秘密計算の対象となる任意のベクトルをqとし、qの要素をqiとし、qの精度をb_q[bit]と表記した場合には、qのシェア[[q]]は実際には[[qi×2b_q]]という固定小数点数のシェアにより構成されることを表し、
    w,w0 ,wt ,wt+1 ,eta_grad_aveの精度をb_w[bit]と表記し、xi (0≦i≦m-1)の精度をb_x[bit]と表記し、yi(0≦i≦m-1),ci(0≦i≦m-1),di(0≦i≦m-1)の精度をb_y[bit]と表記し、ηの精度をb_η[bit]と表記し、bi(0≦i≦m-1)の精度をb_w+b_x[bit]と表記し、eの精度をb_y+b_x[bit]と表記し、
    b_w,b_x,b_y,b_ηを予め定められた正の整数とし、
    rshift(a,b)は、aという値をb[bit]だけ算術右シフトすることを表わすとし、
    floorは切り捨てを表す関数とし、X=-(floor(log2(η/m)))として、
    3個以上の秘密ロジスティック回帰計算装置で構成され、説明変数のデータxi のシェア[[xi ]](0≦i≦m-1)、目的変数のデータyiのシェア[[yi]](0≦i≦m-1)から、ロジスティック回帰モデルのモデルパラメータwのシェア[[w]]を計算する秘密ロジスティック回帰計算システムであって、
    モデルパラメータwの初期値w0 のシェア[[w0 ]]を設定する初期化手段と、
    i=0, …, m-1に対して、t回更新を行ったモデルパラメータwの値wt のシェア[[wt ]]と前記シェア[[xi ]]から、[[bi]]=hpsum([[wt ]], [[(1, xi )]])により、[[bi]]を計算し、
    前記[[bi]] (0≦i≦m-1)から、([[c0]],…, [[cm-1]])=Sigmoid(([[b0]],…, [[bm-1]]))により、([[c0]],…, [[cm-1]])を計算し、
    i=0, …, m-1に対して、前記シェア[[yi]]と前記([[c0]],…, [[cm-1]])の第i要素[[ci]]から、[[di]]=[[ci]]-[[yi]]により、誤差[[di]]を計算する誤差計算手段と、
    j=0, …, nに対して、
    前記誤差[[di]] (0≦i≦m-1)と前記シェア[[xi ]]の第j要素[[xi,j]] (0≦i≦m-1)から、[[e]]=Σi=0 m-1[[di]][[xi,j]]により、[[e]]を計算し、
    前記[[e]]から、[[eta_grad_ave]]=rshift([[e]], X+b_y+b_x-b_w)により、[[eta_grad_ave]]を計算し、
    前記シェア[[wt ]]の第j要素[[wj,t]]と前記[[eta_grad_ave]]から、[[wj,t+1]]=[[wj,t]]-[[eta_grad_ave]]により、t+1回更新を行ったモデルパラメータwの値wt+1 のシェア[[wt+1 ]]の第j要素[[wj,t+1]]を計算するモデルパラメータ更新手段と
    を含む秘密ロジスティック回帰計算システム。
  5. mapσをシグモイド関数σ(x)の定義域を表すパラメータ(a0, …, ak-1)と値域を表すパラメータ(σ(a0), …, σ(ak-1)) (ただし、kは1以上の整数、a0, …, ak-1はa0<…<ak-1を満たす実数)により定義される秘密一括写像とし、
    入力ベクトルx=(x0, …, xm-1)のシェア[[x]]=([[x0]], …, [[xm-1]])から、入力ベクトルxに対するシグモイド関数の値y=(y0, …, ym-1)のシェア[[y]]=([[y0]], …, [[ym-1]])を計算する、3個以上の秘密シグモイド関数計算装置で構成される秘密シグモイド関数計算システムの中の秘密シグモイド関数計算装置であって、
    前記シェア[[x]]から、mapσ([[x]])=([[σ(af(0))]], …, [[σ(af(m-1))]])(ただし、f(i)(0≦i≦m-1)は、aj≦xi<aj+1となるj)を計算し、([[y0]], …, [[ym-1]])=([[σ(af(0))]], …, [[σ(af(m-1))]])により、前記シェア[[y]]を計算するための秘密一括写像計算部と
    を含む秘密シグモイド関数計算装置。
  6. mを1以上の整数、ηを0<η<1を満たす実数、Sigmoid([[x]])を、3個以上の、請求項5に記載の秘密シグモイド関数計算装置で構成される秘密シグモイド関数計算システムを用いて入力ベクトルxのシェア[[x]]から、入力ベクトルxに対するシグモイド関数の値yのシェア[[y]]を計算する関数とし、
    説明変数のデータxi のシェア[[xi ]](0≦i≦m-1)、目的変数のデータyiのシェア[[yi]](0≦i≦m-1)から、ロジスティック回帰モデルのモデルパラメータwのシェア[[w]]を計算する、3個以上の秘密ロジスティック回帰計算装置で構成される秘密ロジスティック回帰計算システムの中の秘密ロジスティック回帰計算装置であって、
    モデルパラメータwの初期値w0 のシェア[[w0 ]]を設定するための初期化部と、
    i=0, …, m-1に対して、t回更新を行ったモデルパラメータwの値wt のシェア[[wt ]]と前記シェア[[xi ]]から、[[bi]]=hpsum([[wt ]], [[(1, xi )]])により、[[bi]]を計算し、
    前記[[bi]] (0≦i≦m-1)から、([[c0]],…, [[cm-1]])=Sigmoid(([[b0]],…, [[bm-1]]))により、([[c0]],…, [[cm-1]])を計算し、
    i=0, …, m-1に対して、前記シェア[[yi]]と前記([[c0]],…, [[cm-1]])の第i要素[[ci]]から、[[di]]=[[ci]]-[[yi]]により、誤差[[di]]を計算するための誤差計算部と、
    j=0, …, nに対して、
    前記誤差[[di]] (0≦i≦m-1)と前記シェア[[xi ]]の第j要素[[xi,j]] (0≦i≦m-1)から、[[e]]=Σi=0 m-1[[di]][[xi,j]]により、[[e]]を計算し、
    前記シェア[[wt ]]の第j要素[[wj,t]]と前記[[e]]から、[[wj,t+1]]=[[wj,t]]-η(1/m)[[e]]により、t+1回更新を行ったモデルパラメータwの値wt+1 のシェア[[wt+1 ]]の第j要素[[wj,t+1]]を計算するためのモデルパラメータ更新部と
    を含む秘密ロジスティック回帰計算装置。
  7. mを1以上の整数、ηを0<η<1を満たす実数、Sigmoid([[x]])を請求項5に記載の秘密シグモイド関数計算システムを用いて入力ベクトルxのシェア[[x]]から、入力ベクトルxに対するシグモイド関数の値yのシェア[[y]]を計算する関数とし、
    秘密計算の対象となる任意の値をpとし、pの精度をb_p[bit]と表記した場合には、pのシェア[[p]]は実際には[[p×2b_p]]という固定小数点数のシェアであることを表し、
    秘密計算の対象となる任意のベクトルをqとし、qの要素をqiとし、qの精度をb_q[bit]と表記した場合には、qのシェア[[q]]は実際には[[qi×2b_q]]という固定小数点数のシェアにより構成されることを表し、
    w,w0 ,wt ,wt+1 ,eta_grad_ave_shiftの精度をb_w[bit]と表記し、xi (0≦i≦m-1)の精度をb_x[bit]と表記し、yi(0≦i≦m-1),ci(0≦i≦m-1),di(0≦i≦m-1)の精度をb_y[bit]と表記し、ηの精度をb_η[bit]と表記し、学習データ数の逆数1/mの精度をb_m+H[bit]と表記し、bi(0≦i≦m-1)の精度をb_w+b_x[bit]と表記し、eの精度をb_y+b_x[bit]と表記し、eta_gradの精度をb_y+b_x+b_η[bit]と表記し、eta_grad_shiftの精度をb_tmp[bit]と表記し、eta_grad_aveの精度をb_tmp+b_m+H[bit]と表記し、
    b_w,b_x,b_y,b_η,b_m,H,b_tmpを予め定められた正の整数とし、
    rshift(a,b)は、aという値をb[bit]だけ算術右シフトすることを表わすとして、
    3個以上の秘密ロジスティック回帰計算装置で構成され、説明変数のデータxi のシェア[[xi ]](0≦i≦m-1)、目的変数のデータyiのシェア[[yi]](0≦i≦m-1)から、ロジスティック回帰モデルのモデルパラメータwのシェア[[w]]を計算する秘密ロジスティック回帰計算システムの中の秘密ロジスティック回帰計算装置であって、
    モデルパラメータwの初期値w0 のシェア[[w0 ]]を設定する初期化手段と、
    i=0, …, m-1に対して、t回更新を行ったモデルパラメータwの値wt のシェア[[wt ]]と前記シェア[[xi ]]から、[[bi]]=hpsum([[wt ]], [[(1, xi )]])により、[[bi]]を計算し、
    前記[[bi]] (0≦i≦m-1)から、([[c0]],…, [[cm-1]])=Sigmoid(([[b0]],…, [[bm-1]]))により、([[c0]],…, [[cm-1]])を計算し、
    i=0, …, m-1に対して、前記シェア[[yi]]と前記([[c0]],…, [[cm-1]])の第i要素[[ci]]から、[[di]]=[[ci]]-[[yi]]により、誤差[[di]]を計算する誤差計算手段と、
    j=0, …, nに対して、
    前記誤差[[di]] (0≦i≦m-1)と前記シェア[[xi ]]の第j要素[[xi,j]] (0≦i≦m-1)から、[[e]]=Σi=0 m-1[[di]][[xi,j]]により、[[e]]を計算し、
    前記η及び前記[[e]]から、[[eta_grad]]=η[[e]]により、[[eta_grad]]を計算し、
    前記[[eta_grad]]から、[[eta_grad_shift]]=rshift([[eta_grad]], b_y+b_x+b_η-b_tmp)により、[[eta_grad_shift]]を計算し、
    前記[[eta_grad_shift]]から、[[eta_grad_ave]]=(1/m)[[eta_grad_shift]]により、[[eta_grad_ave]]を計算し、
    前記[[eta_grad_ave]]から、[[eta_grad_ave_shift]]=rshift([[eta_grad_ave]], b_tmp+b_m+H-b_w)により、[[eta_grad_ave_shift]]を計算し、
    前記シェア[[wt ]]の第j要素[[wj,t]]と前記[[eta_grad_ave_shift]]から、[[wj,t+1]]=[[wj,t]]-[[eta_grad_ave_shift]]により、t+1回更新を行ったモデルパラメータwの値wt+1 のシェア[[wt+1 ]]の第j要素[[wj,t+1]]を計算するモデルパラメータ更新手段と
    を含む秘密ロジスティック回帰計算装置。
  8. mを1以上の整数、ηを0<η<1を満たす実数、Sigmoid([[x]])を請求項5に記載の秘密シグモイド関数計算システムを用いて入力ベクトルxのシェア[[x]]から、入力ベクトルxに対するシグモイド関数の値yのシェア[[y]]を計算する関数とし、
    秘密計算の対象となる任意の値をpとし、pの精度をb_p[bit]と表記した場合には、pのシェア[[p]]は実際には[[p×2b_p]]という固定小数点数のシェアであることを表し、
    秘密計算の対象となる任意のベクトルをqとし、qの要素をqiとし、qの精度をb_q[bit]と表記した場合には、qのシェア[[q]]は実際には[[qi×2b_q]]という固定小数点数のシェアにより構成されることを表し、
    w,w0 ,wt ,wt+1 ,eta_grad_aveの精度をb_w[bit]と表記し、xi (0≦i≦m-1)の精度をb_x[bit]と表記し、yi(0≦i≦m-1),ci(0≦i≦m-1),di(0≦i≦m-1)の精度をb_y[bit]と表記し、ηの精度をb_η[bit]と表記し、bi(0≦i≦m-1)の精度をb_w+b_x[bit]と表記し、eの精度をb_y+b_x[bit]と表記し、
    b_w,b_x,b_y,b_ηを予め定められた正の整数とし、
    rshift(a,b)は、aという値をb[bit]だけ算術右シフトすることを表わすとし、
    floorは切り捨てを表す関数とし、X=-(floor(log2(η/m)))として、
    3個以上の秘密ロジスティック回帰計算装置で構成され、説明変数のデータxi のシェア[[xi ]](0≦i≦m-1)、目的変数のデータyiのシェア[[yi]](0≦i≦m-1)から、ロジスティック回帰モデルのモデルパラメータwのシェア[[w]]を計算する秘密ロジスティック回帰計算システムの中の秘密ロジスティック回帰計算装置であって、
    モデルパラメータwの初期値w0 のシェア[[w0 ]]を設定する初期化手段と、
    i=0, …, m-1に対して、t回更新を行ったモデルパラメータwの値wt のシェア[[wt ]]と前記シェア[[xi ]]から、[[bi]]=hpsum([[wt ]], [[(1, xi )]])により、[[bi]]を計算し、
    前記[[bi]] (0≦i≦m-1)から、([[c0]],…, [[cm-1]])=Sigmoid(([[b0]],…, [[bm-1]]))により、([[c0]],…, [[cm-1]])を計算し、
    i=0, …, m-1に対して、前記シェア[[yi]]と前記([[c0]],…, [[cm-1]])の第i要素[[ci]]から、[[di]]=[[ci]]-[[yi]]により、誤差[[di]]を計算する誤差計算手段と、
    j=0, …, nに対して、
    前記誤差[[di]] (0≦i≦m-1)と前記シェア[[xi ]]の第j要素[[xi,j]] (0≦i≦m-1)から、[[e]]=Σi=0 m-1[[di]][[xi,j]]により、[[e]]を計算し、
    前記[[e]]から、[[eta_grad_ave]]=rshift([[e]], X+b_y+b_x-b_w)により、[[eta_grad_ave]]を計算し、
    前記シェア[[wt ]]の第j要素[[wj,t]]と前記[[eta_grad_ave]]から、[[wj,t+1]]=[[wj,t]]-[[eta_grad_ave]]により、t+1回更新を行ったモデルパラメータwの値wt+1 のシェア[[wt+1 ]]の第j要素[[wj,t+1]]を計算するモデルパラメータ更新手段と
    を含む秘密ロジスティック回帰計算装置。
  9. mapσをシグモイド関数σ(x)の定義域を表すパラメータ(a0, …, ak-1)と値域を表すパラメータ(σ(a0), …, σ(ak-1)) (ただし、kは1以上の整数、a0, …, ak-1はa0<…<ak-1を満たす実数)により定義される秘密一括写像とし、
    3個以上の秘密シグモイド関数計算装置で構成される秘密シグモイド関数計算システムが、入力ベクトルx=(x0, …, xm-1)のシェア[[x]]=([[x0]], …, [[xm-1]])から、入力ベクトルxに対するシグモイド関数の値y=(y0, …, ym-1)のシェア[[y]]=([[y0]], …, [[ym-1]])を計算する秘密シグモイド関数計算方法であって、
    前記秘密シグモイド関数計算システムが、前記シェア[[x]]から、mapσ([[x]])=([[σ(af(0))]], …, [[σ(af(m-1))]])(ただし、f(i)(0≦i≦m-1)は、aj≦xi<aj+1となるj)を計算し、([[y0]], …, [[ym-1]])= ([[σ(af(0))]], …, [[σ(af(m-1))]])により、前記シェア[[y]]を計算する秘密一括写像計算ステップと
    を含む秘密シグモイド関数計算方法。
  10. mを1以上の整数、ηを0<η<1を満たす実数、Sigmoid([[x]])を請求項9に記載の秘密シグモイド関数計算方法を用いて入力ベクトルxのシェア[[x]]から、入力ベクトルxに対するシグモイド関数の値yのシェア[[y]]を計算する関数とし、
    3個以上の秘密ロジスティック回帰計算装置で構成される秘密ロジスティック回帰計算システムが、説明変数のデータxi のシェア[[xi ]](0≦i≦m-1)、目的変数のデータyiのシェア[[yi]](0≦i≦m-1)から、ロジスティック回帰モデルのモデルパラメータwのシェア[[w]]を計算する秘密ロジスティック回帰計算方法であって、
    前記秘密ロジスティック回帰計算システムが、モデルパラメータwの初期値w0 のシェア[[w0 ]]を設定する初期化ステップと、
    前記秘密ロジスティック回帰計算システムが、i=0, …, m-1に対して、t回更新を行ったモデルパラメータwの値wt のシェア[[wt ]]と前記シェア[[xi ]]から、[[bi]]=hpsum([[wt ]], [[(1, xi )]])により、[[bi]]を計算し、
    前記[[bi]] (0≦i≦m-1)から、([[c0]],…, [[cm-1]])=Sigmoid(([[b0]],…, [[bm-1]]))により、([[c0]],…, [[cm-1]])を計算し、
    i=0, …, m-1に対して、前記シェア[[yi]]と前記([[c0]],…, [[cm-1]])の第i要素[[ci]]から、[[di]]=[[ci]]-[[yi]]により、誤差[[di]]を計算する誤差計算ステップと、
    前記秘密ロジスティック回帰計算システムが、j=0, …, nに対して、
    前記誤差[[di]] (0≦i≦m-1)と前記シェア[[xi ]]の第j要素[[xi,j]] (0≦i≦m-1)から、[[e]]=Σi=0 m-1[[di]][[xi,j]]により、[[e]]を計算し、
    前記シェア[[wt ]]の第j要素[[wj,t]]と前記[[e]]から、[[wj,t+1]]=[[wj,t]]-η(1/m)[[e]]により、t+1回更新を行ったモデルパラメータwの値wt+1 のシェア[[wt+1 ]]の第j要素[[wj,t+1]]を計算するモデルパラメータ更新ステップと
    を含む秘密ロジスティック回帰計算方法。
  11. mを1以上の整数、ηを0<η<1を満たす実数、Sigmoid([[x]])を請求項9に記載の秘密シグモイド関数計算方法を用いて入力ベクトルxのシェア[[x]]から、入力ベクトルxに対するシグモイド関数の値yのシェア[[y]]を計算する関数とし、
    秘密計算の対象となる任意の値をpとし、pの精度をb_p[bit]と表記した場合には、pのシェア[[p]]は実際には[[p×2b_p]]という固定小数点数のシェアであることを表し、
    秘密計算の対象となる任意のベクトルをqとし、qの要素をqiとし、qの精度をb_q[bit]と表記した場合には、qのシェア[[q]]は実際には[[qi×2b_q]]という固定小数点数のシェアにより構成されることを表し、
    w,w0 ,wt ,wt+1 ,eta_grad_ave_shiftの精度をb_w[bit]と表記し、xi (0≦i≦m-1)の精度をb_x[bit]と表記し、yi(0≦i≦m-1),ci(0≦i≦m-1),di(0≦i≦m-1)の精度をb_y[bit]と表記し、ηの精度をb_η[bit]と表記し、学習データ数の逆数1/mの精度をb_m+H[bit]と表記し、bi(0≦i≦m-1)の精度をb_w+b_x[bit]と表記し、eの精度をb_y+b_x[bit]と表記し、eta_gradの精度をb_y+b_x+b_η[bit]と表記し、eta_grad_shiftの精度をb_tmp[bit]と表記し、eta_grad_aveの精度をb_tmp+b_m+H[bit]と表記し、
    b_w,b_x,b_y,b_η,b_m,H,b_tmpを予め定められた正の整数とし、
    rshift(a,b)は、aという値をb[bit]だけ算術右シフトすることを表わすとして、
    3個以上の秘密ロジスティック回帰計算装置で構成される秘密ロジスティック回帰計算システムが、説明変数のデータxi のシェア[[xi ]](0≦i≦m-1)、目的変数のデータyiのシェア[[yi]](0≦i≦m-1)から、ロジスティック回帰モデルのモデルパラメータwのシェア[[w]]を計算する秘密ロジスティック回帰計算方法であって、
    前記秘密ロジスティック回帰計算システムが、モデルパラメータwの初期値w0 のシェア[[w0 ]]を設定する初期化ステップと、
    前記秘密ロジスティック回帰計算システムが、i=0, …, m-1に対して、t回更新を行ったモデルパラメータwの値wt のシェア[[wt ]]と前記シェア[[xi ]]から、[[bi]]=hpsum([[wt ]], [[(1, xi )]])により、[[bi]]を計算し、
    前記[[bi]] (0≦i≦m-1)から、([[c0]],…, [[cm-1]])=Sigmoid(([[b0]],…, [[bm-1]]))により、([[c0]],…, [[cm-1]])を計算し、
    i=0, …, m-1に対して、前記シェア[[yi]]と前記([[c0]],…, [[cm-1]])の第i要素[[ci]]から、[[di]]=[[ci]]-[[yi]]により、誤差[[di]]を計算する誤差計算ステップと、
    前記秘密ロジスティック回帰計算システムが、j=0, …, nに対して、
    前記誤差[[di]] (0≦i≦m-1)と前記シェア[[xi ]]の第j要素[[xi,j]] (0≦i≦m-1)から、[[e]]=Σi=0 m-1[[di]][[xi,j]]により、[[e]]を計算し、
    前記η及び前記[[e]]から、[[eta_grad]]=η[[e]]により、[[eta_grad]]を計算し、
    前記[[eta_grad]]から、[[eta_grad_shift]]=rshift([[eta_grad]], b_y+b_x+b_η-b_tmp)により、[[eta_grad_shift]]を計算し、
    前記[[eta_grad_shift]]から、[[eta_grad_ave]]=(1/m)[[eta_grad_shift]]により、[[eta_grad_ave]]を計算し、
    前記[[eta_grad_ave]]から、[[eta_grad_ave_shift]]=rshift([[eta_grad_ave]], b_tmp+b_m+H-b_w)により、[[eta_grad_ave_shift]]を計算し、
    前記シェア[[wt ]]の第j要素[[wj,t]]と前記[[eta_grad_ave_shift]]から、[[wj,t+1]]=[[wj,t]]-[[eta_grad_ave_shift]]により、t+1回更新を行ったモデルパラメータwの値wt+1 のシェア[[wt+1 ]]の第j要素[[wj,t+1]]を計算するモデルパラメータ更新ステップと
    を含む秘密ロジスティック回帰計算方法。
  12. mを1以上の整数、ηを0<η<1を満たす実数、Sigmoid([[x]])を請求項9に記載の秘密シグモイド関数計算方法を用いて入力ベクトルxのシェア[[x]]から、入力ベクトルxに対するシグモイド関数の値yのシェア[[y]]を計算する関数とし、
    秘密計算の対象となる任意の値をpとし、pの精度をb_p[bit]と表記した場合には、pのシェア[[p]]は実際には[[p×2b_p]]という固定小数点数のシェアであることを表し、
    秘密計算の対象となる任意のベクトルをqとし、qの要素をqiとし、qの精度をb_q[bit]と表記した場合には、qのシェア[[q]]は実際には[[qi×2b_q]]という固定小数点数のシェアにより構成されることを表し、
    w,w0 ,wt ,wt+1 ,eta_grad_aveの精度をb_w[bit]と表記し、xi (0≦i≦m-1)の精度をb_x[bit]と表記し、yi(0≦i≦m-1),ci(0≦i≦m-1),di(0≦i≦m-1)の精度をb_y[bit]と表記し、ηの精度をb_η[bit]と表記し、bi(0≦i≦m-1)の精度をb_w+b_x[bit]と表記し、eの精度をb_y+b_x[bit]と表記し、
    b_w,b_x,b_y,b_ηを予め定められた正の整数とし、
    rshift(a,b)は、aという値をb[bit]だけ算術右シフトすることを表わすとし、
    floorは切り捨てを表す関数とし、X=-(floor(log2(η/m)))として、
    3個以上の秘密ロジスティック回帰計算装置で構成される秘密ロジスティック回帰計算システムが、説明変数のデータxi のシェア[[xi ]](0≦i≦m-1)、目的変数のデータyiのシェア[[yi]](0≦i≦m-1)から、ロジスティック回帰モデルのモデルパラメータwのシェア[[w]]を計算する秘密ロジスティック回帰計算方法であって、
    前記秘密ロジスティック回帰計算システムが、モデルパラメータwの初期値w0 のシェア[[w0 ]]を設定する初期化ステップと、
    前記秘密ロジスティック回帰計算システムが、i=0, …, m-1に対して、t回更新を行ったモデルパラメータwの値wt のシェア[[wt ]]と前記シェア[[xi ]]から、[[bi]]=hpsum([[wt ]], [[(1, xi )]])により、[[bi]]を計算し、
    前記[[bi]] (0≦i≦m-1)から、([[c0]],…, [[cm-1]])=Sigmoid(([[b0]],…, [[bm-1]]))により、([[c0]],…, [[cm-1]])を計算し、
    i=0, …, m-1に対して、前記シェア[[yi]]と前記([[c0]],…, [[cm-1]])の第i要素[[ci]]から、[[di]]=[[ci]]-[[yi]]により、誤差[[di]]を計算する誤差計算ステップと、
    前記秘密ロジスティック回帰計算システムが、j=0, …, nに対して、
    前記誤差[[di]] (0≦i≦m-1)と前記シェア[[xi ]]の第j要素[[xi,j]] (0≦i≦m-1)から、[[e]]=Σi=0 m-1[[di]][[xi,j]]により、[[e]]を計算し、
    前記[[e]]から、[[eta_grad_ave]]=rshift([[e]], X+b_y+b_x-b_w)により、[[eta_grad_ave]]を計算し、
    前記シェア[[wt ]]の第j要素[[wj,t]]と前記[[eta_grad_ave]]から、[[wj,t+1]]=[[wj,t]]-[[eta_grad_ave]]により、t+1回更新を行ったモデルパラメータwの値wt+1 のシェア[[wt+1 ]]の第j要素[[wj,t+1]]を計算するモデルパラメータ更新ステップと
    を含む秘密ロジスティック回帰計算方法。
  13. 請求項5に記載の秘密シグモイド関数計算装置または請求項6から8の何れかに記載の秘密ロジスティック回帰計算装置としてコンピュータを機能させるためのプログラム。
JP2020550513A 2018-10-04 2019-10-02 秘密シグモイド関数計算システム、秘密ロジスティック回帰計算システム、秘密シグモイド関数計算装置、秘密ロジスティック回帰計算装置、秘密シグモイド関数計算方法、秘密ロジスティック回帰計算方法、プログラム Active JP7092206B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2018189297 2018-10-04
JP2018189297 2018-10-04
JP2019003285 2019-01-11
JP2019003285 2019-01-11
PCT/JP2019/038966 WO2020071441A1 (ja) 2018-10-04 2019-10-02 秘密シグモイド関数計算システム、秘密ロジスティック回帰計算システム、秘密シグモイド関数計算装置、秘密ロジスティック回帰計算装置、秘密シグモイド関数計算方法、秘密ロジスティック回帰計算方法、プログラム

Publications (2)

Publication Number Publication Date
JPWO2020071441A1 true JPWO2020071441A1 (ja) 2021-09-02
JP7092206B2 JP7092206B2 (ja) 2022-06-28

Family

ID=70055631

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020550513A Active JP7092206B2 (ja) 2018-10-04 2019-10-02 秘密シグモイド関数計算システム、秘密ロジスティック回帰計算システム、秘密シグモイド関数計算装置、秘密ロジスティック回帰計算装置、秘密シグモイド関数計算方法、秘密ロジスティック回帰計算方法、プログラム

Country Status (6)

Country Link
US (1) US20210358332A1 (ja)
EP (1) EP3863002B1 (ja)
JP (1) JP7092206B2 (ja)
CN (1) CN112805768B (ja)
AU (1) AU2019352310B2 (ja)
WO (1) WO2020071441A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210287573A1 (en) * 2018-05-25 2021-09-16 Nippon Telegraph And Telephone Corporation Secret batch approximation system, secure computation device, secret batch approximation method, and program
JP6795863B1 (ja) * 2020-01-24 2020-12-02 Eaglys株式会社 秘密計算用変換装置、秘密計算システム、秘密計算用変換方法、および秘密計算用変換プログラム
JP7451445B2 (ja) 2021-02-10 2024-03-18 株式会社東芝 秘匿演算方法、秘匿演算システム及び秘匿演算管理装置
JP2022150498A (ja) * 2021-03-26 2022-10-07 エヌ・ティ・ティ・コミュニケーションズ株式会社 学習プログラム、学習方法及び学習装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017119211A1 (ja) * 2016-01-07 2017-07-13 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
US20180218171A1 (en) * 2017-01-31 2018-08-02 Hewlett Packard Enterprise Development Lp Performing privacy-preserving multi-party analytics on horizontally partitioned local data

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2155038C (en) * 1995-07-31 2008-12-09 Gordon B. Agnew Elliptic curve encryption systems
JP5486520B2 (ja) * 2011-01-21 2014-05-07 日本電信電話株式会社 セキュア集合関数システム、秘密集合関数装置、セキュア集合関数処理方法、セキュア集合関数プログラム
US9064123B2 (en) * 2011-03-10 2015-06-23 Nippon Telegraph And Telephone Corporation Secure product-sum combination system, computing apparatus, secure product-sum combination method and program therefor
JP5689826B2 (ja) * 2012-01-26 2015-03-25 日本電信電話株式会社 秘密計算システム、暗号化装置、秘密計算装置及びその方法、プログラム
JP6006842B1 (ja) * 2015-07-22 2016-10-12 日本電信電話株式会社 秘密計算装置、その方法、およびプログラム
WO2019236997A1 (en) * 2018-06-08 2019-12-12 Zestfinance, Inc. Systems and methods for decomposition of non-differentiable and differentiable models
JP6921233B2 (ja) * 2019-01-11 2021-08-18 アドバンスド ニュー テクノロジーズ カンパニー リミテッド 秘密分散を使用したロジスティック回帰モデリング方式

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017119211A1 (ja) * 2016-01-07 2017-07-13 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
US20180218171A1 (en) * 2017-01-31 2018-08-02 Hewlett Packard Enterprise Development Lp Performing privacy-preserving multi-party analytics on horizontally partitioned local data

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
三品 気吹 ほか: "高精度かつ高効率な秘密ロジスティック回帰の設計と実装", CSS2018 コンピュータセキュリティシンポジウム2018論文集 [USB], vol. Vol.2018,No.2,4A2−2, JPN6019048539, 15 October 2018 (2018-10-15), JP, pages 1229 - 1236, ISSN: 0004774235 *
呉 双 ほか: "垂直分割モデルにおけるプライバシ保護ロジスティックス回帰分析", 2014年度 人工知能学会全国大会(第28回)論文集[CD−ROM], vol. 2B5−OS−15b−4, JPN6016048600, 15 May 2014 (2014-05-15), JP, pages 1 - 4, ISSN: 0004774233 *
田中 哲士 ほか: "秘密分散ベース秘密計算を用いたニューラルネットワークのコスト評価", 電子情報通信学会技術研究報告, vol. 116, no. 65, JPN6019048538, 19 May 2016 (2016-05-19), JP, pages 119 - 126, ISSN: 0004774234 *

Also Published As

Publication number Publication date
JP7092206B2 (ja) 2022-06-28
CN112805768A (zh) 2021-05-14
EP3863002B1 (en) 2023-02-15
WO2020071441A1 (ja) 2020-04-09
CN112805768B (zh) 2023-08-04
AU2019352310B2 (en) 2022-07-28
US20210358332A1 (en) 2021-11-18
EP3863002A1 (en) 2021-08-11
AU2019352310A1 (en) 2021-05-13
EP3863002A4 (en) 2022-06-22

Similar Documents

Publication Publication Date Title
JP7092206B2 (ja) 秘密シグモイド関数計算システム、秘密ロジスティック回帰計算システム、秘密シグモイド関数計算装置、秘密ロジスティック回帰計算装置、秘密シグモイド関数計算方法、秘密ロジスティック回帰計算方法、プログラム
JP7067632B2 (ja) 秘密シグモイド関数計算システム、秘密ロジスティック回帰計算システム、秘密シグモイド関数計算装置、秘密ロジスティック回帰計算装置、秘密シグモイド関数計算方法、秘密ロジスティック回帰計算方法、プログラム
US11164484B2 (en) Secure computation system, secure computation device, secure computation method, and program
US11294633B2 (en) Secure computation system, secure computation device, secure computation method, and program
WO2020075797A1 (ja) 秘密右シフト演算システム、秘密除算システム、それらの方法、秘密計算装置、およびプログラム
EP4016506B1 (en) Softmax function secret calculation system, softmax function secret calculation device, softmax function secret calculation method, neural network secret calculation system, neural network secret learning system, and program
Tjell et al. Privacy in distributed computations based on real number secret sharing
JP2019095635A (ja) 処理装置、推論装置、学習装置、処理システム、処理方法、及び処理プログラム
JP2021064008A (ja) 処理装置、推論装置、学習装置、処理システム、処理方法、及び処理プログラム
Stoian et al. Deep neural networks for encrypted inference with tfhe
WO2019225531A1 (ja) 秘密一括近似システム、秘密計算装置、秘密一括近似方法、およびプログラム
JP7205623B2 (ja) 秘密共役勾配法計算システム、秘密計算装置、共役勾配法計算装置、秘密共役勾配法計算方法、共役勾配法計算方法、およびプログラム
JP6825119B2 (ja) 秘密読み込み装置、秘密書き込み装置、それらの方法、およびプログラム
WO2022079894A1 (ja) 秘密指数部統一システム、秘密指数部統一装置、秘密指数部統一方法、秘密和計算システム、秘密積和計算システム、プログラム
JP7279796B2 (ja) 秘密勾配降下法計算方法、秘密深層学習方法、秘密勾配降下法計算システム、秘密深層学習システム、秘密計算装置、およびプログラム
WO2022254599A1 (ja) 秘密共役勾配法計算方法、秘密共役勾配法計算システム、秘密計算装置、およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210317

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220530

R150 Certificate of patent or registration of utility model

Ref document number: 7092206

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150