WO2022079907A1 - 秘密決定木学習装置、秘密決定木学習システム、秘密決定木学習方法、及びプログラム - Google Patents
秘密決定木学習装置、秘密決定木学習システム、秘密決定木学習方法、及びプログラム Download PDFInfo
- Publication number
- WO2022079907A1 WO2022079907A1 PCT/JP2020/039123 JP2020039123W WO2022079907A1 WO 2022079907 A1 WO2022079907 A1 WO 2022079907A1 JP 2020039123 W JP2020039123 W JP 2020039123W WO 2022079907 A1 WO2022079907 A1 WO 2022079907A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- decision tree
- vector
- data set
- secret
- group
- Prior art date
Links
- 238000003066 decision tree Methods 0.000 title claims abstract description 126
- 238000000034 method Methods 0.000 title claims description 41
- 238000004364 calculation method Methods 0.000 claims abstract description 30
- 239000013598 vector Substances 0.000 claims description 224
- 230000006870 function Effects 0.000 claims description 24
- 238000011156 evaluation Methods 0.000 description 21
- 238000001514 detection method Methods 0.000 description 17
- 238000012549 training Methods 0.000 description 16
- 230000001186 cumulative effect Effects 0.000 description 13
- 238000012360 testing method Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 5
- 230000001174 ascending effect Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09C—CIPHERING OR DECIPHERING APPARATUS FOR CRYPTOGRAPHIC OR OTHER PURPOSES INVOLVING THE NEED FOR SECRECY
- G09C1/00—Apparatus or methods whereby a given sequence of signs, e.g. an intelligible text, is transformed into an unintelligible sequence of signs by transposing the signs or groups of signs or by replacing them by others according to a predetermined system
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/08—Key distribution or management, e.g. generation, sharing or updating, of cryptographic keys or passwords
- H04L9/0816—Key establishment, i.e. cryptographic processes or cryptographic protocols whereby a shared secret becomes available to two or more parties, for subsequent use
- H04L9/085—Secret sharing or secret splitting, e.g. threshold schemes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L2209/00—Additional information or applications relating to cryptographic mechanisms or cryptographic arrangements for secret or secure communication H04L9/00
- H04L2209/46—Secure multiparty computation, e.g. millionaire problem
Definitions
- the evaluation value when the data set is divided at each node by the attribute value of each data is calculated, and the evaluation value is the maximum.
- the method of adopting is well known.
- the calculation time may be long.
- the decision tree is a binary tree with a height of h or less
- the number of references to the data set is ⁇ (2 h ) because the number of data classified at each node is hidden in the secret calculation. Therefore, as the height of the decision tree increases, the calculation time required for learning increases.
- a secret decision tree learning device 10 capable of efficiently learning a decision tree by secret calculation (that is, learning a decision tree without revealing an input or an output) will be described.
- the secret decision tree learning device 10 utilizes the fact that each data in a given data set is classified between nodes in the same layer of the decision tree without overlapping each other, and has the same layer. By collectively classifying all the nodes of, the number of references to the entire data set can be exponentially reduced.
- a decision tree in which inputs and outputs are concealed by using secret calculation is also referred to as a secret decision tree.
- Step7 Step1 to Step7 are recursively executed for each (X j , y j ). That is, each (X j , y j ) is regarded as (X, y), and a function or method that executes Steps 1 to 7 is called.
- a branch is set up with the node v created in Step 1 of the caller.
- the node v created by Step 1 of the caller is the parent, and the node v created by Step 1 of the callee is the child.
- Step8 When the execution of Steps 1 to 7 for all the data sets (X j , y j ) is completed (that is, the execution of all the recursively called Steps 1 to Step 7 is completed), each node v (and its node v) is completed. Outputs the set of the division condition r) set in and the set of branches stretched between the nodes, and ends. The set of these nodes v and the set of branches are the decision trees.
- GainRatio () defined by is called the gain factor.
- the gain rate is used as the objective function.
- the various data stored in the storage unit 104 also include a group information vector or the like indicating which node the record in the learning of the secret decision tree was classified into (that is, a group).
- the group information vector is a vector indicating which group each record of the training data set is classified into, and when a certain continuous record group is classified into the same group, it is in the last record of the record group. It is a vector in which the element at the corresponding position is 1 and the other elements are 0.
- the above group information vector [g 1 ] indicates that all the records of the training data set [T 1 ] are classified into the same group. This means that all records are grouped in the same group at the root node.
- the first determination vector [s 0 , 1] (0, 0, 1, 0, 0, 1, 2, 2, 1, 1) T corresponding to the bit vector [f 1 ]. Is obtained.
- the grouping unit 113 calculates [e 1 ] ⁇ EQ ([f], 1) and obtains the following [e 1 ].
- [E 1 ] (0,1,0,1,1,0,1,1) T
- the grouping unit 113 calculates the cumulative sum from the bottom in the group represented by the group information vector [g], and obtains the following [x 1 ].
- the grouping unit 113 obtains the following [k 1 ] by [e 1 ] ⁇ [x 1 ].
- the grouping unit 113 first calculates [e 0 ] ⁇ EQ ([f], 0), and then inputs the following [e 0 ]. obtain.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Computer Security & Cryptography (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Storage Device Security (AREA)
- Complex Calculations (AREA)
Abstract
Description
まず、各種記法について説明する。なお、以下では、本実施形態で必ずしも用いるとは限らない記法についても説明している。
aの秘匿値[a]を入力とし、c=aとなる値cを計算する処理を
c←Open([a])
と記述する。
加算、減算、乗算の各演算は2つの値a、bの秘匿値[a]、[b]を入力とし、それぞれa+b、a-b、abの計算結果c1、c2、c3の秘匿値[c1]、[c2]、[c3]を計算する。加算、減算、乗算の各演算の実行をそれぞれ
[c1]←Add([a],[b])
[c2]←Sub([a],[b])
[c3]←Mul([a],[b])
と記述する。誤解を招く恐れのない場合は、Add([a],[b])、Sub([a],[b])、Mul([a],[b])をそれぞれ[a]+[b]、[a]-[b]、[a]×[b]と略記する。
比較の演算は2つの値a、bの秘匿値[a]、[b]を入力とし、a=b、a≦b、a<bの真偽値c∈{0,1}の秘匿値[c1]、[c2]、[c3]を計算する。真偽値は真のとき1、偽のとき0とする。a=b、a≦b、a<bの比較演算の実行をそれぞれ
[c1]←EQ([a],[b])
[c2]←LE([a],[b])
[c3]←LT([a],[b])
と記述する。
選択の演算は、真偽値c∈{0,1}の秘匿値[c]と2つの値a、bの秘匿値[a]、[b]とを入力とし、
決定木は、データのある属性に対する知識を、木構造によるルールの組み合わせで表現した有向グラフである。また、属性には目的変数と呼ばれる属性と説明変数と呼ばれる属性とがあり、決定木は、説明変数の属性値を入力とし、目的変数の属性値を予測及び出力する。決定木には1以上の節点(ノード)が含まれており、葉以外の各節点には、例えば「年齢が30歳未満」等といった説明変数に関する分割のルール(分割条件)が設定される。一方で、葉(つまり、決定木の終端の節点)には目的変数の属性値が設定される。
説明変数と目的変数とで構成されるデータの集合から決定木を学習するアルゴリズムとして、例えば、CART、ID3、C4.5等が知られている。これらのアルゴリズムは細部で異なるが、いずれも根から葉へとある目的関数を最大化するように貪欲的にデータ集合を再帰的に分割することで決定木を学習する(後述するStep1~Step8)。また、アルゴリズムへの入力はデータ集合Q=(X,y)であり、出力は根から葉へ向かう有向グラフとして表現された決定木である。以降では、データ集合に含まれる各データのそれぞれをレコードともいう。なお、例えば、データ集合は「学習用データセット」や「教師データセット」、データ集合に含まれる各データは「学習用データ」や「教師データ」等と称されてもよい。
分岐数dは2以上の任意の整数値とすることが可能であるが、本実施形態では、2分木を想定し、d=2であるものとする。なお、本実施形態はdが3以上の場合も適用可能であるが、dの値が大きいほど計算時間は大きくなる。
分割条件としては説明変数の属性値に対する任意の条件を用いることが可能であるが、一般に、大小比較やある集合に含まれるか否か等の条件が用いられることが多い。本実施形態では説明変数は数値又はカテゴリ値のいずれかを取るため、数値を取る場合はしきい値に対する大小比較(例えば、Cを閾値、xを説明変数の数値属性値として、x≦C等)を分割条件とし、カテゴリ値を取る場合はある集合に属すること(例えば、Xを集合、xをカテゴリ属性値として、x∈X等)を分割条件とする。なお、分割条件は、例えば、分割ルール、分類条件、分類ルール等と称されてもよい。
あるデータ集合を複数のデータ集合に分割(言い換えれば、あるデータ集合に含まれる各レコードを複数のデータ集合に分類)した際の分割(又は分類)の良し悪しを測る指標として、データ集合があいまいであるかどうかを表す純度の指標H(・)が知られている。よく用いられる指標には、例えば、gini係数やエントロピー等がある。
各分割条件の良し悪しは目的関数により評価される(つまり、目的関数の値が分割条件の評価値である。)。よく利用される目的関数には、例えば、相互情報量、ゲイン率等がある。
各節点の分割条件は、予め定められた目的関数をその節点で最大化するような分割条件を選択することにより設定される。分割条件の候補それぞれについて目的関数の値を計算する必要があるため、与えられた分割条件に対して目的関数の値を効率よく計算できることは重要である。
(1)Qのレコード数|Q|
(2)Qのうちラベル値kのレコード数|Qk|
(3)Qをθで分割した各データ集合のレコード数|Q(θ,i)|
(4)Qをθで分割した各データ集合のうちラベル値kのレコード数|Q(θ,i)k|
の4つと、f(・)と、加減算とで計算できることがわかる。
次に、本実施形態に係る秘密決定木学習装置10の機能構成について、図1を参照しながら説明する。図1は、本実施形態に係る秘密決定木学習装置10の機能構成の一例を示す図である。
次に、本実施形態に係る秘密決定木学習装置10のハードウェア構成について、図2を参照しながら説明する。図2は、本実施形態に係る秘密決定木学習装置10のハードウェア構成の一例を示す図である。
次に、与えられた学習用データセットから秘密決定木を学習するための秘密決定木学習処理について、図3を参照しながら説明する。図3は、本実施形態に係る秘密決定木学習処理の流れの一例を示すフローチャートである。なお、以降では、高さh以下のd分木を学習するものとする。
[q1]:=(0,・・・,0)T
なお、グループ情報ベクトル及び引継ぎパラメータは要素数がnのベクトルである。また、Tは転置を表す記号である。
(b)当該説明変数に対してどのような種類の分割条件(例えば、しきい値との大小比較を表す分割条件、ある集合に属するか否かを表す分割条件等)の判定を行うのか
(c)分割条件に利用されるしきい値又は集合
(d)当該節点が葉となった場合に設定されるラベル値
すなわち、分割パラメータ[pi]には、層iの各節点に設定された分割条件(又は、節点が葉の場合はラベル値)の情報が含まれている。
次に、上記のステップS103の処理の詳細の一例について、図4を参照しながら説明する。図4は、本実施形態に係る秘密決定木テスト処理の流れの一例を示すフローチャート(その1)である。なお、以降では、一例として、ある数値属性を対象として、層iを構成する各節点で分割条件の評価(テスト)を行う場合について説明する。また、学習用データセット[Ti]中の各レコードの当該数値属性値をレコード順に並べたベクトルを数値属性値ベクトルといい、同様にラベル値をレコード順に並べたベクトルをラベル値ベクトルという。また、ラベルが取り得る値の集合を{1,2,3}とする。
[g]=[gi]=(0,0,1,1,0,0,0,1,0,1)T
であるものとする。上記の[g]は、学習用データセット[Ti]中の1番目のレコードから3番目のレコードは1番目のグループに属し、4番目のレコードは2番目のグループに属し、5番目のレコードから8番目のレコードは3番目のグループに属し、9番目のレコードから10番目のレコードは4番目のグループに属することを表している。
[c]=(1,2,5,2,3,4,5,7,2,4)T
であるものとする。また、並び替え後のラベル値ベクトルは、
[y]=(3,2,1,3,2,1,1,3,1,2)T
であるものとする。以降、数値属性値ベクトル及びラベル値ベクトルは、並び替え後の数値属性値ベクトル及びラベル値ベクトルを指すものとする。
[f2]=(0,1,0,0,1,0,0,0,0,1)T
[f3]=(1,0,0,1,0,0,0,1,0,0)T
つまり、あるラベル値に対応するビットベクトルとは、ラベル値ベクトルの要素のうち、当該ラベル値に一致する要素と同一位置にある要素のみを1、それ以外の要素を0としたベクトルである。
[s0,1]=(0,0,1,0,0,1,2,2,1,1)T
が得られる。
[s0,2]=(0,1,1,0,1,1,1,1,0,1)T
が得られる。
[s0,3]=(1,1,1,1,0,0,0,1,0,0)T
が得られる。
[s*,1]=(1,1,1,0,2,2,2,2,1,1)T
が得られる。
[s*,2]=(1,1,1,0,1,1,1,1,1,1)T
が得られる。
[s*,3]=(1,1,1,1,1,1,1,1,0,0)T
が得られる。
[s1,1]=[s*,1]-[s0,1]=(1,1,0,0,2,1,0,0,0,0)T
が得られる。
[s1,2]=[s*,2]-[s0,2]=(1,0,0,0,0,0,0,0,1,0)T
が得られる。
[s1,3]=[s*,3]-[s0,3]=(0,0,0,0,1,1,1,0,0,0)T
が得られる。
数値属性値ベクトル[c]の各グループの要素数(つまり、上記の(1)に示す|Q|)
数値属性値ベクトル[c]の各グループでラベル値kの要素数(つまり、上記の(2)に示す|Qk|)
数値属性値ベクトル[c]の各グループを分割条件θで分割した各グループの要素数(つまり、上記の(3)に示す|Q(θ,i)|)
数値属性値ベクトル[c]の各グループを分割条件θで分割した各グループでラベル値kの要素数(つまり、上記の(4)に示す|Q(θ,i)k|)
の4つの度数を計算する。
次に、上記のステップS103の処理の詳細の一例について、図5を参照しながら説明する。図5は、本実施形態に係る秘密決定木テスト処理の流れの一例を示すフローチャート(その2)である。なお、以降では、一例として、あるカテゴリ属性を対象として、層iを構成する各節点で分割条件の評価(テスト)を行う場合について説明する。また、学習用データセット[Ti]中の各レコードの当該カテゴリ属性値をレコード順に並べたベクトルをカテゴリ属性値ベクトルといい、同様にラベル値をレコード順に並べたベクトルをラベル値ベクトルという。また、当該カテゴリ属性が取り得る値の集合を{5,6,7,8}、ラベルが取り得る値の集合を{1,2,3}とする。
[g]=[gi]=(0,0,1,1,0,0,0,1,0,1)T
であるものとする。
[c]=(5,5,6,8,5,8,5,7,6,5)T
であり、ラベル値ベクトルは、
[y]=(3,2,1,3,2,1,1,3,1,2)T
であるものとする。
同様に、例えば、カテゴリ属性が取り得る値「5」とラベルが取り得る値「2」との組み合わせに対応するビットベクトルを[f5,2]とすれば、このビットベクトル[f5,2]は以下のようになる。
同様に、例えば、カテゴリ属性が取り得る値「5」とラベルが取り得る値「3」との組み合わせに対応するビットベクトルを[f5,3]とすれば、このビットベクトル[f5,3]は以下のようになる。
その他の組み合わせに対応する各ビットベクトル[f6,1]~[f6,3]、[f7,1]~[f7,3]、[f8,1]~[f8,3]も同様に計算される。
[c5,1]=(0,0,0,0,1,1,1,1,0,0)T
が得られる。
[c5,2]=(1,1,1,0,1,1,1,1,1,1)T
が得られる。
[c5,3]=(1,1,1,0,0,0,0,0,0,0)T
が得られる。
カテゴリ属性値ベクトル[c]の各グループの要素数(つまり、上記の(1)に示す|Q|)
カテゴリ属性値ベクトル[c]の各グループでラベル値kの要素数(つまり、上記の(2)に示す|Qk|)
カテゴリ属性値ベクトル[c]の各グループを分割条件θで分割した各グループの要素数(つまり、上記の(3)に示す|Q(θ,i)|)
カテゴリ属性値ベクトル[c]の各グループを分割条件θで分割した各グループでラベル値kの要素数(つまり、上記の(4)に示す|Q(θ,i)k|)
の4つの度数を計算する。
次に、上記のステップS105の処理の詳細の一例について、図6を参照しながら説明する。図6は、本実施形態に係る秘密グループ分け処理の流れの一例を示すフローチャートである。以降では、簡単のため、データセット([Ti],[qi]×d+[fi])の各レコードのレコード番号を要素とするベクトルをデータベクトルとして、このデータベクトルの各要素を並び替えることでデータセット([Ti],[qi]×d+[fi])の各レコードを並び替える場合について説明する。
[v]=(3,0,4,5,1,6,7,2)T
であるものとする。また、グループ情報ベクトルは、
[g]=[gi]=(0,1,1,0,0,1,0,1)T
であるものとする。
[f]=[fi]=(0,1,0,1,1,0,1,1)T
であるものとする。
次に、グループ分け部113は、グループ情報ベクトル[g]が表すグループ内で下から累積和を計算し、以下の[x1]を得る。
なお、グループ内で下から累積和を計算するとは、グループ内の下の要素(後ろの要素)から順に上(前)に向かって累積和を計算することを意味する。
そして、グループ分け部113は、[t1]←EQ([k1],1)を計算し、以下の[t1]を得る。
この[t1]が分類先「1」に対応する分類先単位検出ベクトルである。この分類先単位検出ベクトル[t1]は、データベクトルの各要素のうち、各グループ内で分類先「1」に分類される要素の端点(つまり、最後の要素)を検出したベクトルである。すなわち、上記の分類先単位検出ベクトル[t1]は、データベクトル[v]の2番目の要素が、1番目のグループで分類先「1」に分類される要素の最後の要素(つまり、端点)であることを表している。同様に、データベクトル[v]の5番目の要素が、3番目のグループで分類先「1」に分類される要素の最後の要素であることを表している。同様に、データベクトル[v]の8番目の要素が、4番目のグループで分類先「1」に分類される要素の最後の要素であることを表している。
次に、グループ分け部113は、グループ情報ベクトル[g]が表すグループ内で下から累積和を計算し、以下の[x0]を得る。
次に、グループ分け部113は、[e0]×[x0]により以下の[k0]を得る。
そして、グループ分け部113は、[t0]←EQ([k0],1)を計算し、以下の[t0]を得る。
この[t0]が分類先「0」に対応する分類先単位検出ベクトルである。この分類先単位検出ベクトル[t0]は、データベクトルの各要素のうち、各グループ内で分類先「0」に分類される要素の端点(つまり、最後の要素)を検出したベクトルである。すなわち、上記の分類先単位検出ベクトル[t0]は、データベクトル[v]の1番目の要素が、1番目のグループで分類先「0」に分類される要素の最後の要素(つまり、端点)であることを表している。同様に、データベクトル[v]の3番目の要素が、2番目のグループで分類先「0」に分類される要素の最後の要素であることを表している。同様に、データベクトル[v]の6番目の要素が、3番目のグループで分類先「0」に分類される要素の最後の要素であることを表している。
この検出ベクトル[t]が、データベクトルの各要素のうち、各グループ内で各分類先「0」及び「1」の端点となる要素を検出したベクトルである。
この[v']が分類後のデータベクトルである。
この[g']が分類後のグループ情報ベクトルである。
以上のように、本実施形態に係る秘密決定木学習装置10は、与えられた秘匿値のデータ集合から秘密決定木を学習する際に、同一階層のすべての節点でデータ集合の分割を一括して行うことにより、データ集合全体の参照回数を指数的に小さくすることができる。具体的には、例えば、決定木を高さh以下の二分木とした場合、従来技術ではΘ(2h)の参照回数が必要であったのに対して、本実施形態に係る秘密決定木学習装置10では、O(h)とすることができる。
101 入力部
102 秘密決定木学習部
103 出力部
104 記憶部
111 初期化部
112 分割部
113 グループ分け部
114 節点抽出部
201 入力装置
202 表示装置
203 外部I/F
203a 記録媒体
204 通信I/F
205 プロセッサ
206 メモリ装置
207 バス
Claims (7)
- 秘密計算により決定木の学習を行う秘密決定木学習装置であって、
1以上の説明変数の属性値と目的変数の属性値とを含む複数のレコードで構成されるデータ集合を入力する入力部と、
前記決定木の階層ごとに、前記階層に含まれる全ての節点における前記データ集合の分割を一括して行うことで、前記決定木を学習する学習部と、
を有する秘密決定木学習装置。 - 前記学習部は、
前記決定木の階層ごとに、1つ前の階層で1以上のグループに分割されたデータ集合と、前記データ集合に含まれる各レコードが属するグループを表すグループ情報ベクトルとを用いて、前記階層に含まれる全ての節点で前記データ集合を一括してより細かいグループに分割することで、前記決定木を学習する、請求項1に記載の秘密決定木学習装置。 - 前記データ集合は、同一グループに属するレコードが連続して構成されており、
前記グループ情報ベクトルは、前記データ集合を構成する各レコードの中で同一グループに属するレコードの最後のレコードに対応する要素を1、前記最後のレコードに対応する要素以外の要素を0としたベクトルである、請求項2に記載の秘密決定木学習装置。 - 前記階層をi(ただし、i=1,・・・,h)として、
前記学習部は、
1つ前の階層で1以上のグループに分割されたデータ集合[Ti]と、前記データ集合[Ti]に含まれる各レコードが属するグループを表すグループ情報ベクトル[gi]とを用いて、前記階層iに含まれる各節点における分割条件を表すパラメータ[pi]を計算し、
前記データ集合[Ti]と前記パラメータ[pi]とを用いて、前記データ集合[Ti]に含まれる各レコードを階層i+1の節点に分類し、
前記データ集合[Ti]と、前記パラメータ[pi]と、前記分類の結果と、前記データ集合[Ti]に含まれる各レコードが分類されている節点を表す情報とを用いて、データ集合[Ti+1]とグループ情報ベクトル[gi+1]とを計算する、ことを階層iごとに繰り返す、請求項2又は3に記載の秘密決定木学習装置。 - 秘密計算により決定木の学習を行う秘密決定木学習システムであって、
1以上の説明変数の属性値と目的変数の属性値とを含む複数のレコードで構成されるデータ集合を入力する入力部と、
前記決定木の階層ごとに、前記階層に含まれる全ての節点における前記データ集合の分割を一括して行うことで、前記決定木を学習する学習部と、
を有する秘密決定木学習システム。 - 秘密計算により決定木の学習を行う秘密決定木学習方法であって、
1以上の説明変数の属性値と目的変数の属性値とを含む複数のレコードで構成されるデータ集合を入力する入力手順と、
前記決定木の階層ごとに、前記階層に含まれる全ての節点における前記データ集合の分割を一括して行うことで、前記決定木を学習する学習手順と、
をコンピュータが実行する秘密決定木学習方法。 - コンピュータを、請求項1乃至4の何れか一項に記載の秘密決定木学習装置として機能させるプログラム。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202080106144.9A CN116324938A (zh) | 2020-10-16 | 2020-10-16 | 秘密决策树学习装置、秘密决策树学习系统、秘密决策树学习方法、及程序 |
EP20957736.0A EP4231273A1 (en) | 2020-10-16 | 2020-10-16 | Secret decision tree learning device, secret decision tree learning system, secret decision tree learning method, and program |
US18/247,938 US20230376790A1 (en) | 2020-10-16 | 2020-10-16 | Secret decision tree learning apparatus, secret decision tree learning system, secret decision tree learning method, and program |
PCT/JP2020/039123 WO2022079907A1 (ja) | 2020-10-16 | 2020-10-16 | 秘密決定木学習装置、秘密決定木学習システム、秘密決定木学習方法、及びプログラム |
JP2022556816A JPWO2022079907A1 (ja) | 2020-10-16 | 2020-10-16 | |
AU2020472727A AU2020472727A1 (en) | 2020-10-16 | 2020-10-16 | Secret decision tree learning device, secret decision tree learning system, secret decision tree learning method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/039123 WO2022079907A1 (ja) | 2020-10-16 | 2020-10-16 | 秘密決定木学習装置、秘密決定木学習システム、秘密決定木学習方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022079907A1 true WO2022079907A1 (ja) | 2022-04-21 |
Family
ID=81209029
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2020/039123 WO2022079907A1 (ja) | 2020-10-16 | 2020-10-16 | 秘密決定木学習装置、秘密決定木学習システム、秘密決定木学習方法、及びプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20230376790A1 (ja) |
EP (1) | EP4231273A1 (ja) |
JP (1) | JPWO2022079907A1 (ja) |
CN (1) | CN116324938A (ja) |
AU (1) | AU2020472727A1 (ja) |
WO (1) | WO2022079907A1 (ja) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019208484A1 (ja) * | 2018-04-25 | 2019-10-31 | 日本電信電話株式会社 | 秘密集約総和システム、秘密計算装置、秘密集約総和方法、およびプログラム |
-
2020
- 2020-10-16 JP JP2022556816A patent/JPWO2022079907A1/ja active Pending
- 2020-10-16 EP EP20957736.0A patent/EP4231273A1/en active Pending
- 2020-10-16 CN CN202080106144.9A patent/CN116324938A/zh active Pending
- 2020-10-16 WO PCT/JP2020/039123 patent/WO2022079907A1/ja unknown
- 2020-10-16 AU AU2020472727A patent/AU2020472727A1/en active Pending
- 2020-10-16 US US18/247,938 patent/US20230376790A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019208484A1 (ja) * | 2018-04-25 | 2019-10-31 | 日本電信電話株式会社 | 秘密集約総和システム、秘密計算装置、秘密集約総和方法、およびプログラム |
Non-Patent Citations (1)
Title |
---|
LINDELL, YEHUDA ET AL.: "Privacy Preserving Data Mining", ADVANCES IN CRYPTOLOGY - CRYPTO 2000, 11 August 2000 (2000-08-11), Berlin Heidelberg, pages 36 - 54, XP055534702, Retrieved from the Internet <URL:https://link.springer.com/chapter/10.1007/3-540-44598-6_3> [retrieved on 20201125], DOI: 10.1007/3-540-44598-6_3 * |
Also Published As
Publication number | Publication date |
---|---|
EP4231273A1 (en) | 2023-08-23 |
AU2020472727A1 (en) | 2023-05-25 |
JPWO2022079907A1 (ja) | 2022-04-21 |
US20230376790A1 (en) | 2023-11-23 |
AU2020472727A2 (en) | 2023-06-22 |
CN116324938A (zh) | 2023-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022079911A1 (ja) | 秘密決定木テスト装置、秘密決定木テストシステム、秘密決定木テスト方法、及びプログラム | |
Wang et al. | An efficient network intrusion detection approach based on deep learning | |
Yau et al. | Estimation of multiple-regime threshold autoregressive models with structural breaks | |
JP2020046891A (ja) | 予測プログラム、予測方法および学習装置 | |
CN113516189B (zh) | 基于两阶段随机森林算法的网站恶意用户预测方法 | |
JP7491371B2 (ja) | 数式モデル生成システム、数式モデル生成方法および数式モデル生成プログラム | |
CN113743453A (zh) | 一种基于随机森林的人口数量预测方法 | |
WO2022079907A1 (ja) | 秘密決定木学習装置、秘密決定木学習システム、秘密決定木学習方法、及びプログラム | |
Liu et al. | Adapting bagging and boosting to learning classifier systems | |
Hadjadji et al. | Multiple one-class classifier combination for multi-class classification | |
WO2022079908A1 (ja) | 秘密決定木テスト装置、秘密決定木テストシステム、秘密決定木テスト方法、及びプログラム | |
CN116049644A (zh) | 特征筛选和聚类分箱方法、装置、电子设备及存储介质 | |
CN112463964B (zh) | 文本分类及模型训练方法、装置、设备及存储介质 | |
JP7505570B2 (ja) | 秘密決定木テスト装置、秘密決定木テストシステム、秘密決定木テスト方法、及びプログラム | |
JP7374829B2 (ja) | ニューラルネット解析装置、ニューラルネット解析方法及びプログラム | |
WO2022079909A1 (ja) | 秘密グループ分け装置、秘密グループ分けシステム、秘密グループ分け方法、及びプログラム | |
Mandli et al. | Selection of most relevant features from high dimensional data using ig-ga hybrid approach | |
JP2020161044A (ja) | データ管理システム、データ管理方法、およびデータ管理プログラム | |
CN116228484B (zh) | 基于量子聚类算法的课程组合方法及装置 | |
JP7448023B2 (ja) | 学習方法、学習装置及びプログラム | |
US20230077998A1 (en) | Systems and Methods for Smart Instance Selection | |
Elansary | Data wrangling & preparation automation | |
Amzile et al. | The application of techniques derived from artificial intelligence to the prediction of the solvency of bank customers: case of the application of the cart type decision tree (dt) | |
Hu | Statistical and machine learning classification methods for credit ratings | |
Aung et al. | Classification of Rank for Distributors of Multi-Level Marketing Company by Using Decision Tree Induction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20957736 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2022556816 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 2020957736 Country of ref document: EP Effective date: 20230516 |
|
ENP | Entry into the national phase |
Ref document number: 2020472727 Country of ref document: AU Date of ref document: 20201016 Kind code of ref document: A |