JP2022012178A - 学習システム、モデル生成装置、学習方法およびプログラム - Google Patents
学習システム、モデル生成装置、学習方法およびプログラム Download PDFInfo
- Publication number
- JP2022012178A JP2022012178A JP2020113824A JP2020113824A JP2022012178A JP 2022012178 A JP2022012178 A JP 2022012178A JP 2020113824 A JP2020113824 A JP 2020113824A JP 2020113824 A JP2020113824 A JP 2020113824A JP 2022012178 A JP2022012178 A JP 2022012178A
- Authority
- JP
- Japan
- Prior art keywords
- distributed
- data
- unit
- model
- training data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 150
- 238000012549 training Methods 0.000 claims abstract description 179
- 238000004364 calculation method Methods 0.000 claims abstract description 103
- 230000005540 biological transmission Effects 0.000 claims abstract description 45
- 238000012545 processing Methods 0.000 claims description 58
- 230000006870 function Effects 0.000 claims description 21
- 230000010365 information processing Effects 0.000 claims description 20
- 239000006185 dispersion Substances 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 13
- WBMKMLWMIQUJDP-STHHAXOLSA-N (4R,4aS,7aR,12bS)-4a,9-dihydroxy-3-prop-2-ynyl-2,4,5,6,7a,13-hexahydro-1H-4,12-methanobenzofuro[3,2-e]isoquinolin-7-one hydrochloride Chemical compound Cl.Oc1ccc2C[C@H]3N(CC#C)CC[C@@]45[C@@H](Oc1c24)C(=O)CC[C@@]35O WBMKMLWMIQUJDP-STHHAXOLSA-N 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 230000005856 abnormality Effects 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 235000019640 taste Nutrition 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/08—Key distribution or management, e.g. generation, sharing or updating, of cryptographic keys or passwords
- H04L9/0816—Key establishment, i.e. cryptographic processes or cryptographic protocols whereby a shared secret becomes available to two or more parties, for subsequent use
- H04L9/085—Secret sharing or secret splitting, e.g. threshold schemes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computer Security & Cryptography (AREA)
- Neurology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Storage Device Security (AREA)
Abstract
Description
(第1実施形態)
つぎに、第2実施形態に係る学習システム10について説明する。第2実施形態に係る学習システム10は、第1実施形態と略同一の機能および構成を有する。第2実施形態の説明については、第1実施形態と同一の機能および構成を有する構成要素については同一の符号を付けて、相違点を除き詳細な説明を省略する。
図18は、計算装置30、モデル生成装置40および推論装置42のハードウェア構成の一例を示す図である。計算装置30は、例えば図18に示すようなハードウェア構成の情報処理装置により実現される。モデル生成装置40および推論装置42も、同様のハードウェア構成により実現される。情報処理装置は、CPU(Central Processing Unit)301と、RAM(Random Access Memory)302と、ROM(Read Only Memory)303と、操作入力装置304と、表示装置305と、記憶装置306と、通信装置307とを備える。そして、これらの各部は、バスにより接続される。なお、情報処理装置は、操作入力装置304および表示装置305を備えない構成であってもよい。
20 管理装置
30 計算装置
40 モデル生成装置
42 推論装置
50 取得部
52 分割部
54 秘密分散部
56 シェア送信部
58 シェア受信部
60 訓練部
62 パラメータ送信部
64 パラメータ受信部
66 パラメータ復元部
68 判定データ取得部
70 閾値算出部
72 モデル秘密分散部
74 モデル送信部
76 モデル受信部
78 モデル記憶部
80 入力データ取得部
82 入力データ秘密分散部
84 分散入力データ送信部
86 分散入力データ受信部
88 推論部
90 結果送信部
92 結果受信部
94 結果復元部
96 閾値記憶部
98 判定部
100 第2モデル記憶部
102 第2推論部
Claims (12)
- 学習モデルを訓練する学習システムであって、
モデル生成装置と、
前記モデル生成装置とネットワークを介して接続されたn個(nは、3以上の整数)の計算装置と、
を備え、
前記モデル生成装置は、
前記学習モデルを訓練するためのm×n個(mは、2以上の整数)の訓練データを取得する取得部と、
前記m×n個の訓練データを、前記n個の計算装置に一対一に対応した、m個の訓練データを含むn個のグループに分割する分割部と、
前記n個のグループのそれぞれについて秘密分散法における分散処理によりm個の分散訓練データを生成するものであって、前記n個のグループのうちのi番目(iは、1以上n以下の整数)のグループに含まれる前記m個の訓練データのそれぞれについて、n個の元(P1,P2,…,Pi,…,Pn)のうちのi番目の元(Pi)を用いて前記秘密分散法における分散処理により分散訓練データを生成する秘密分散部と、
前記n個の計算装置のそれぞれに、対応する前記m個の分散訓練データを送信するシェア送信部と、
を有し、
前記n個の計算装置のそれぞれは、
前記モデル生成装置から前記m個の分散訓練データを受信するシェア受信部と、
受信した前記m個の分散訓練データにより、前記学習モデルと同一の構造の分散学習モデルを訓練する訓練部と、
前記分散学習モデルにおける訓練後の分散パラメータ群を前記モデル生成装置に送信するパラメータ送信部と、
を有し、
前記モデル生成装置は、
前記n個の計算装置のうちの、k1個(k1は、2以上、n-1以下の予め定められた整数)の計算装置のそれぞれから訓練後の前記分散パラメータ群を受信するパラメータ受信部と、
前記k1個の計算装置のそれぞれから受信した前記分散パラメータ群に基づき、前記秘密分散法における復元処理により前記学習モデルのパラメータ群を生成するパラメータ復元部とをさらに有する
学習システム。 - 前記パラメータ復元部は、
前記k1個の計算装置のそれぞれ毎に、結果データを変数とし、訓練データを値とする式で表したモデル式の逆関数に、対応する前記分散パラメータ群を代入し、
対応する前記分散パラメータ群を代入したk1個の逆関数を用いて、前記秘密分散法における復元処理により、前記学習モデルの逆関数を復元し、
復元した前記学習モデルの逆関数に基づき、前記学習モデルの前記パラメータ群を生成する
請求項1に記載の学習システム。 - 前記学習モデルは、入力されるデータと、出力するデータとが同一となるように訓練がされるモデルである
請求項1または2に記載の学習システム。 - 前記モデル生成装置は、
前記学習モデルに入力されるデータと前記学習モデルから出力されるデータとの誤差値を評価するためのc個(cは、2以上)の判定用データを取得する判定データ取得部と、
前記秘密分散法における復元処理により生成された前記パラメータ群が設定された前記学習モデルに対して前記c個の判定用データを入力することにより、入力データと結果データとが同一であると判定するか同一ではないと判定するかの前記誤差値の境界を表す判定閾値を算出する閾値算出部と、
をさらに有する請求項3に記載の学習システム。 - 前記学習モデルは、入力レイヤに含まれるノード数と、出力レイヤに含まれるノード数とが同一であり、隠れレイヤに含まれるノード数が前記入力レイヤおよび前記出力レイヤに含まれるノード数よりも少ない3レイヤ構造のニューラルネットワークである
請求項4に記載の学習システム。 - 前記入力レイヤおよび前記出力レイヤのノード数は、h個(hは、3以上の整数)であり、
前記m×n個の訓練データのそれぞれ、前記入力データおよび前記結果データのそれぞれは、h個のサブデータを含み、
前記分散訓練データは、h個の分散サブデータを含み、
前記モデル生成装置の前記秘密分散部は、前記i番目のグループに含まれる前記m個の訓練データのそれぞれに対して、前記h個のサブデータのそれぞれ毎に前記i番目の元(Pi)を用いて前記秘密分散法における分散処理により分散サブデータを生成し、
前記n個の計算装置のそれぞれの前記訓練部は、前記分散学習モデルの前記入力レイヤに含まれるh個のノードのそれぞれに、前記h個の分散サブデータのうちの対応する1つの分散サブデータを与える
請求項5に記載の学習システム。 - 前記秘密分散法は、Shamirのしきい値秘密分散法である
請求項1から6の何れか1項に記載の学習システム。 - 推論装置をさらに備え、
前記モデル生成装置は、
復元された前記学習モデルの前記パラメータ群について、前記秘密分散法における分散処理によりn個のシェアパラメータ群を生成するモデル秘密分散部と、
前記n個の計算装置のそれぞれに、前記n個のシェアパラメータ群のうち対応するシェアパラメータ群を送信するモデル送信部と、
をさらに有し、
前記n個の計算装置のそれぞれは、
前記モデル生成装置から前記シェアパラメータ群を受信するモデル受信部と、
をさらに有し、
前記推論装置は、
推論処理において、前記学習モデルにより推論させるための入力データについて、前記秘密分散法における分散処理によりn個の分散入力データを生成する入力データ秘密分散部と、
前記n個の計算装置のそれぞれに、前記n個の分散入力データのうち対応する分散入力データを送信する分散入力データ送信部と、
をさらに有し、
前記n個の計算装置のそれぞれは、
受信した前記シェアパラメータ群が設定された前記分散学習モデルと、受信した前記分散入力データとに基づき、前記学習モデルに前記入力データを与えて得られる結果データを前記秘密分散法における分散処理により分散したn個の分散結果データのうちの、対応する分散結果データを生成する推論部と、
前記分散結果データを前記推論装置に送信する結果送信部と、
をさらに有し、
前記推論装置は、
前記n個の計算装置のうちの、k2個(k2は、2以上、n-1以下の予め定められた整数)の前記計算装置のそれぞれから受信した前記分散結果データに基づき、前記秘密分散法における復元処理により前記結果データを生成する結果復元部をさらに有する
請求項1から7の何れか1項に記載の学習システム。 - 推論装置をさらに備え、
前記推論装置は、
復元された前記学習モデルの前記パラメータ群が設定された前記学習モデルと、前記学習モデルにより推論させるための入力データとに基づき、前記学習モデルに前記入力データを与えて得られる結果データを生成する第2推論部を有する
請求項1から7の何れか1項に記載の学習システム。 - ネットワークを介してn個(nは、3以上の整数)の計算装置と接続されたモデル生成装置であって、
前記モデル生成装置は、
学習モデルを訓練するためのm×n個(mは、2以上の整数)の訓練データを取得する取得部と、
前記m×n個の訓練データを、前記n個の計算装置に一対一に対応した、m個の訓練データを含むn個のグループに分割する分割部と、
前記n個のグループのそれぞれについて秘密分散法における分散処理によりm個の分散訓練データを生成するものであって、前記n個のグループのうちのi番目(iは、1以上n以下の整数)のグループに含まれる前記m個の訓練データのそれぞれについて、n個の元(P1,P2,…,Pi,…,Pn)のうちのi番目の元(Pi)を用いて前記秘密分散法における分散処理により分散訓練データを生成する秘密分散部と、
前記n個の計算装置のそれぞれに、対応する前記m個の分散訓練データを送信するシェア送信部と、
を有し、
前記n個の計算装置のそれぞれは、
前記モデル生成装置から前記m個の分散訓練データを受信するシェア受信部と、
受信した前記m個の分散訓練データにより、前記学習モデルと同一の構造の分散学習モデルを訓練する訓練部と、
前記分散学習モデルにおける訓練後の分散パラメータ群を前記モデル生成装置に送信するパラメータ送信部と、
を有し、
前記モデル生成装置は、
前記n個の計算装置のうちの、k1個(k1は、2以上、n-1以下の予め定められた整数)の計算装置のそれぞれから訓練後の前記分散パラメータ群を受信するパラメータ受信部と、
前記k1個の計算装置のそれぞれから受信した前記分散パラメータ群に基づき、前記秘密分散法における復元処理により前記学習モデルのパラメータ群を生成するパラメータ復元部とをさらに有する
モデル生成装置。 - モデル生成装置とネットワークを介して接続されたn個(nは、3以上の整数)の計算装置とにより、学習モデルを訓練する学習方法であって、
前記モデル生成装置が、前記学習モデルを訓練するためのm×n個(mは、2以上の整数)の訓練データを取得し、
前記モデル生成装置が、前記m×n個の訓練データを、前記n個の計算装置に一対一に対応した、m個の訓練データを含むn個のグループに分割し、
前記モデル生成装置が、前記n個のグループのそれぞれについて秘密分散法における分散処理によりm個の分散訓練データを生成するものであって、前記n個のグループのうちのi番目(iは、1以上n以下の整数)のグループに含まれる前記m個の訓練データのそれぞれについて、n個の元(P1,P2,…,Pi,…,Pn)のうちのi番目の元(Pi)を用いて前記秘密分散法における分散処理により分散訓練データを生成し、
前記モデル生成装置が、前記n個の計算装置のそれぞれに、対応する前記m個の分散訓練データを送信し、
前記n個の計算装置のそれぞれが、前記モデル生成装置から前記m個の分散訓練データを受信し、
前記n個の計算装置のそれぞれが、受信した前記m個の分散訓練データにより、前記学習モデルと同一の構造の分散学習モデルを訓練し、
前記n個の計算装置のそれぞれが、前記分散学習モデルにおける訓練後の分散パラメータ群を前記モデル生成装置に送信し、
前記モデル生成装置が、前記n個の計算装置のうちの、k1個(k1は、2以上、n-1以下の予め定められた整数)の計算装置のそれぞれから訓練後の前記分散パラメータ群を受信し、
前記モデル生成装置が、前記k1個の計算装置のそれぞれから受信した前記分散パラメータ群に基づき、前記秘密分散法における復元処理により前記学習モデルのパラメータ群を生成する
学習方法。 - ネットワークを介してn個(nは、3以上の整数)の計算装置と接続されたモデル生成装置として、情報処理装置を機能させるためのプログラムであって、
前記情報処理装置を、
学習モデルを訓練するためのm×n個(mは、2以上の整数)の訓練データを取得する取得部と、
前記m×n個の訓練データを、前記n個の計算装置に一対一に対応した、m個の訓練データを含むn個のグループに分割する分割部と、
前記n個のグループのそれぞれについて秘密分散法における分散処理によりm個の分散訓練データを生成するものであって、前記n個のグループのうちのi番目(iは、1以上n以下の整数)のグループに含まれる前記m個の訓練データのそれぞれについて、n個の元(P1,P2,…,Pi,…,Pn)のうちのi番目の元(Pi)を用いて前記秘密分散法における分散処理により分散訓練データを生成する秘密分散部と、
前記n個の計算装置のそれぞれに、対応する前記m個の分散訓練データを送信するシェア送信部と、
して機能させ、
前記n個の計算装置のそれぞれは、
前記モデル生成装置から前記m個の分散訓練データを受信するシェア受信部と、
受信した前記m個の分散訓練データにより、前記学習モデルと同一の構造の分散学習モデルを訓練する訓練部と、
前記分散学習モデルにおける訓練後の分散パラメータ群を前記モデル生成装置に送信するパラメータ送信部と、
を有し、
前記情報処理装置を、
前記n個の計算装置のうちの、k1個(k1は、2以上、n-1以下の予め定められた整数)の計算装置のそれぞれから訓練後の前記分散パラメータ群を受信するパラメータ受信部と、
前記k1個の計算装置のそれぞれから受信した前記分散パラメータ群に基づき、前記秘密分散法における復元処理により前記学習モデルのパラメータ群を生成するパラメータ復元部
としてさらに機能させるプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020113824A JP7414655B2 (ja) | 2020-07-01 | 2020-07-01 | 学習システム、情報処理装置、学習方法およびプログラム |
US17/180,707 US20220004815A1 (en) | 2020-07-01 | 2021-02-19 | Learning system, learning method, and computer program product |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020113824A JP7414655B2 (ja) | 2020-07-01 | 2020-07-01 | 学習システム、情報処理装置、学習方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022012178A true JP2022012178A (ja) | 2022-01-17 |
JP7414655B2 JP7414655B2 (ja) | 2024-01-16 |
Family
ID=79167530
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020113824A Active JP7414655B2 (ja) | 2020-07-01 | 2020-07-01 | 学習システム、情報処理装置、学習方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20220004815A1 (ja) |
JP (1) | JP7414655B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024057388A1 (ja) * | 2022-09-13 | 2024-03-21 | 日本電気株式会社 | 統合システム、組織サーバ、統合方法、分析方法、および記録媒体 |
WO2024069957A1 (ja) * | 2022-09-30 | 2024-04-04 | 日本電気株式会社 | 学習装置、学習システム、学習方法、およびコンピュータ可読媒体 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114611143A (zh) * | 2022-03-11 | 2022-06-10 | 上海熵熵微电子科技有限公司 | 一种数据的脱密共享方法、装置、设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04149663A (ja) * | 1990-10-09 | 1992-05-22 | Fujitsu Ltd | 逆モデル生成方法および該方法による制御システム |
JP2008250856A (ja) * | 2007-03-30 | 2008-10-16 | Sony Corp | 学習装置、学習方法、及びプログラム |
JP2017207839A (ja) * | 2016-05-17 | 2017-11-24 | 日本電信電話株式会社 | ニューラルネットワークシステム、シェア計算装置、ニューラルネットワークの学習方法、プログラム |
JP2018206016A (ja) * | 2017-06-02 | 2018-12-27 | 株式会社日立製作所 | 機械学習システム及び機械学習方法 |
JP2019179400A (ja) * | 2018-03-30 | 2019-10-17 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 監視装置、監視方法および監視プログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11461690B2 (en) | 2016-07-18 | 2022-10-04 | Nantomics, Llc | Distributed machine learning systems, apparatus, and methods |
CN110955915B (zh) | 2019-12-14 | 2022-03-25 | 支付宝(杭州)信息技术有限公司 | 一种隐私数据的处理方法及装置 |
-
2020
- 2020-07-01 JP JP2020113824A patent/JP7414655B2/ja active Active
-
2021
- 2021-02-19 US US17/180,707 patent/US20220004815A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04149663A (ja) * | 1990-10-09 | 1992-05-22 | Fujitsu Ltd | 逆モデル生成方法および該方法による制御システム |
JP2008250856A (ja) * | 2007-03-30 | 2008-10-16 | Sony Corp | 学習装置、学習方法、及びプログラム |
JP2017207839A (ja) * | 2016-05-17 | 2017-11-24 | 日本電信電話株式会社 | ニューラルネットワークシステム、シェア計算装置、ニューラルネットワークの学習方法、プログラム |
JP2018206016A (ja) * | 2017-06-02 | 2018-12-27 | 株式会社日立製作所 | 機械学習システム及び機械学習方法 |
JP2019179400A (ja) * | 2018-03-30 | 2019-10-17 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 監視装置、監視方法および監視プログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024057388A1 (ja) * | 2022-09-13 | 2024-03-21 | 日本電気株式会社 | 統合システム、組織サーバ、統合方法、分析方法、および記録媒体 |
WO2024069957A1 (ja) * | 2022-09-30 | 2024-04-04 | 日本電気株式会社 | 学習装置、学習システム、学習方法、およびコンピュータ可読媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP7414655B2 (ja) | 2024-01-16 |
US20220004815A1 (en) | 2022-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11902413B2 (en) | Secure machine learning analytics using homomorphic encryption | |
JP2022012178A (ja) | 学習システム、モデル生成装置、学習方法およびプログラム | |
CN110032878B (zh) | 一种安全的特征工程方法和装置 | |
EP3506550A1 (en) | Providing security against user collusion in data analytics using random group selection | |
US20210357800A1 (en) | Distributed decentralized machine learning model training | |
CN110427969B (zh) | 数据处理方法、装置和电子设备 | |
US20230214684A1 (en) | Privacy preserving machine learning using secure multi-party computation | |
JPWO2012046692A1 (ja) | 秘密分散システム、秘密分散装置、秘密分散方法、秘密ソート方法、秘密分散プログラム | |
CN110610093A (zh) | 在参数数据集中进行分布式训练 | |
JP2021515271A (ja) | コンピュータにより実施される投票処理およびシステム | |
JP6556659B2 (ja) | ニューラルネットワークシステム、シェア計算装置、ニューラルネットワークの学習方法、プログラム | |
JP5860557B1 (ja) | 秘密公開方法、秘密公開システム、秘密公開装置、およびプログラム | |
CN113221153B (zh) | 图神经网络训练方法、装置、计算设备及存储介质 | |
JP7361928B2 (ja) | 勾配ブースティングを介したプライバシーを守る機械学習 | |
CN108028751B (zh) | 用于移动主动秘密共享的系统、计算机可读介质和方法 | |
EP4016506B1 (en) | Softmax function secret calculation system, softmax function secret calculation device, softmax function secret calculation method, neural network secret calculation system, neural network secret learning system, and program | |
García-Hernández et al. | Multi-objective configuration of a secured distributed cloud data storage | |
Sanon et al. | Fully Homomorphic Encryption: Precision Loss in Wireless Mobile Communication | |
Chao et al. | Priority visual secret sharing of random grids for threshold access structures | |
Farhadi | Stability of linear dynamic systems over the packet erasure channel: a co-design approach | |
Awan et al. | Privacy-Preserving Big Data Security for IoT With Federated Learning and Cryptography | |
WO2023188259A1 (ja) | 秘密グローバルモデル計算装置、秘密グローバルモデル計算システム構成方法、プログラム | |
Bedi et al. | Trust-based access control for collaborative systems | |
WO2023243141A1 (ja) | 連合学習システム及び連合学習方法 | |
JP2017129913A (ja) | 秘匿決定木計算システム、装置、方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220825 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230725 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231020 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231228 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7414655 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |