JPWO2015155896A1 - サポートベクトルマシン学習システムおよびサポートベクトルマシン学習方法 - Google Patents
サポートベクトルマシン学習システムおよびサポートベクトルマシン学習方法 Download PDFInfo
- Publication number
- JPWO2015155896A1 JPWO2015155896A1 JP2016512563A JP2016512563A JPWO2015155896A1 JP WO2015155896 A1 JPWO2015155896 A1 JP WO2015155896A1 JP 2016512563 A JP2016512563 A JP 2016512563A JP 2016512563 A JP2016512563 A JP 2016512563A JP WO2015155896 A1 JPWO2015155896 A1 JP WO2015155896A1
- Authority
- JP
- Japan
- Prior art keywords
- learning
- support vector
- vector machine
- machine learning
- label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
- G06F21/6254—Protecting personal data, e.g. for financial or medical purposes by anonymising data, e.g. decorrelating personal data from the owner's identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/008—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols involving homomorphic encryption
Abstract
Description
まず、本実施形態で使用する暗号方式およびデータ分析の用語を定義する。本実施形態では、利用する加法的準同型暗号方式を1つ固定して実施するものとする。
本実施形態で用いる加法的準同型暗号方式は、準同型性を有する暗号方式(本実施形態では公開鍵暗号方式を想定している。)のうち加法性を有する暗号アルゴリズムである。例えば加法的準同型暗号方式は、通常の公開鍵暗号方式が有する暗号化鍵、復号化鍵に対する非対称性に加え、暗号文同士の加法性を有する。つまり、2つの暗号文に対して、平文がその2つの暗号文に対する平文の算術和(以下、加算、もしくは単に和と称し、当該算術和に用いる演算子も「+」と表記する。)となる暗号文を公開情報のみを用いて(秘密鍵や平文を用いることなく)計算する事が可能である。したがって、平文mの暗号文をE(m)とすると、E(m1)+E(m2)=E(m1+m2)が成立する。以下の説明においても、E(m)は平文mの暗号文を表すものとする。
上述した加法的準同型暗号アルゴリズムで規定されている秘密鍵/公開鍵生成アルゴリズムを指す。セキュリティパラメータと鍵シードをコマンド入力とし、特定のビット長の秘密鍵/公開鍵を出力とする。
上述した加法的準同型暗号アルゴリズムで規定されている暗号化アルゴリズムを指す。加法的準同型暗号暗号化アルゴリズムは、平文と公開鍵を入力とし暗号文を出力する。
上述した加法的準同型暗号アルゴリズムで規定されている復号化アルゴリズムを指す。加法的準同型暗号復号化アルゴリズムは、暗号文と秘密鍵を入力とし、その暗号文に対応する平文を出力する。
上述した加法的準同型暗号アルゴリズムで規定されている暗号文同士の加算演算を実現するアルゴリズムを指す。複数の暗号文をコマンド入力とし、その複数の暗号文の平文の総和に対応する暗号文を出力する。例えば、100に対応する暗号文E(100)と200に対応する暗号文E(200)をコマンド入力とした際には、300(100+200)に対応する暗号文E(300)を出力する。
教師あり学習を用いる識別手法の一つであり、以下のようなSVM学習の対象となる学習データ集合
D={(xi,yi)|xi∈Rm,yi∈{-1,1}i=1,2,…,n}
が与えられた際、Rm内でyi=1であるxiベクトルとyi=−1であるxiベクトルを分離する超平面もしくは超曲面の中で最もマージンの大きい超平面もしくは超曲面を算出する。ここで、超平面もしくは超曲面のマージンとはyi=1であるxiベクトルとyi=−1であるxiベクトルの中で最もその超平面もしくは超曲面に近いxiベクトルとの距離である。また、本実施形態では、各xiベクトルを特徴ベクトルと呼ぶ。さらにyi=1である特徴ベクトルxiをポジティブラベル特徴ベクトル、yi=−1である特徴ベクトルxiをネガティブラベル特徴ベクトルと呼ぶ。また、yiは、パターン識別器によりデータをクラス分けするためのクラスであり(図1参照)、ラベルと呼ばれる。なお、本実施形態では、図3のような超平面もしくは超曲面で分離可能な学習データ集合(ハードマージン問題)を用いて説明を行うが、本発明はこれに限定されるものではなく、分離不可能な場合(ソフトマージン問題)についても同様の方法が適用できる。また以下では、超平面で分離可能な例を用いて説明を行うが、本発明はこれに限定されるものではなく、既存のカーネル法を用いて非線形な超曲面で分離可能な例に対しても適用できる。
上述の学習データ集合
D={(xi,yi)|xi∈Rm,yi∈{−1,1}i=1,2,…,n}
が与えられた際、Rm内でマージンを最大化する超平面を求めるアルゴリズムをSVM学習アルゴリズムと呼び、その超平面を求める問題をSVM問題と呼ぶ。より具体的に、この問題は、目的関数L(a1,a2,…,an)を最大化する実数係数(a1,a2,…,am)∈Rmを探索する問題に帰着する。ここで目的関数Lは次式により表される。
という制約条件上を満たすものとする。
(8)勾配法
勾配法とは、最適化問題において関数の勾配に関する情報を基に解を探索するアルゴリズムである。上記SVM問題について、上記目的関数Lを最大化する最適解(a1,a2,…,an)は勾配法により求める。
上述のとおり、本実施形態のデータ学習分析システムでは、SVM学習にあたり(a)学習データを暗号化し、(b)学習データにダミーデータを追加する。
本実施形態では、学習データのラベルyiを暗号化したうえでSVM学習を実行する分析実行装置200に与える。これにより、分析実行装置200側に対してラベルyiの内容(+1であるか−1であるか)を隠蔽する。ラベルyiの内容が隠蔽されることにより、分析実行装置200では学習データに有意な意味づけを行うことが困難となる。
また、本実施形態では、学習データの集合にダミーデータを加える。これにより、学習データ集合の与えられた分析実行装置200側では、例えば学習データの分布の偏りなどを用いて、学習データの有意な意味づけを推測することも困難となる。
==第一の実施形態==
図2は、本発明の一実施の形態であるデータ学習分析システムの概略図である。図2に示すように、本実施形態のデータ学習分析システムは、分析依頼装置100と分析実行装置200とを含んで構成される。分析依頼装置100は、学習データを管理するコンピュータである。分析実行装置200はSVM学習に係る処理を行うコンピュータである。
図3は、分析依頼装置100のハードウェア概略図である。図3に示すように、分析依頼装置100は、CPU101と、補助記憶装置102と、メモリ103と、表示装置105と、入出力インターフェース106と、通信装置107と、が内部信号線104で連結し、構成される。また、補助記憶装置102には、プログラムコードが格納されている。プログラムコードは、メモリ103にロードされCPU101によって実行される。
図4は、分析依頼装置100のソフトウェア概略図である。分析依頼装置100は、学習データ記憶部121、ダミーデータ記憶部122、ダミーデータ追加処理部123、暗号化処理部124、学習データ送信部125、学習結果受信部126、復号化処理部127およびパターン識別器生成部128を備える。
D={(xi,yi)|xi∈Rm,yi∈{-1,1}i=1,2,…,n}
と表される。
図5は、分析実行装置200のソフトウェア概略図である。分析実行装置200は、学習データ受信部221、係数生成部222、更新処理部223および学習結果送信部224を備える。なお、係数生成部222、更新処理部223および学習結果送信部224は、分析実行装置200が備えるCPU101が補助記憶装置102に格納されているプログラムコードをメモリ103にロードして実行することにより実現される。
図6は、本実施形態のデータ学習分析システムにおいて実行される処理の流れを示す図である。
となるように、ベクトル(a1,a2,…,an)を(y1,y2,…,yn)の直交補空間に正射影し、その正射影ベクトルを係数列(a1,a2,…,an)としてもよい。パターン識別器生成部128は、係数列(a1,a2,…,an)を用いてパターン識別器を生成する(S600)。
次に第二の実施形態について説明する。
に与えて秘匿化学習結果E(aiyi)を更新する(S604)。
101 CPU
102 補助記憶装置(記憶装置)
103 メモリ
104 内部信号線
105 表示装置
106 入出力インターフェース
107 通信装置
200 分析実行装置
300 ネットワーク
Claims (9)
- サポートベクトルマシン学習を行うシステムであって、
学習データ管理装置および学習装置を含んで構成され、
前記学習データ管理装置は、
前記サポートベクトルマシン学習の対象となる、ラベルおよび特徴ベクトルを含む学習データの集合を記憶する学習データ記憶部と、
前記学習データの前記ラベルを加法的準同型暗号方式により暗号化する暗号化処理部と、
前記暗号化された前記ラベルおよび前記特徴ベクトルを含む暗号化学習データを前記学習装置に送信する学習データ送信部と、
を備え、
前記学習装置は、
前記暗号化学習データを受信する学習データ受信部と、
前記暗号化学習データに対して加法的準同型加算アルゴリズムを用いて勾配法による更新処理を行う更新処理部と、
を備えることを特徴とするサポートベクトルマシン学習システム。 - 請求項1に記載のサポートベクトルマシン学習システムであって、
前記学習データ管理装置は、前記学習データの集合にダミーデータを追加するダミーデータ追加処理部をさらに備え、
前記ダミーデータに含まれる前記ラベルの値は0であること、
を特徴とするサポートベクトルマシン学習システム。 - 請求項1ないし4のいずれか1項に記載のサポートベクトルマシン学習システムであって、
前記更新処理部は、前記更新処理の対象となる複数の係数組のそれぞれを用いて前記更新処理を行うこと、
を特徴とするサポートベクトルマシン学習システム。 - 請求項5に記載のサポートベクトルマシン学習システムであって、
前記更新処理部は、前記複数の係数組のそれぞれについての前記更新処理の処理結果を合計し、当該合計値を前記処理結果とすること、
を特徴とするサポートベクトルマシン学習システム。 - サポートベクトルマシン学習を行うシステムであって、
前記サポートベクトルマシン学習の対象となる、特徴ベクトルおよび加法的準同型暗号方式により暗号化されたラベルを含む学習データの集合を記憶する学習データ記憶部と、
前記暗号化学習データに対して加法的準同型加算アルゴリズムを用いて勾配法による更新処理を行う更新処理部と、
を備えることを特徴とするサポートベクトルマシン学習システム。 - サポートベクトルマシン学習を行う方法であって、
前記サポートベクトルマシン学習の対象となる、ラベルおよび特徴ベクトルを含む学習データの集合を記憶する学習データ管理装置が、
前記学習データの前記ラベルを加法的準同型暗号方式により暗号化するステップと、
前記暗号化した前記ラベルおよび前記特徴ベクトルを含む暗号化学習データを学習装置に送信するステップとを実行し、
前記学習装置が、
前記暗号化学習データを受信するステップと、
前記暗号化学習データに対して加法的準同型加算アルゴリズムを用いて勾配法による更新処理を行うステップとを実行すること、
を特徴とするサポートベクトルマシン学習方法。 - 請求項1に記載のサポートベクトルマシン学習方法であって、
前記学習データ管理装置はさらに前記学習データの集合にダミーデータを追加するステップを実行し、
前記ダミーデータに含まれる前記ラベルの値は0であること、
を特徴とするサポートベクトルマシン学習方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2014/060533 WO2015155896A1 (ja) | 2014-04-11 | 2014-04-11 | サポートベクトルマシン学習システムおよびサポートベクトルマシン学習方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2015155896A1 true JPWO2015155896A1 (ja) | 2017-04-13 |
Family
ID=54287495
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016512563A Ceased JPWO2015155896A1 (ja) | 2014-04-11 | 2014-04-11 | サポートベクトルマシン学習システムおよびサポートベクトルマシン学習方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20170039487A1 (ja) |
JP (1) | JPWO2015155896A1 (ja) |
WO (1) | WO2015155896A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019219813A (ja) * | 2018-06-18 | 2019-12-26 | 国立研究開発法人産業技術総合研究所 | 情報処理方法、システム及びプログラム |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6926429B2 (ja) * | 2016-09-27 | 2021-08-25 | 日本電気株式会社 | データ処理装置、データ処理方法、およびプログラム |
US10083061B2 (en) * | 2016-11-02 | 2018-09-25 | Sap Se | Cloud embedded process tenant system for big data processing |
US10491373B2 (en) * | 2017-06-12 | 2019-11-26 | Microsoft Technology Licensing, Llc | Homomorphic data analysis |
US11113624B2 (en) * | 2017-07-12 | 2021-09-07 | Sap Se | Distributed machine learning on heterogeneous data platforms |
CN107657104A (zh) * | 2017-09-20 | 2018-02-02 | 浙江浙能台州第二发电有限责任公司 | 基于在线支持向量机的锅炉燃烧系统动态建模方法 |
JP6691087B2 (ja) * | 2017-10-04 | 2020-04-28 | ファナック株式会社 | 熱変位補正システム |
WO2019102624A1 (ja) | 2017-11-27 | 2019-05-31 | 三菱電機株式会社 | 準同型推論装置、準同型推論方法、準同型推論プログラム及び秘匿情報処理システム |
CN108418833B (zh) * | 2018-03-23 | 2022-01-07 | 中科创达软件股份有限公司 | 一种软件的管理方法、云端服务器和终端 |
US20190332814A1 (en) * | 2018-04-27 | 2019-10-31 | Nxp B.V. | High-throughput privacy-friendly hardware assisted machine learning on edge nodes |
US11087223B2 (en) | 2018-07-11 | 2021-08-10 | International Business Machines Corporation | Learning and inferring insights from encrypted data |
CN109598385A (zh) * | 2018-12-07 | 2019-04-09 | 深圳前海微众银行股份有限公司 | 反洗钱联合学习方法、装置、设备、系统及存储介质 |
JP7279368B2 (ja) * | 2019-01-17 | 2023-05-23 | 富士通株式会社 | 学習方法、学習プログラムおよび学習装置 |
WO2020155173A1 (en) * | 2019-02-03 | 2020-08-06 | Platon Co., Limited | Data processing method, device and system for machine learning model |
WO2021038639A1 (ja) * | 2019-08-23 | 2021-03-04 | 日本電信電話株式会社 | デバイス識別装置、デバイス識別方法およびデバイス識別プログラム |
WO2022138959A1 (ja) * | 2020-12-25 | 2022-06-30 | 国立研究開発法人情報通信研究機構 | 協調学習システム及び協調学習方法 |
CN112818369B (zh) * | 2021-02-10 | 2024-03-29 | 中国银联股份有限公司 | 一种联合建模方法及装置 |
US20220284892A1 (en) * | 2021-03-05 | 2022-09-08 | Lenovo (Singapore) Pte. Ltd. | Anonymization of text transcripts corresponding to user commands |
WO2024034077A1 (ja) * | 2022-08-10 | 2024-02-15 | 日本電気株式会社 | 学習システム、学習方法、およびコンピュータ可読媒体 |
-
2014
- 2014-04-11 US US15/303,092 patent/US20170039487A1/en not_active Abandoned
- 2014-04-11 WO PCT/JP2014/060533 patent/WO2015155896A1/ja active Application Filing
- 2014-04-11 JP JP2016512563A patent/JPWO2015155896A1/ja not_active Ceased
Non-Patent Citations (3)
Title |
---|
JUSTIN ZHAN, LIWU CHANG AND STAN MATWIN: "How To Construct Support Vector Machines Without Breaching Privacy", STUDIA INFORMATICA, vol. Vol.1(7), JPN6014026814, 2006, PL, pages 233 - 244, XP055229535 * |
SAKUDA, S. ET AL.: "Structures of allosamidins, novel insect chitinase inhibitors, produced by actinomycetes", AGRICULTURAL AND BIOLOGICAL CHEMISTRY, vol. 51, no. 12, JPN6014001944, 1987, pages 3251 - 3259, XP055009135, DOI: doi:10.1271/bbb1961.51.3251 * |
藤井 康広,佐藤 尚宜,吉野 雅之,原田 邦彦: "クラウドコンピューティング・ビッグデータ利活用を支える先進セキュリティ技術", 日立評論, vol. 第94巻,第10号, JPN6014026816, 1 October 2012 (2012-10-01), JP, pages 49 - 53 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019219813A (ja) * | 2018-06-18 | 2019-12-26 | 国立研究開発法人産業技術総合研究所 | 情報処理方法、システム及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20170039487A1 (en) | 2017-02-09 |
WO2015155896A1 (ja) | 2015-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2015155896A1 (ja) | サポートベクトルマシン学習システムおよびサポートベクトルマシン学習方法 | |
JP6180177B2 (ja) | プライバシーを保護することができる暗号化データの問い合わせ方法及びシステム | |
JP5657128B2 (ja) | 秘匿計算システム、秘匿計算方法、および秘匿計算プログラム | |
US11509457B2 (en) | Method for secure classification using a transcryption operation | |
WO2021092977A1 (zh) | 纵向联邦学习优化方法、装置、设备及存储介质 | |
US10313119B2 (en) | Data management device, system, re-encryption device, data sharing device, and storage medium | |
US20090138698A1 (en) | Method of searching encrypted data using inner product operation and terminal and server therefor | |
US20170310479A1 (en) | Key Replacement Direction Control System and Key Replacement Direction Control Method | |
JP2018142013A (ja) | 関連付けられた秘密鍵部分を用いた高速公開鍵暗号化のためのシステムおよび方法 | |
CN113434878B (zh) | 基于联邦学习的建模及应用方法、装置、设备及存储介质 | |
JP6770075B2 (ja) | 暗号化メッセージ検索方法、メッセージ送受信システム、端末、プログラム | |
JP2012128398A (ja) | プライバシを保護したまま暗号化された要素の順序を選択するための方法およびシステム | |
CN107204997A (zh) | 管理云存储数据的方法和装置 | |
US10594473B2 (en) | Terminal device, database server, and calculation system | |
KR101697868B1 (ko) | 공유 또는 검색을 위한 데이터 암호화 방법 및 이를 수행하는 장치 | |
CN112906052B (zh) | 联邦学习中多用户梯度置换的聚合方法 | |
Bandaru et al. | Block chain enabled auditing with optimal multi‐key homomorphic encryption technique for public cloud computing environment | |
CN112380404B (zh) | 数据过滤方法、装置及系统 | |
CN116502732B (zh) | 基于可信执行环境的联邦学习方法以及系统 | |
JP2014137474A (ja) | 改ざん検知装置、改ざん検知方法、およびプログラム | |
JP2023179681A (ja) | 同型暗号文に対する非多項式演算を行う方法 | |
CN116170142A (zh) | 分布式协同解密方法、设备和存储介质 | |
JP5579327B2 (ja) | 隠れマルコフモデルに基づくプライバシー保護確率的推論 | |
JP5799635B2 (ja) | 暗号データ検索システム、装置、方法及びプログラム | |
Koppaka et al. | ElGamal algorithm with hyperchaotic sequence to enhance security of cloud data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161004 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170721 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170926 |
|
A045 | Written measure of dismissal of application [lapsed due to lack of payment] |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20180130 |