JP7290606B2 - 機械学習装置、機械学習方法及び機械学習プログラム - Google Patents

機械学習装置、機械学習方法及び機械学習プログラム Download PDF

Info

Publication number
JP7290606B2
JP7290606B2 JP2020099778A JP2020099778A JP7290606B2 JP 7290606 B2 JP7290606 B2 JP 7290606B2 JP 2020099778 A JP2020099778 A JP 2020099778A JP 2020099778 A JP2020099778 A JP 2020099778A JP 7290606 B2 JP7290606 B2 JP 7290606B2
Authority
JP
Japan
Prior art keywords
model
machine learning
data
learning
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020099778A
Other languages
English (en)
Other versions
JP2021193533A (ja
Inventor
清良 披田野
晋作 清本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2020099778A priority Critical patent/JP7290606B2/ja
Publication of JP2021193533A publication Critical patent/JP2021193533A/ja
Application granted granted Critical
Publication of JP7290606B2 publication Critical patent/JP7290606B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、プライバシを保護する機械学習装置、機械学習方法及び機械学習プログラムに関する。
従来、機械学習のプライバシに関する脅威として、学習済みモデルの出力から訓練データを推測する攻撃がある。代表的な攻撃としては、訓練データそのものを復元するモデルインバージョン攻撃や、あるデータが訓練データに含まれていたかどうかを推定するメンバシップインファレンス攻撃がある(例えば、非特許文献1参照)。
メンバシップインファレンス攻撃の概念に基づき定義されたメンバシッププライバシは、機械学習のプライバシに関する最も強い安全性の定義である。本概念では、学習済みモデルの出力が訓練データとテストデータとで同じ場合、あるデータが訓練データに入っていたかどうかを推定できないため、このモデルはメンバシッププライバシを満たすという。
しかしながら、一般的な学習方法では、機械学習モデルを完全に汎化することが難しく、訓練データとテストデータとで出力される予測値(確率)に乖離が生じるため、メンバシッププライバシを達成することはできなかった。
訓練データからプライベートなデータを除外すれば、たとえ出力から訓練データの情報が漏洩したとしても、メンバシッププライバシは問題とならない。しかしながら、プライベートなデータが訓練データの大多数を占める場合、プライベートなデータを除外することで全体のデータ数が大幅に減少する。この場合、学習済みモデルの性能が大幅に低下する。このため、モデルの性能を低下させずに、プライベートなデータを除外する方法が必要となる。
本発明は、プライベートなデータを含むデータ集合から、プライバシを保護しつつ、十分な性能を持つ学習済みモデルを作成できる機械学習装置、機械学習方法及び機械学習プログラムを提供することを目的とする。
本発明に係る機械学習装置は、機械学習モデルの訓練データを、プライベートなデータを含む第1の集合、及びプライベートなデータを含まない第2の集合に分割するデータ分割部と、前記第1の集合を用いて前記機械学習モデルを学習する第1学習部と、前記第1学習部により学習された前記機械学習モデルを、入力側モデルと出力側モデルとに分割するモデル分割部と、前記出力側モデルを、前記第2の集合のタスクに適合した形式の初期モデルに置き換えるモデル置換部と、前記第2の集合を用いて、前記機械学習モデルのうち、少なくとも前記初期モデルを含む部分を学習する第2学習部と、を備える。
前記第2学習部は、前記機械学習モデルの全体を更新してもよい。
前記データ分割部は、プライベートなデータのみで前記第1の集合を構成してもよい。
本発明に係る機械学習方法は、機械学習モデルの訓練データを、プライベートなデータを含む第1の集合、及びプライベートなデータを含まない第2の集合に分割するデータ分割ステップと、前記第1の集合を用いて前記機械学習モデルを学習する第1学習ステップと、前記第1学習ステップにおいて学習された前記機械学習モデルを、入力側モデルと出力側モデルとに分割するモデル分割ステップと、前記出力側モデルを、前記第2の集合のタスクに適合した形式の初期モデルに置き換えるモデル置換ステップと、前記第2の集合を用いて、前記機械学習モデルのうち、少なくとも前記初期モデルを含む部分を学習する第2学習ステップと、をコンピュータが実行する。
本発明に係る機械学習プログラムは、前記機械学習装置としてコンピュータを機能させるためのものである。
本発明によれば、プライベートなデータを含むデータ集合から、プライバシを保護しつつ、十分な性能を持つ学習済みモデルを作成できる。
実施形態における機械学習装置の機能構成を示す図である。 実施形態における機械学習方法を説明する概念図である。 実施形態における機械学習方法の流れを示すフローチャートである。
以下、本発明の実施形態の一例について説明する。
本実施形態では、機械学習のためにn個のデータからなる訓練データの集合Dが用意されているものとする。各データxには、データが分類されたクラスを表すラベルyが付与されている。機械学習では、データxとラベルyとを関連付けるモデルfが学習される。
ここで、あるデータxが与えられたときに、攻撃者はxをモデルfに入力し、出力f(x)を得る。このとき、攻撃者がf(x)に基づいてデータxがモデルfの訓練データに含まれていたかどうかを推定することが難しい場合、モデルfは、メンバシッププライバシが満たされているという。
訓練データの集合Dには、プライベートなデータが含まれているため、本実施形態では、プライバシ保護のため、プライベートな情報を含まないデータを分類するための機械学習モデルを生成する。
このとき、本実施形態の機械学習方法では、学習済みモデルの分類性能を維持するために、プライベートな情報を含むデータ集合も学習に用いつつ、転移学習の手法を適用することで、このデータ集合に基づく訓練データとテストデータとの間での出力の乖離を消失させる。
図1は、本実施形態における機械学習装置1の機能構成を示す図である。
機械学習装置1は、サーバ装置又はパーソナルコンピュータ等の情報処理装置(コンピュータ)であり、制御部10及び記憶部20の他、各種データの入出力デバイス及び通信デバイス等を備える。
制御部10は、機械学習装置1の全体を制御する部分であり、記憶部20に記憶された各種プログラムを適宜読み出して実行することにより、本実施形態における各機能を実現する。制御部10は、CPUであってよい。
記憶部20は、ハードウェア群を機械学習装置1として機能させるための各種プログラム、及び各種データ等の記憶領域であり、ROM、RAM、フラッシュメモリ又はハードディスクドライブ(HDD)等であってよい。具体的には、記憶部20は、本実施形態の各機能を制御部10に実行させるためのプログラム(機械学習プログラム)、及び機械学習モデル、訓練データ等を記憶する。
制御部10は、データ分割部11と、第1学習部12と、モデル分割部13と、モデル置換部14と、第2学習部15とを備える。
データ分割部11は、機械学習モデルの訓練データ集合Dを、プライベートなデータを含む第1の集合D、及びプライベートなデータを含まない第2の集合Dに分割する。
データ分割部11は、プライベートなデータのみで第1の集合Dを構成してもよいが、第1の集合Dには、プライベートでないデータが含まれてもよい。
また、分割の条件としてラベルyに関する制約はないものとする。
第1学習部12は、第1の集合Dを訓練データとして用い、機械学習モデルを学習する。
このとき、機械学習モデルのパラメータは、第1の集合Dに含まれるラベルyに応じた出力となるように設計される。
モデル分割部13は、第1学習部12により学習された機械学習モデルを、入力側モデルAと出力側モデルBとに分割する。
なお、複数レイヤで構成された機械学習モデルの分割箇所は、モデルによる分類タスクに応じて適宜決定されてよい。
モデル置換部14は、分割された出力側モデルBを、第2の集合Dのタスクに適合した形式の初期モデルBに置き換える。
なお、第1の集合Dと第2の集合Dとは、分類のタスクが異なっていてよく、第2の集合Dに付与されているラベルyに応じた出力となるように初期モデルBのパラメータが設計される。
すなわち、BとBとは、同じ形式でなくてよく、例えば、ニューラルネットワークにおけるユニットの数や、分類クラスの数等、構造が異なっていてよい。
第2学習部15は、第2の集合Dを訓練データとして用い、機械学習モデルのうち、少なくとも初期モデルBを含む部分を学習する。
このとき、第2学習部15は、機械学習モデルの全体(A+B)を更新してもよいし、初期モデルBのみを更新してもよい。
図2は、本実施形態における機械学習方法を説明する概念図である。
訓練データの集合Dを分割して、プライベートなデータを含む第1の集合Dと、プライベートなデータを含まない第2の集合Dとが与えられると、まず、第1の集合を用いて、モデルfが学習される。
学習済みモデルfは、Dに含まれているラベル(例えばa,b,c)に応じた予測値を出力する。
次に、モデルfは、入力に近い前半部分(A)と出力に近い後半部分(B)とに分割され、転移学習の手順にしたがって、後半部分がBからBに置き換えられる。
このとき、モデルBは、第2の集合Dのタスクに合わせて初期化され、モデルfは、Dに含まれているラベル(例えばc,d,e)に応じた予測値を出力する。
続いて、モデルfは、第2の集合Dを用いて学習され、少なくとも後半部分(B)が更新される。
図3は、本実施形態における機械学習方法の流れを示すフローチャートである。
ステップS1において、データ分割部11は、訓練データの集合Dを、プライベートなデータを含む第1の集合Dと、プライベートなデータを含まない第2の集合Dとに分割する。
ステップS2において、第1学習部12は、第1の集合Dを訓練データとして用い、Dに含まれているデータのクラスを分類するための複数のレイヤからなるモデルfを学習する。
ステップS3において、モデル分割部13は、学習したモデルfを2つのモデルに分割し、入力に近い側の前半部のモデルをA、出力に近い側の後半部のモデルをBとする。
ステップS4において、モデル置換部14は、学習済みモデルfの前半部のモデルAに繋げて、第2の集合Dに含まれているデータのクラスを分類するための後半部のモデルBを作成し、モデルfを初期化する。
ステップS5において、第2学習部15は、第2の集合Dを訓練データとして用い、Dに含まれているデータのクラスを分類するためのモデルfを更新する。なお、第2学習部15は、Aを更新せずにBのみを更新してもよいし、A及びBの両方を更新してもよい。
本実施形態によれば、機械学習装置1は、訓練データDを、プライベートなデータを含む第1の集合D、及びプライベートなデータを含まない第2の集合Dに分割する。そして、機械学習装置1は、第1の集合Dを用いて機械学習モデルを学習した後、入力側のモデルAのみを転移させ、出力側モデルBを第2の集合Dのタスクに適合した形式の初期モデルBに置き換えてからDを用いて更新する。
これにより、モデルfの出力はプライベートなデータを含まない第2の集合Dのみに依存し、プライベートなデータを含む第1の集合Dについての訓練データとテストデータとの差は消失する。この結果、モデルfの出力からプライベートなデータが訓練データに含まれていたことを推定できなくなる。
また、モデルfの入力に近い部分(A)はプライベートなデータを含む第1の集合を用いて学習されたため、データ集合D全体の傾向を反映したものであり、特徴抽出が十分に行われ学習済みモデルfの性能は保たれる。
したがって、機械学習装置1は、転移学習の手法を応用することで、プライベートなデータを含むデータ集合から、プライバシを保護しつつ、十分な性能を持つ学習済みモデルを作成できる。
機械学習装置1は、プライベートなデータを含まない第2の集合Dを用いて機械学習モデルの全体(A+B)を更新してもよい。
これにより、プライベートなデータを含まない第2の集合Dの特徴も含めて前半部分(A)が学習され、学習済みモデルの性能の向上が期待できる。
機械学習装置1は、プライベートなデータのみで第1の集合を構成することにより、プライベートなデータが多数の場合に、プライベートなデータを含まない第2の集合Dのデータ量を最大化でき、学習済みモデルの性能低下を抑制できる。
以上、本発明の実施形態について説明したが、本発明は前述した実施形態に限るものではない。また、前述した実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載されたものに限定されるものではない。
機械学習装置1による機械学習方法は、ソフトウェアにより実現される。ソフトウェアによって実現される場合には、このソフトウェアを構成するプログラムが、情報処理装置(コンピュータ)にインストールされる。また、これらのプログラムは、CD-ROMのようなリムーバブルメディアに記録されてユーザに配布されてもよいし、ネットワークを介してユーザのコンピュータにダウンロードされることにより配布されてもよい。さらに、これらのプログラムは、ダウンロードされることなくネットワークを介したWebサービスとしてユーザのコンピュータに提供されてもよい。
1 機械学習装置
10 制御部
11 データ分割部
12 第1学習部
13 モデル分割部
14 モデル置換部
15 第2学習部
20 記憶部

Claims (5)

  1. 機械学習モデルの訓練データを、プライベートなデータを含む第1の集合、及びプライベートなデータを含まない第2の集合に分割するデータ分割部と、
    前記第1の集合を用いて前記機械学習モデルを学習する第1学習部と、
    前記第1学習部により学習された前記機械学習モデルを、入力側モデルと出力側モデルとに分割するモデル分割部と、
    前記出力側モデルを、前記第2の集合のタスクに適合した形式の初期モデルに置き換えるモデル置換部と、
    前記第2の集合を用いて、前記機械学習モデルのうち、少なくとも前記初期モデルを含む部分を学習する第2学習部と、を備える機械学習装置。
  2. 前記第2学習部は、前記機械学習モデルの全体を更新する請求項1に記載の機械学習装置。
  3. 前記データ分割部は、プライベートなデータのみで前記第1の集合を構成する請求項1又は請求項2に記載の機械学習装置。
  4. 機械学習モデルの訓練データを、プライベートなデータを含む第1の集合、及びプライベートなデータを含まない第2の集合に分割するデータ分割ステップと、
    前記第1の集合を用いて前記機械学習モデルを学習する第1学習ステップと、
    前記第1学習ステップにおいて学習された前記機械学習モデルを、入力側モデルと出力側モデルとに分割するモデル分割ステップと、
    前記出力側モデルを、前記第2の集合のタスクに適合した形式の初期モデルに置き換えるモデル置換ステップと、
    前記第2の集合を用いて、前記機械学習モデルのうち、少なくとも前記初期モデルを含む部分を学習する第2学習ステップと、をコンピュータが実行する機械学習方法。
  5. 請求項1から請求項3のいずれかに記載の機械学習装置としてコンピュータを機能させるための機械学習プログラム。
JP2020099778A 2020-06-09 2020-06-09 機械学習装置、機械学習方法及び機械学習プログラム Active JP7290606B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020099778A JP7290606B2 (ja) 2020-06-09 2020-06-09 機械学習装置、機械学習方法及び機械学習プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020099778A JP7290606B2 (ja) 2020-06-09 2020-06-09 機械学習装置、機械学習方法及び機械学習プログラム

Publications (2)

Publication Number Publication Date
JP2021193533A JP2021193533A (ja) 2021-12-23
JP7290606B2 true JP7290606B2 (ja) 2023-06-13

Family

ID=79169056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020099778A Active JP7290606B2 (ja) 2020-06-09 2020-06-09 機械学習装置、機械学習方法及び機械学習プログラム

Country Status (1)

Country Link
JP (1) JP7290606B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017090194A1 (ja) 2015-11-27 2017-06-01 富士通株式会社 リスク評価方法、リスク評価プログラム及び情報処理装置
JP2019101485A (ja) 2017-11-28 2019-06-24 キヤノン株式会社 情報処理方法、情報処理装置、情報処理システム及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017090194A1 (ja) 2015-11-27 2017-06-01 富士通株式会社 リスク評価方法、リスク評価プログラム及び情報処理装置
JP2019101485A (ja) 2017-11-28 2019-06-24 キヤノン株式会社 情報処理方法、情報処理装置、情報処理システム及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Nicolas Papernot et al.,Semi-supervised Knowledge Transfer for DeepLearning from Private Training Data,arXiv:1610.05755v4,2017年03月,<URL: https://arxiv.org/abs/1610.05755>

Also Published As

Publication number Publication date
JP2021193533A (ja) 2021-12-23

Similar Documents

Publication Publication Date Title
US11483354B2 (en) System and method for reasoning about the optimality of a configuration parameter of a distributed system
CN106953862B (zh) 网络安全态势的感知方法和装置及感知模型训练方法和装置
US11138312B2 (en) Cyber range integrating technical and non-technical participants, participant substitution with AI bots, and AI bot training
EP2912802B1 (en) Method and device for simulating network resiliance against attacks
US11256975B2 (en) Distributed architecture for explainable AI models
Badr et al. Resilient and trustworthy dynamic data-driven application systems (DDDAS) services for crisis management environments
WO2023109483A1 (en) Defending deep generative models against adversarial attacks
Buchholz Adaptive decomposition and approximation for the analysis of stochastic Petri nets
Karetnikov et al. Enhancing transe to predict process behavior in temporal knowledge graphs
JP7290606B2 (ja) 機械学習装置、機械学習方法及び機械学習プログラム
Khodzhimatov et al. On the effect of social norms on performance in teams with distributed decision makers
Ficco et al. Security and resilience in intelligent data-centric systems and communication networks
Labbaci et al. Learning interactions from web service logs
Jones et al. Architectural scoring framework for the creation and evaluation of system-aware cyber security solutions
US11294759B2 (en) Detection of failure conditions and restoration of deployed models in a computing environment
Gonzalez et al. A software engineering methodology for developing secure obfuscated software
Huber et al. Cyber fighter associate: A decision support system for cyber agility
Bodeau et al. Systems Engineering Approaches
Atighetchi et al. From auto-adaptive to survivable and self-regenerative systems successes, challenges, and future
Topîrceanu et al. Complex networks antifragility under sustained edge attack-repair mechanisms
Kabanda Performance of Machine Learning and Big Data Analytics Paradigms in Cyber Security
US20230229789A1 (en) Data poisoning method and data poisoning apparatus
Nour et al. Accurify: Automated New Testflows Generation for Attack Variants in Threat Hunting
Rivera et al. Using Dynamic Knowledge Hypergraphs Toward Proactive AlOps through Digital Twins
US20240111903A1 (en) Detecting client isolation attacks in federated learning through overfitting monitoring

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230601

R150 Certificate of patent or registration of utility model

Ref document number: 7290606

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150