JP7290596B2 - Determination device, determination method and determination program - Google Patents
Determination device, determination method and determination program Download PDFInfo
- Publication number
- JP7290596B2 JP7290596B2 JP2020057093A JP2020057093A JP7290596B2 JP 7290596 B2 JP7290596 B2 JP 7290596B2 JP 2020057093 A JP2020057093 A JP 2020057093A JP 2020057093 A JP2020057093 A JP 2020057093A JP 7290596 B2 JP7290596 B2 JP 7290596B2
- Authority
- JP
- Japan
- Prior art keywords
- determination
- data
- unit
- conversion
- individual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
- Storage Device Security (AREA)
Description
本発明は、機械学習を用いた判定装置、判定方法及び判定プログラムに関する。 The present invention relates to a determination device, determination method, and determination program using machine learning.
従来、深層学習の推論における脅威の一つとして、敵対的サンプルを利用した攻撃がある。攻撃者は、意図的に誤分類を誘発することを目的として、ある入力データに微小な摂動を加え、これを学習済みモデルに投入する。教師あり学習では、訓練時に与えられたデータ、すなわち訓練データに基づき、識別境界面が形成される。識別境界面は、訓練データに依存するため、データの真の空間構造とは乖離して形成される場合がある。敵対的サンプルは、この乖離を利用することで、微小な摂動を加えるだけで、誤分類を誘発する。 Conventionally, one of the threats in deep learning inference is an attack using adversarial samples. An attacker adds a small perturbation to some input data and feeds it into a trained model with the aim of intentionally inducing misclassification. In supervised learning, a discriminative boundary surface is formed based on data given during training, ie, training data. Since the discriminative boundary plane depends on the training data, it may be formed away from the true spatial structure of the data. Adversarial samples take advantage of this divergence to induce misclassification with only a small perturbation.
この敵対的サンプルを利用した攻撃への対策としては、敵対的学習と呼ばれる学習手法がある。敵対的学習では、訓練データに対して意図的に摂動を加えることで、敵対的サンプルに対してロバストな識別モデルが生成される。例えば、非特許文献1で提案されたアルゴリズムは、本攻撃に対して高い堅牢性を持つことが知られている。
As a countermeasure against attacks using adversarial samples, there is a learning method called adversarial learning. In adversarial learning, the training data is deliberately perturbed to produce a discriminative model that is robust against adversarial samples. For example, the algorithm proposed in Non-Patent
しかしながら、敵対的学習では、敵対的サンプルに相当する訓練データを入力する必要があるため、実際の攻撃手法に対して必ずしも適切とは限らなかった。また、既存の学習アルゴリズムに対して処理の改変を要し負荷も増大していた。 However, since adversarial learning requires input of training data corresponding to adversarial samples, it is not always suitable for actual attack techniques. In addition, modification of processing is required for existing learning algorithms, increasing the load.
本発明は、学習済モデルの誤判定を誘発する攻撃に対して容易に耐性を持たせられる判定装置、判定方法及び判定プログラムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a determination device, a determination method, and a determination program that can easily provide resistance to an attack that induces an erroneous determination of a trained model.
本発明に係る判定装置は、入力データに対して変換処理を行い、互いに異なる複数の変換後データを生成する変換部と、機械学習の訓練データに対して前記変換処理が行われた互いに異なる複数の変換後データを用いて、それぞれ別々の学習済みモデルを生成する学習部と、判定対象データに対して前記変換処理が行われた互いに異なる複数の変換後データを、それぞれ対応する前記学習済みモデルに入力し、複数の個別判定結果を得る入力部と、前記複数の個別判定結果の分布に基づいて、総合判定結果を出力する判定部と、を備える。 A determination apparatus according to the present invention includes a conversion unit that performs a conversion process on input data and generates a plurality of different post-conversion data; a learning unit that generates separate trained models using the transformed data of the above; and an input unit for obtaining a plurality of individual determination results, and a determination unit for outputting a comprehensive determination result based on the distribution of the plurality of individual determination results.
前記判定部は、前記個別判定結果の多数決により、総合判定結果を出力してもよい。 The determination unit may output a comprehensive determination result based on a majority decision of the individual determination results.
前記変換部は、前記入力データとしての一次元ベクトルを、複数の行列それぞれにより変換してもよい。 The transform unit may transform the one-dimensional vector as the input data by each of a plurality of matrices.
前記行列は、単位行列における一部の0を1に置き換えたものであってもよい。 The matrix may be obtained by replacing some 0s in a unit matrix with 1s.
本発明に係る判定方法は、入力データに対して変換処理を行い、互いに異なる複数の変換後データを生成する変換ステップと、機械学習の訓練データに対して前記変換処理が行われた互いに異なる複数の変換後データを用いて、それぞれ別々の学習済みモデルを生成する学習ステップと、判定対象データに対して前記変換処理が行われた互いに異なる複数の変換後データを、それぞれ対応する前記学習済みモデルに入力し、複数の個別判定結果を得る入力ステップと、前記複数の個別判定結果の分布に基づいて、総合判定結果を出力する判定ステップと、をコンピュータが実行する。 A determination method according to the present invention includes a conversion step of performing a conversion process on input data to generate a plurality of different post-conversion data; a learning step of generating separate trained models using the transformed data of the above; to obtain a plurality of individual determination results; and a determination step of outputting a comprehensive determination result based on the distribution of the plurality of individual determination results.
本発明に係る判定プログラムは、前記判定装置としてコンピュータを機能させるためのものである。 A determination program according to the present invention is for causing a computer to function as the determination device.
本発明によれば、学習済モデルの誤判定を誘発する攻撃に対して容易に耐性を持たせられる。 According to the present invention, it is possible to easily provide resistance to an attack that induces an erroneous determination of a trained model.
以下、本発明の実施形態の一例について説明する。
図1は、本実施形態における判定装置1の機能構成を示す図である。
判定装置1は、サーバ又はパーソナルコンピュータ等の情報処理装置(コンピュータ)であり、制御部10及び記憶部20の他、各種データの入出力デバイス及び通信デバイス等を備える。
An example of an embodiment of the present invention will be described below.
FIG. 1 is a diagram showing the functional configuration of a
The
制御部10は、判定装置1の全体を制御する部分であり、記憶部20に記憶された各種プログラムを適宜読み出して実行することにより、本実施形態における各機能を実現する。制御部10は、CPUであってよい。
The
記憶部20は、ハードウェア群を判定装置1として機能させるための各種プログラム、及び各種データ等の記憶領域であり、ROM、RAM、フラッシュメモリ又はハードディスク(HDD)等であってよい。具体的には、記憶部20は、本実施形態の各機能を制御部10に実行させるためのプログラム(判定プログラム)、学習モデル等を記憶する。
The
制御部10は、変換部11と、学習部12と、入力部13と、判定部14とを備える。
制御部10は、これらの機能部により、入力データに対して機械学習を用いた判定結果を出力する。
The
The
変換部11は、入力データ、すなわち機械学習の訓練データ又は判定対象データに対して変換処理を行い、互いに異なる複数の変換後データを生成する。
入力データは、一次元ベクトルであってよい。変換部11は、例えば、入力データとしての一次元ベクトルaを、複数の行列Hiそれぞれにより、a’i=Hi・aと変換する。
The
Input data may be a one-dimensional vector. The
図2は、本実施形態における行列Hiを例示する図である。
行列Hiは、例えば、単位行列における一部の0を1に置き換えたものであってよい。
この他、1を0に置き換え、行の入れ替え等が行われてもよいが、単位行列の成分が保持されることが好ましく、これにより、変換後も元の入力データの特徴が保持され、さらに、非線形項を含むことにより攻撃への耐性が強化される。
FIG. 2 is a diagram illustrating the matrix H i in this embodiment.
The matrix H i may be, for example, a unit matrix in which some 0s are replaced with 1s.
In addition, 1 may be replaced with 0, rows may be replaced, etc., but it is preferable to retain the elements of the unit matrix, so that the characteristics of the original input data are retained even after conversion. , the inclusion of nonlinear terms enhances resistance to attacks.
なお、変換処理は、行列変換には限られない。所定の変換規則が学習モデル(AI)毎に定義され、訓練データ及び判定対象データに対して共通の変換処理が行われる。 Note that the conversion process is not limited to matrix conversion. A predetermined conversion rule is defined for each learning model (AI), and common conversion processing is performed on training data and determination target data.
学習部12は、機械学習の訓練データに対して変換部11による変換処理が行われた互いに異なる複数の変換後データを用いて、それぞれ別々の独立したDNN(Deep Neural Network)等による学習済みモデルを生成する。
なお、学習アルゴリズムは、複数の学習モデルで共通していてもよいし、異なっていてもよい。
The
Note that the learning algorithm may be common to a plurality of learning models, or may be different.
入力部13は、判定対象データに対して変換部11による変換処理が行われた互いに異なる複数の変換後データを、それぞれ対応する学習済みモデルに入力し、複数の個別判定結果を得る。
The
判定部14は、複数の個別判定結果の分布に基づいて、総合判定結果を出力する。
このとき、判定部14は、個別判定結果の多数決により、総合判定結果を出力してよい。例えば、2種類の分類を判定する場合は、個別判定結果の数が多い方の分類を、3種類以上の分類を判定する場合は、個別判定結果の数が最も多い分類を総合判定結果とする。
The
At this time, the
図3は、本実施形態における判定方法の流れを示す図である。
まず、変換部11は、複数(例えば、3つ以上)の学習モデルAIiに対応して、同一の訓練データX(ベクトル群)を互いに異なる変換規則(例えば、行列Hi)により変換し、複数の変換後データX’iを生成する(1)。
FIG. 3 is a diagram showing the flow of the determination method in this embodiment.
First, the
続いて、学習部12は、変換後データX’iを用いて、学習モデルAIiそれぞれに対して、独立した機械学習を行う(2)。
これにより、同一の訓練データを学習した互いに異なる複数の学習済みモデルAIiが構成される。
Subsequently, the
As a result, a plurality of different trained models AI i learned from the same training data are constructed.
その後、判定装置1に判定対象データaが入力されると、変換部11は、学習時と同一の変換規則により、複数の変換後データa’iを生成する(3)。
After that, when the determination target data a is input to the
次に、入力部13は、生成された変換後データa’iを、それぞれ対応する学習済みモデルAIiに入力することで、複数の個別判定結果を得る(4)。
Next, the
そして、判定部14は、これらの個別判定結果に基づいて、多数決等により総合判定結果を出力する(5)。
Then, based on these individual determination results, the
本実施形態によれば、判定装置1は、機械学習の訓練データに対して前記変換処理が行われた互いに異なる複数の変換後データを用いて、それぞれ別々の学習済みモデルを生成し、判定対象データに対して同一の変換処理が行われた互いに異なる複数の変換後データを、それぞれ対応する学習済みモデルに入力する。そして、判定装置1は、複数の個別判定結果の分布に基づいて、総合判定結果を出力する。
According to the present embodiment, the
これにより、判定装置1は、敵対的サンプルにより、いずれかの学習済みモデルで誤判定が発生したとしても、独立した学習済みモデルの大半で誤判定させることは容易ではないため、個別判定結果を総合することにより、確度の高い判定結果を出力できる。したがって、判定装置1は、学習済モデルの誤判定を誘発する攻撃に対して容易に耐性を持たせられる。
As a result, even if an erroneous judgment occurs in one of the trained models due to the hostile sample, the
判定装置1は、個別判定結果の多数決により、総合判定結果を出力することで、容易に確度の高い判定を行える。
The
判定装置1は、入力データとしての一次元ベクトルを、複数の行列それぞれにより変換することで、変換処理に掛かる負荷を軽量化できる。したがって、判定装置1は、軽量な前処理を行うのみで、攻撃に対する耐性を容易に高めることができる。
The
変換処理に用いる行列は、単位行列における一部の0を1に置き換えたものであってよい。これにより、判定装置1は、入力データの特徴を損なうことなく、非線形項の追加によって攻撃への耐性を高めることができる。
A matrix used for conversion processing may be obtained by replacing some 0s in a unit matrix with 1s. As a result, the
以上、本発明の実施形態について説明したが、本発明は前述した実施形態に限るものではない。また、前述した実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載されたものに限定されるものではない。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments. Moreover, the effects described in the above-described embodiments are merely enumerations of the most suitable effects produced by the present invention, and the effects of the present invention are not limited to those described in the embodiments.
判定装置1による判定方法は、ソフトウェアにより実現される。ソフトウェアによって実現される場合には、このソフトウェアを構成するプログラムが、情報処理装置(コンピュータ)にインストールされる。また、これらのプログラムは、CD-ROMのようなリムーバブルメディアに記録されてユーザに配布されてもよいし、ネットワークを介してユーザのコンピュータにダウンロードされることにより配布されてもよい。さらに、これらのプログラムは、ダウンロードされることなくネットワークを介したWebサービスとしてユーザのコンピュータに提供されてもよい。
The determination method by the
1 判定装置
10 制御部
11 変換部
12 学習部
13 入力部
14 判定部
20 記憶部
1
Claims (5)
機械学習の訓練データに対して前記変換処理が行われた互いに異なる複数の変換後データを用いて、それぞれ別々の学習済みモデルを生成する学習部と、
判定対象データに対して前記変換処理が行われた互いに異なる複数の変換後データを、それぞれ対応する前記学習済みモデルに入力し、複数の個別判定結果を得る入力部と、
前記複数の個別判定結果の分布に基づいて、総合判定結果を出力する判定部と、を備え、
前記変換部は、前記入力データとしての一次元ベクトルを、複数の行列それぞれにより変換する判定装置。 a conversion unit that performs conversion processing on input data and generates a plurality of different post-conversion data;
a learning unit that generates separate trained models using a plurality of different post-transformation data obtained by subjecting the training data for machine learning to the transformation process;
an input unit for obtaining a plurality of individual determination results by inputting a plurality of different converted data obtained by performing the conversion processing on the determination target data to the corresponding trained models;
a determination unit that outputs a comprehensive determination result based on the distribution of the plurality of individual determination results ;
The transform unit is a determination device that transforms the one-dimensional vector as the input data by each of a plurality of matrices .
機械学習の訓練データに対して前記変換処理が行われた互いに異なる複数の変換後データを用いて、それぞれ別々の学習済みモデルを生成する学習ステップと、
判定対象データに対して前記変換処理が行われた互いに異なる複数の変換後データを、それぞれ対応する前記学習済みモデルに入力し、複数の個別判定結果を得る入力ステップと、
前記複数の個別判定結果の分布に基づいて、総合判定結果を出力する判定ステップと、をコンピュータが実行し、
前記変換ステップにおいて、前記入力データとしての一次元ベクトルを、複数の行列それぞれにより変換する判定方法。 a conversion step of performing conversion processing on input data to generate a plurality of different post-conversion data;
a learning step of generating separate trained models using a plurality of different post-transformation data obtained by subjecting the training data for machine learning to the transformation process;
an input step of obtaining a plurality of individual determination results by inputting a plurality of different converted data obtained by performing the conversion process on the determination target data into the corresponding learned models;
A computer executes a judgment step of outputting a comprehensive judgment result based on the distribution of the plurality of individual judgment results,
The determination method , wherein in the transforming step, the one-dimensional vector as the input data is transformed by each of a plurality of matrices .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020057093A JP7290596B2 (en) | 2020-03-27 | 2020-03-27 | Determination device, determination method and determination program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020057093A JP7290596B2 (en) | 2020-03-27 | 2020-03-27 | Determination device, determination method and determination program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021157502A JP2021157502A (en) | 2021-10-07 |
JP7290596B2 true JP7290596B2 (en) | 2023-06-13 |
Family
ID=77919132
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020057093A Active JP7290596B2 (en) | 2020-03-27 | 2020-03-27 | Determination device, determination method and determination program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7290596B2 (en) |
-
2020
- 2020-03-27 JP JP2020057093A patent/JP7290596B2/en active Active
Non-Patent Citations (3)
Title |
---|
Chaofeng Li et al.,"False-Positive Reduction on Lung Nodules Detection in Chest Radiographs by Ensemble of Convolutional Neural Networks",IEEE Access,IEEE,2018年,vol. 6,pp. 16060-16067,[令和4年11月10日 検索], インターネット:<URL: https://ieeexplore.ieee.org/abstract/document/8319989> |
Mahmood Sharif et al.,"n-ML: Mitigating Adversarial Examples via Ensembles of Topologically Manipulated Classifiers",arXiv.org [online],arXiv:1912.09059v1,米国,Cornell University,2019年,pp.1-14,[令和4年11月10日 検索], インターネット:<URL: https://arxiv.org/pdf/1912.09059v1> |
Thilo Strauss et al.,"Ensemble Methods as a Defense to Adversarial Perturbations Against Deep Neural Networks",arXiv.org [online],arXiv:1709.03423v2,米国,Cornell University,2018年,pp.1-10,[令和4年11月10日 検索], インターネット:<URL: https://arxiv.org/pdf/1709.03423v2> |
Also Published As
Publication number | Publication date |
---|---|
JP2021157502A (en) | 2021-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Vinayakumar et al. | Robust intelligent malware detection using deep learning | |
Boopathy et al. | Cnn-cert: An efficient framework for certifying robustness of convolutional neural networks | |
Kalash et al. | Malware classification with deep convolutional neural networks | |
Kebede et al. | Classification of malware programs using autoencoders based deep learning architecture and its application to the microsoft malware classification challenge (big 2015) dataset | |
JP6781415B2 (en) | Neural network learning device, method, program, and pattern recognition device | |
Liu et al. | ATMPA: attacking machine learning-based malware visualization detection methods via adversarial examples | |
CN111783442A (en) | Intrusion detection method, device, server and storage medium | |
Khan et al. | IPM-Model: AI and metaheuristic-enabled face recognition using image partial matching for multimedia forensics investigation with genetic algorithm | |
JP2019192198A (en) | System and method of training machine learning model for detection of malicious container | |
Zhu et al. | Multi-loss siamese neural network with batch normalization layer for malware detection | |
Won et al. | PlausMal-GAN: Plausible malware training based on generative adversarial networks for analogous zero-day malware detection | |
Hosseini et al. | Android malware classification using convolutional neural network and LSTM | |
JP7290596B2 (en) | Determination device, determination method and determination program | |
Sun et al. | Few-Shot network intrusion detection based on prototypical capsule network with attention mechanism | |
CN112560034A (en) | Malicious code sample synthesis method and device based on feedback type deep countermeasure network | |
Yadav et al. | Deep learning in malware identification and classification | |
JP2020017135A (en) | Clustering apparatus, method, and program | |
Singh et al. | Using recursive feature elimination and fisher score with convolutional neural network for identifying port scan attempts | |
Khoshavi et al. | Entropy-based modeling for estimating adversarial bit-flip attack impact on binarized neural network | |
Alvares et al. | BERT for Malware Classification | |
Lee et al. | Generation of network traffic using WGAN-GP and a DFT filter for resolving data imbalance | |
Mondal et al. | A hybrid particle swarm optimization and artificial bee colony algorithm for image contrast enhancement | |
Datta et al. | An automated malicious host recognition model in cloud forensics | |
Leelavathy et al. | A novel approach to classify users based on keystroke behavior | |
JP7249306B2 (en) | Evaluation device, evaluation method and evaluation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230601 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7290596 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |