JP7052879B2 - 学習器推定装置、学習器推定方法、リスク評価装置、リスク評価方法、プログラム - Google Patents
学習器推定装置、学習器推定方法、リスク評価装置、リスク評価方法、プログラム Download PDFInfo
- Publication number
- JP7052879B2 JP7052879B2 JP2020550274A JP2020550274A JP7052879B2 JP 7052879 B2 JP7052879 B2 JP 7052879B2 JP 2020550274 A JP2020550274 A JP 2020550274A JP 2020550274 A JP2020550274 A JP 2020550274A JP 7052879 B2 JP7052879 B2 JP 7052879B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- correct answer
- learning
- answer rate
- learner
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 85
- 238000012502 risk assessment Methods 0.000 title claims description 51
- 230000006870 function Effects 0.000 claims description 49
- 230000004913 activation Effects 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 19
- 238000012360 testing method Methods 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 14
- 230000008676 import Effects 0.000 claims description 10
- 238000012545 processing Methods 0.000 description 19
- 238000002474 experimental method Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 241001672694 Citrus reticulata Species 0.000 description 4
- 241000219095 Vitis Species 0.000 description 4
- 235000009754 Vitis X bourquina Nutrition 0.000 description 4
- 235000012333 Vitis X labruscana Nutrition 0.000 description 4
- 235000014787 Vitis vinifera Nutrition 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 241000220223 Fragaria Species 0.000 description 3
- 235000016623 Fragaria vesca Nutrition 0.000 description 3
- 235000011363 Fragaria x ananassa Nutrition 0.000 description 3
- 230000003252 repetitive effect Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 2
- 238000007477 logistic regression Methods 0.000 description 2
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000002945 steepest descent method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/57—Certifying or maintaining trusted computer platforms, e.g. secure boots or power-downs, version controls, system software checks, secure updates or assessing vulnerabilities
- G06F21/577—Assessing vulnerabilities and evaluating computer system security
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/44—Program or device authentication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/19007—Matching; Proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/10—Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
- G06F21/12—Protecting executable software
- G06F21/14—Protecting executable software against software analysis or reverse engineering, e.g. by obfuscation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2221/00—Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/03—Indexing scheme relating to G06F21/50, monitoring users, programs or devices to maintain the integrity of platforms
- G06F2221/033—Test or assess software
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Security & Cryptography (AREA)
- Computing Systems (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Electrically Operated Instructional Devices (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
攻撃者は攻撃対象の分類のための学習器(分類タスク用の学習器)fの推定を行い、fの推定学習器gfを作成する。攻撃者はfを利用して、高い正解率を持つgfを作成することを目標とする。正解率は、式(1)とする。
任意正の整数個(N個)の要素を持ち、各要素は任意の実数Rであるベクトルx∈RNを分類したい観測データとし、分類するための攻撃対象の学習器をfとする。つまり、fへの入力はxであり、これに対する出力f(x)はスカラまたはベクトルとする。スカラは分類される種類に相当し、ベクトルは各成分が分類される種類の確信度に相当するものとする。(なお、ベクトルの各成分の合計は100%にならなくてもよい。100%にならない場合は、「各成分を成分の合計値で割り、100をかける」などして、合計で100%にすればよい。)
図1に学習器推定装置の機能構成例を、図2に学習器推定装置の処理フローを示す。学習器推定装置100は、入力された観測データの種類をラベルデータとして出力する分類タスク用の学習器900を攻撃対象とし、記録部190、問い合わせ部110、取り込み部120、学習部130を備える。記録部190は、あらかじめ定めた複数の観測データを記録しておく。
図4にリスク評価方法1の処理フローを示す。図5は分割ステップのイメージを示す図、図6は攻撃対象学習器学習ステップ、攻撃対象分類予測ステップ、推定学習ステップのイメージを示す図、図7は、正解率取得ステップ、リスク判断ステップのイメージを示す図である。
1.ユーザが閾値τを決める。
2.リスク値は次のように計算される。
(1)対象正解率≦推定正解率のとき、リスク値=100(%)とする。
(2)それ以外のとき、リスク値=((対象正解率-推定正解率)/対象正解率)×100(%)とする。
3.リスク判断は次のように行われる。
(1)τ≦リスク値のとき、リスク評価結果を「リスクが高い」とする。
(2)それ以外のとき、リスク評価結果を「リスクが低い」とする。
図8にリスク評価方法2の処理フローを示す。図9は用意するデータの集合のイメージを示す図、図10は攻撃対象分類予測ステップ、推定学習ステップのイメージを示す図である。
実験では、0から9の数字の手書き文字画像のMNISTデータ(参考文献:Yann LeCun and Corinna Cortes, “MNIST handwritten digit database,” 2010.)を用い、リスク評価方法1を実行した。図12はMNISTデータの例を示している。MNISTデータセットは、28×28ピクセルの画像とその画像に対応する種類(数字)で構成されており、学習時に用いる55,000個の訓練データ(訓練用の観測データとラベルデータの組)と分類正解率の計測に用いる10,000個のテストデータ(テスト用の観測データとラベルデータの組)が含まれている。訓練データとテストデータは、それぞれ共通するデータを含まない。訓練データとテストデータにはそれぞれ、画像データ集合Xと種類集合(ラベルデータ集合)Yが含まれる。
上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。
120 取り込み部 130 学習部
190 記録部 900 学習器
Claims (8)
- 入力された観測データの種類をラベルデータとして出力する分類タスク用の学習器を攻撃対象とする学習器推定装置であって、
記録部と、問い合わせ部と、取り込み部と、学習部とを備え、
前記記録部は、あらかじめ定めた複数の観測データを記録し、
前記問い合わせ部は、前記の攻撃対象の学習器に対して、前記記録部に記録された観測データごとに問い合わせを行ってラベルデータを取得し、前記記録部に観測データと対応つけて取得したラベルデータを記録し、
前記取り込み部は、前記記録部に記録された観測データと、当該観測データに対応付けられたラベルデータとを、前記学習部に入力し、
前記学習部は、分類予測結果を求める処理では、あらかじめ定めた曖昧な値を出力する活性化関数を用いることを特徴とし、入力された観測データとラベルデータとを用いて学習する
学習器推定装置。 - 記録部と、問い合わせ部と、取り込み部と、学習部とを備えた学習器推定装置を用いて、入力された観測データの種類をラベルデータとして出力する分類タスク用の学習器を攻撃対象とする学習器推定方法であって、
問い合わせステップと、取り込みステップと、学習ステップとを有し、
前記記録部は、あらかじめ定めた複数の観測データを記録しており、
前記問い合わせステップでは、前記問い合わせ部が、前記の攻撃対象の学習器に対して、前記記録部に記録された観測データごとに問い合わせを行ってラベルデータを取得し、
前記記録部に観測データと対応つけて取得したラベルデータを記録し、
前記取り込みステップでは、前記取り込み部が、前記記録部に記録された観測データと、当該観測データに対応付けられたラベルデータとを、前記学習部に入力し、
前記学習ステップでは、前記学習部が、分類予測結果を求める処理であらかじめ定めた曖昧な値を出力する活性化関数を用いることを特徴とし、入力された観測データとラベルデータとを用いて学習する
学習器推定方法。 - 請求項2記載の学習器推定方法であって、
前記の曖昧な値を出力する活性化関数は、汎化誤差を低減する
ことを特徴とする学習器推定方法。 - 入力された観測データの種類をラベルデータとして出力する分類タスク用の学習器への攻撃のリスクを評価するリスク評価装置であって、
請求項1記載の学習器推定装置と、
あらかじめ定めた複数のテスト用の観測データとラベルデータの組を用いて、学習済の前記学習器の正解率である対象正解率と、学習済の前記学習部の正解率である推定正解率とを求める正解率取得部と、
前記対象正解率の方が前記推定正解率よりも大きいときは前記対象正解率と前記推定正解率の差が小さいほど、前記対象正解率の方が前記推定正解率よりも小さいときは前記対象正解率を前記推定正解率が上回るほど、リスクが高いと判断するリスク判断部と、
を備えるリスク評価装置。 - 学習部を備えた学習器推定装置を用いて、入力された観測データの種類をラベルデータとして出力する分類タスク用の学習器への攻撃のリスクを評価するリスク評価方法であって、
学習済の前記学習器に複数の観測データを入力し、各観測データを入力した際の分類予測である予測ラベルデータを取得し、観測データと予測ラベルデータの組の集合である推定用データ集合を得る攻撃対象分類予測ステップと、
前記学習部を、前記推定用データ集合を用いて学習し、学習済の学習部を得る推定学習ステップと、
あらかじめ定めた複数のテスト用の観測データとラベルデータの組を用いて、学習済の前記学習器の正解率である対象正解率と、学習済の前記学習部の正解率である推定正解率とを求める正解率取得ステップと、
前記対象正解率の方が前記推定正解率よりも大きいときは前記対象正解率と前記推定正解率の差が小さいほど、前記対象正解率の方が前記推定正解率よりも小さいときは前記対象正解率を前記推定正解率が上回るほど、リスクが高いと判断するリスク判断ステップと、
を有し、
前記学習部は、分類予測結果を求める処理では、あらかじめ定めた曖昧な値を出力する活性化関数を用いる
ことを特徴とするリスク評価方法。 - 請求項6記載のリスク評価方法であって、
あらかじめ定めた複数の訓練用の観測データとラベルデータの組の集合を、第1データ集合と、第2データ集合に分割する分割ステップと、
前記第1データ集合を用いて前記の攻撃対象の学習器を学習させ、学習済の学習器を得る攻撃対象学習器学習ステップ
も有し、
前記第1のデータ集合の組の方が、前記第2のデータ集合の組よりも数が多く、
前記攻撃対象分類予測ステップで前記学習器に入力される複数の観測データは、前記第2データ集合内の観測データである
ことを特徴とするリスク評価方法。 - 請求項2~4のいずれかに記載の学習器推定方法、または請求項6もしくは7に記載のリスク評価方法をコンピュータに実行させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018191461 | 2018-10-10 | ||
JP2018191461 | 2018-10-10 | ||
PCT/JP2019/036595 WO2020075462A1 (ja) | 2018-10-10 | 2019-09-18 | 学習器推定装置、学習器推定方法、リスク評価装置、リスク評価方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020075462A1 JPWO2020075462A1 (ja) | 2021-09-02 |
JP7052879B2 true JP7052879B2 (ja) | 2022-04-12 |
Family
ID=70163678
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020550274A Active JP7052879B2 (ja) | 2018-10-10 | 2019-09-18 | 学習器推定装置、学習器推定方法、リスク評価装置、リスク評価方法、プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11847230B2 (ja) |
JP (1) | JP7052879B2 (ja) |
WO (1) | WO2020075462A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7275661B2 (ja) * | 2019-03-01 | 2023-05-18 | 日本電信電話株式会社 | 文生成装置、文生成方法、文生成学習装置、文生成学習方法及びプログラム |
WO2021229696A1 (ja) * | 2020-05-12 | 2021-11-18 | 日本電気株式会社 | 攻撃再現支援装置、攻撃再現支援方法、及びコンピュータ読み取り可能な記録媒体 |
JP7535452B2 (ja) | 2020-12-28 | 2024-08-16 | 株式会社日立製作所 | リスク評価装置及びリスク評価方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210019674A1 (en) * | 2015-10-28 | 2021-01-21 | Qomplx, Inc. | Risk profiling and rating of extended relationships using ontological databases |
US11526808B2 (en) * | 2019-05-29 | 2022-12-13 | The Board Of Trustees Of The Leland Stanford Junior University | Machine learning based generation of ontology for structural and functional mapping |
-
2019
- 2019-09-18 JP JP2020550274A patent/JP7052879B2/ja active Active
- 2019-09-18 US US17/281,985 patent/US11847230B2/en active Active
- 2019-09-18 WO PCT/JP2019/036595 patent/WO2020075462A1/ja active Application Filing
Non-Patent Citations (1)
Title |
---|
SHOKRI, Reza et al.,Membership Inference Attacks Against Machine Learning Models,Proceedings of 2017 IEEE Symposium on Security and Privacy,IEEE[online],2017年05月26日,pp.3-18,[2019年11月18日検索], インターネット<URL : https://ieeexplore.ieee.org/document/7958568> |
Also Published As
Publication number | Publication date |
---|---|
US20210342451A1 (en) | 2021-11-04 |
US11847230B2 (en) | 2023-12-19 |
WO2020075462A1 (ja) | 2020-04-16 |
JPWO2020075462A1 (ja) | 2021-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI706273B (zh) | 統一資源定位符(url)攻擊檢測方法、裝置及電子設備 | |
JP7052879B2 (ja) | 学習器推定装置、学習器推定方法、リスク評価装置、リスク評価方法、プログラム | |
CN110334742B (zh) | 一种用于文档分类的基于强化学习的通过添加虚假节点的图对抗样本生成方法 | |
CN116647411B (zh) | 游戏平台网络安全的监测预警方法 | |
CN113536383B (zh) | 基于隐私保护训练图神经网络的方法及装置 | |
Gao et al. | Android malware detection via graphlet sampling | |
CN111797326A (zh) | 一种融合多尺度视觉信息的虚假新闻检测方法及系统 | |
Drichel et al. | Analyzing the real-world applicability of DGA classifiers | |
JP7172612B2 (ja) | データ拡張プログラム、データ拡張方法およびデータ拡張装置 | |
CN112528275A (zh) | 基于元路径学习与子图采样的apt网络攻击检测方法 | |
Jiang et al. | Estimating causal effects on networked observational data via representation learning | |
Yang et al. | Intrusion detection: A model based on the improved vision transformer | |
Xiao et al. | Latent imitator: Generating natural individual discriminatory instances for black-box fairness testing | |
CN117134958B (zh) | 用于网络技术服务的信息处理方法及系统 | |
CN113591892A (zh) | 一种训练数据的处理方法及装置 | |
CN116432039B (zh) | 协同训练方法及装置、业务预测方法及装置 | |
Kundu et al. | Evaluating Efficacy of Model Stealing Attacks and Defenses on Quantum Neural Networks | |
CN103823827B (zh) | 用于抓取富互联网应用的方法和装置 | |
CN114510592B (zh) | 图像分类方法、装置、电子设备及存储介质 | |
JP2023154373A (ja) | 情報処理装置 | |
CN114580530A (zh) | 一种基于生成对抗网络的快速模型遗忘方法与系统 | |
CN113919488A (zh) | 对抗样本的生成方法、装置和服务器 | |
JP2022178534A (ja) | 検知装置、学習装置、検知方法及び検知プログラム | |
CN111860655A (zh) | 用户的处理方法、装置和设备 | |
Wang et al. | FCert: Certifiably Robust Few-Shot Classification in the Era of Foundation Models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210324 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210324 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220314 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7052879 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |