JP2022019689A - 時系列データに対する普遍的敵対的攻撃から防御するための方法およびシステム - Google Patents
時系列データに対する普遍的敵対的攻撃から防御するための方法およびシステム Download PDFInfo
- Publication number
- JP2022019689A JP2022019689A JP2021118003A JP2021118003A JP2022019689A JP 2022019689 A JP2022019689 A JP 2022019689A JP 2021118003 A JP2021118003 A JP 2021118003A JP 2021118003 A JP2021118003 A JP 2021118003A JP 2022019689 A JP2022019689 A JP 2022019689A
- Authority
- JP
- Japan
- Prior art keywords
- data
- driven
- hostile
- universal
- models
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/57—Certifying or maintaining trusted computer platforms, e.g. secure boots or power-downs, version controls, system software checks, secure updates or assessing vulnerabilities
- G06F21/577—Assessing vulnerabilities and evaluating computer system security
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2221/00—Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/03—Indexing scheme relating to G06F21/50, monitoring users, programs or devices to maintain the integrity of platforms
- G06F2221/034—Test or assess a computer or a system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Debugging And Monitoring (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本出願は、2020年7月17日に出願されたインド特許出願第202021030571号の優先権を主張する。
本明細書の方法およびシステムによって対処される時系列データ分類問題の数学的定義が以下で与えられる。
Xi∈RTはデータセットXのi番目のサンプルであり、Tはサンプルのシーケンス長である
Yi∈[0,K-1]、ここで、Yiはi番目のサンプルの真のクラスである
KはXの一意のクラスの数である
εmax∈RはXに対する許容される摂動のL∞ノルムの上界である
f(.):RT→RKは任意のデータ駆動型モデルである
NはBIM(基本反復法(Basic Iterative Method))におけるステップの数である
α∈RはBIMの小さいステップサイズである
Rfooling∈Rは所望のフーリング比、すなわち、所与のデータセットからのだまされたサンプルの割合である
EpochfoolはRfoolingを達成するために実行すべきエポックの最大数である
U∈RTはデータセットXに対する普遍的敵対的摂動である
Error(.):はデータセットの誤分類エラー比を計算する。
FGSM攻撃は、入力に対して「損失の勾配」の符号の方向に摂動Xiを加えることによって敵対的サンプルを生成する単一ステップ攻撃である。代替として、非標的型攻撃のための敵対的サンプルは以下によって取得される。
BIM攻撃では、FGSMは、より小さいステップサイズを取ることによってサンプルデータに対して反復的に適用され、各反復の後、出力は、敵対的サンプルが元の入力Xiのε近傍内である一定の事前に指定された限界内にあるような値にクリップされる。
102 メモリ
104 プロセッサ
106 入力/出力(I/O)インターフェース
200 プロセッサ実施方法
401 データ前処理モジュール
402 ソフトセンサ推定モジュール
403 ドリフト検出モジュール
404 レジーム識別モジュール
405 敵対的攻撃モジュール
406 モデルパフォーマンスモジュール
407 再訓練モジュール
408 予測モジュール
Claims (15)
- 普遍的敵対的攻撃から防御するための、プロセッサによって実施される方法(200)であって、
1つまたは複数のハードウェアプロセッサを介して、複数のデータソースからのデータを入力として受信するステップ(202)と、
前記1つまたは複数のハードウェアプロセッサを介して、前記受信されたデータを前処理するステップ(204)と、
前記1つまたは複数のハードウェアプロセッサを介して、複数の第1のセットのデータ駆動型モデルからの少なくとも1つのデータ駆動型モデルの中の訓練データと比較して、前記前処理されたデータの中のドリフトを決定するステップ(206)と、
前記1つまたは複数のハードウェアプロセッサを介して、前記前処理されたデータと一致するレジームを識別するステップ(208)と、
前記1つまたは複数のハードウェアプロセッサを介して、複数の第1のセットのデータ駆動型モデルから、前記識別されたレジームと一致するデータ駆動型モデルを選択するステップ(210)と、
前記1つまたは複数のハードウェアプロセッサを介して、前記選択されたデータ駆動型モデルに対して1つまたは複数の普遍的敵対的攻撃を実行するステップ(214)であって、
複数の反復において、普遍的敵対的摂動を計算するステップであって、
前記訓練データの中の対応するデータサンプルに対して損失の勾配の方向に最適ステップを取ることによって、前記データから複数の第1のデータサンプルの各々に対する更新を計算するステップ(302)と、
前記計算された更新を前記普遍的敵対的摂動の以前の値に加えるステップ(304)と、
前記計算された更新を加えた後に、前記普遍的敵対的摂動をクリップするステップ(306)と
を含む、ステップ
を含む、ステップ(214)と、
前記1つまたは複数のハードウェアプロセッサを介して、前記1つまたは複数の普遍的敵対的攻撃を実行した後の前記選択されたデータ駆動型モデルのパフォーマンスを推定するステップ(216)と、
前記1つまたは複数の普遍的敵対的攻撃を実行した後の前記選択されたデータ駆動型モデルの前記推定されたパフォーマンスがパフォーマンスのしきい値未満である場合、前記1つまたは複数のハードウェアプロセッサを介して、前記選択されたデータ駆動型モデルを再訓練するステップ(218)であって、前記再訓練するステップが、
第2のセットのデータ駆動型モデルからの生成モデルを含む複数のデータ拡張技法および複数の敵対的攻撃技法を使用して複数の第2のデータサンプルを生成するステップであって、前記複数の第2のデータサンプルが前記第1のデータサンプルの分布と同様の分布を有する、ステップと、
前記複数の第1のデータサンプルと前記複数の第2のデータサンプルとの組合せを使用して、前記選択されたデータ駆動型モデルを更新するステップと
を含む、ステップ(218)と
を含む方法。 - 前記前処理が、外れ値の識別および除去、欠測データの補完、ならびに1つまたは複数のデータソースからの複数の変数の同期および統合を含む、請求項1に記載の方法。
- 前記前処理されたデータの中の前記ドリフトが、複数のデータ駆動型ドリフト検出モデルを使用して決定される、請求項1に記載の方法。
- 前記レジームを識別するステップが、複数のデータ駆動型レジーム識別モデルを使用して、前記データが意図されたレジームに属するかまたは大域的外れ値に属するかを決定するステップを含む、請求項1に記載の方法。
- データ駆動型モデルセットがレジームごとに生成され、前記データ駆動型モデルセットが、
第1のセットのデータ駆動型モデルであって、前記第1のセットのデータ駆動型モデルが少なくとも1つの時系列モデリングタスクを実行するように訓練される、第1のセットのデータ駆動型モデルと、
第2のセットのデータ駆動型モデルであって、前記第2のセットのデータ駆動型モデルの中の各データ駆動型モデルが、前記レジームについてのデータの分布を学習し、かつ対応する前記レジームの訓練データと一致するデータサンプルを生成する、敵対的生成ネットワークベースの生成モデルである、第2のセットのデータ駆動型モデルと
を含む、請求項1に記載の方法。 - 前記時系列モデリングタスクが、分類、回帰、および異常検出タスクのうちの1つである、請求項1に記載の方法。
- 入力として収集された前記データが、リアルタイムデータおよび非リアルタイムデータのうちの少なくとも1つである、請求項1に記載の方法。
- 普遍的敵対的攻撃から防御するためのシステム(100)であって、
1つまたは複数のハードウェアプロセッサ(104)と、
通信インターフェース(106)と、
複数の命令を含むメモリ(102)と
を備え、前記複数の命令が実行されると、前記1つまたは複数のハードウェアプロセッサに、
複数のデータソースからのデータを入力として受信すること(202)と、
前記受信されたデータを前処理すること(204)と、
複数の第1のセットのデータ駆動型モデルからの少なくとも1つのデータ駆動型モデルの中の訓練データと比較して、前記前処理されたデータの中のドリフトを決定すること(206)と、
前記前処理されたデータと一致するレジームを識別すること(208)と、
複数の第1のセットのデータ駆動型モデルから、前記識別されたレジームと一致するデータ駆動型モデルを選択すること(210)と、
前記選択されたデータ駆動型モデルに対して1つまたは複数の普遍的敵対的攻撃を実行すること(214)であって、
複数の反復において、普遍的敵対的摂動を計算することであって、
前記訓練データの中の対応するデータサンプルに対して損失の勾配の方向に最適ステップを取ることによって、前記データから複数の第1のデータサンプルの各々に対する更新を計算すること(302)と、
前記計算された更新を前記普遍的敵対的摂動の以前の値に加えること(304)と、
前記計算された更新を加えた後に、前記普遍的敵対的摂動をクリップすること(306)と
を含む、計算すること
を含む、実行すること(214)と、
前記1つまたは複数の普遍的敵対的攻撃を実行した後の前記選択されたデータ駆動型モデルのパフォーマンスを推定すること(216)と、
前記1つまたは複数の普遍的敵対的攻撃を実行した後の前記選択されたデータ駆動型モデルの前記推定されたパフォーマンスがパフォーマンスのしきい値未満である場合、前記選択されたデータ駆動型モデルを再訓練すること(218)であって、前記再訓練することが、
第2のセットのデータ駆動型モデルからの生成モデルを含む複数のデータ拡張技法および複数の敵対的攻撃技法を使用して複数の第2のデータサンプルを生成することであって、前記複数の第2のデータサンプルが前記第1のデータサンプルの分布と同様の分布を有する、生成することと、
前記複数の第1のデータサンプルと前記複数の第2のデータサンプルとの組合せを使用して、前記選択されたデータ駆動型モデルを更新することと
を含む、再訓練すること(218)と
を行わせる、システム。 - 前記前処理が、外れ値の識別および除去、欠測データの補完、ならびに1つまたは複数のデータソースからの複数の変数の同期および統合を含む、請求項8に記載のシステム。
- 前記システムが、複数のデータ駆動型ドリフト検出モデルを使用して前記前処理されたデータの中の前記ドリフトを決定する、請求項8に記載のシステム。
- 前記システムが、複数のデータ駆動型レジーム識別モデルを使用して、前記データが意図されたレジームに属するかまたは大域的外れ値に属するかを決定することによって前記レジームを識別する、請求項8に記載のシステム。
- データ駆動型モデルセットがレジームごとに生成され、前記データ駆動型モデルセットが、
第1のセットのデータ駆動型モデルであって、前記第1のセットのデータ駆動型モデルが少なくとも1つの時系列モデリングタスクを実行するように訓練される、第1のセットのデータ駆動型モデルと、
第2のセットのデータ駆動型モデルであって、前記第2のセットのデータ駆動型モデルの中の各データ駆動型モデルが、前記レジームについてのデータの分布を学習し、かつ対応する前記レジームの訓練データと一致するデータサンプルを生成する、敵対的生成ネットワークベースの生成モデルである、第2のセットのデータ駆動型モデルと
を含む、請求項8に記載のシステム。 - 前記時系列モデリングタスクが、分類、回帰、および異常検出タスクのうちの1つである、請求項8に記載のシステム。
- 前記システムが、リアルタイムデータおよび非リアルタイムデータのうちの少なくとも1つを入力として収集する、請求項8に記載のシステム。
- 普遍的敵対的攻撃から防御するための非一時的コンピュータ可読記憶媒体であって、前記非一時的コンピュータ可読記憶媒体が複数の命令を含み、前記複数の命令が実行されると、
1つまたは複数のハードウェアプロセッサを介して、複数のデータソースからのデータを入力として受信することと、
前記1つまたは複数のハードウェアプロセッサを介して、前記受信されたデータを前処理することと、
前記1つまたは複数のハードウェアプロセッサを介して、複数の第1のセットのデータ駆動型モデルからの少なくとも1つのデータ駆動型モデルの中の訓練データと比較して、前記前処理されたデータの中のドリフトを決定することと、
前記1つまたは複数のハードウェアプロセッサを介して、前記前処理されたデータと一致するレジームを識別することと、
前記1つまたは複数のハードウェアプロセッサを介して、複数の第1のセットのデータ駆動型モデルから、前記識別されたレジームと一致するデータ駆動型モデルを選択することと、
前記1つまたは複数のハードウェアプロセッサを介して、前記選択されたデータ駆動型モデルに対して1つまたは複数の普遍的敵対的攻撃を実行することであって、
複数の反復において、普遍的敵対的摂動を計算することであって、
前記訓練データの中の対応するデータサンプルに対して損失の勾配の方向に最適ステップを取ることによって、前記データから複数の第1のデータサンプルの各々に対する更新を計算することと、
前記計算された更新を前記普遍的敵対的摂動の以前の値に加えることと、
前記計算された更新を加えた後に、前記普遍的敵対的摂動をクリップすることと
を含む、計算すること
を含む、実行することと、
前記1つまたは複数のハードウェアプロセッサを介して、前記1つまたは複数の普遍的敵対的攻撃を実行した後の前記選択されたデータ駆動型モデルのパフォーマンスを推定することと、
前記1つまたは複数の普遍的敵対的攻撃を実行した後の前記選択されたデータ駆動型モデルの前記推定されたパフォーマンスがパフォーマンスのしきい値未満である場合、前記1つまたは複数のハードウェアプロセッサを介して、前記選択されたデータ駆動型モデルを再訓練することであって、前記再訓練することが、
第2のセットのデータ駆動型モデルからの生成モデルを含む複数のデータ拡張技法および複数の敵対的攻撃技法を使用して複数の第2のデータサンプルを生成することであって、前記複数の第2のデータサンプルが前記第1のデータサンプルの分布と同様の分布を有する、生成することと、
前記複数の第1のデータサンプルと前記複数の第2のデータサンプルとの組合せを使用して、前記選択されたデータ駆動型モデルを更新することと
を含む、再訓練することと
を行わせる、非一時的コンピュータ可読記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN202021030571 | 2020-07-17 | ||
IN202021030571 | 2020-07-17 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022019689A true JP2022019689A (ja) | 2022-01-27 |
JP7229308B2 JP7229308B2 (ja) | 2023-02-27 |
Family
ID=76920698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021118003A Active JP7229308B2 (ja) | 2020-07-17 | 2021-07-16 | 時系列データに対する普遍的敵対的攻撃から防御するための方法およびシステム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11836257B2 (ja) |
EP (1) | EP3944159A1 (ja) |
JP (1) | JP7229308B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI692776B (zh) * | 2018-10-29 | 2020-05-01 | 財團法人工業技術研究院 | 基於神經網路的分類裝置及分類方法 |
US11334671B2 (en) * | 2019-10-14 | 2022-05-17 | International Business Machines Corporation | Adding adversarial robustness to trained machine learning models |
US11983271B2 (en) * | 2020-11-19 | 2024-05-14 | International Business Machines Corporation | Inline detection and prevention of adversarial attacks |
CN114612689B (zh) * | 2022-05-16 | 2022-09-09 | 中国科学技术大学 | 对抗样本生成方法、模型训练方法、处理方法及电子设备 |
WO2024105036A1 (en) * | 2022-11-14 | 2024-05-23 | Robert Bosch Gmbh | A method of assessing vulnerability of an ai system and a framework thereof |
WO2024105035A1 (en) * | 2022-11-14 | 2024-05-23 | Robert Bosch Gmbh | A method of assessing vulnerability of an ai system and a framework thereof |
CN117014224B (zh) * | 2023-09-12 | 2024-01-30 | 联通(广东)产业互联网有限公司 | 基于高斯过程回归的网络攻击防御方法及系统 |
CN117669651B (zh) * | 2024-01-31 | 2024-05-14 | 山东省计算中心(国家超级计算济南中心) | 基于arma模型的对抗样本黑盒攻击防御方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019179390A (ja) * | 2018-03-30 | 2019-10-17 | 株式会社Preferred Networks | 注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル |
US20190318099A1 (en) * | 2018-04-16 | 2019-10-17 | International Business Machines Corporation | Using Gradients to Detect Backdoors in Neural Networks |
WO2019207770A1 (ja) * | 2018-04-27 | 2019-10-31 | 日本電気株式会社 | 学習済みモデル更新装置、学習済みモデル更新方法、プログラム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DK201770681A1 (en) | 2017-09-12 | 2019-04-03 | Itu Business Development A/S | A method for (re-) training a machine learning component |
US11157782B2 (en) | 2017-11-16 | 2021-10-26 | International Business Machines Corporation | Anomaly detection in multidimensional time series data |
CA3033014A1 (en) * | 2018-02-07 | 2019-08-07 | Royal Bank Of Canada | Robust pruned neural networks via adversarial training |
US10152970B1 (en) * | 2018-02-08 | 2018-12-11 | Capital One Services, Llc | Adversarial learning and generation of dialogue responses |
DE102018208763A1 (de) * | 2018-06-04 | 2019-12-05 | Robert Bosch Gmbh | Verfahren, Vorrichtung und Computerprogramm zum Betreiben eines maschinellen Lernsystems |
US11481637B2 (en) * | 2018-06-14 | 2022-10-25 | Advanced Micro Devices, Inc. | Configuring computational elements for performing a training operation for a generative adversarial network |
US11275819B2 (en) * | 2018-12-05 | 2022-03-15 | Bank Of America Corporation | Generative adversarial network training and feature extraction for biometric authentication |
DE102019204318A1 (de) * | 2019-03-28 | 2020-10-01 | Conti Temic Microelectronic Gmbh | Automatische Erkennung und Klassifizierung von Adversarial Attacks |
US20200342306A1 (en) * | 2019-04-25 | 2020-10-29 | International Business Machines Corporation | Autonomous modification of data |
DE102019210270A1 (de) * | 2019-05-23 | 2020-11-26 | Robert Bosch Gmbh | Verfahren zum Trainieren eines Generative Adversarial Networks (GAN), Generative Adversarial Network, Computerprogramm, maschinenlesbares Speichermedium und Vorrichtung |
US11681796B2 (en) * | 2019-09-10 | 2023-06-20 | International Business Machines Corporation | Learning input preprocessing to harden machine learning models |
-
2021
- 2021-07-14 EP EP21185583.8A patent/EP3944159A1/en active Pending
- 2021-07-15 US US17/377,296 patent/US11836257B2/en active Active
- 2021-07-16 JP JP2021118003A patent/JP7229308B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019179390A (ja) * | 2018-03-30 | 2019-10-17 | 株式会社Preferred Networks | 注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル |
US20190318099A1 (en) * | 2018-04-16 | 2019-10-17 | International Business Machines Corporation | Using Gradients to Detect Backdoors in Neural Networks |
WO2019207770A1 (ja) * | 2018-04-27 | 2019-10-31 | 日本電気株式会社 | 学習済みモデル更新装置、学習済みモデル更新方法、プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20220058273A1 (en) | 2022-02-24 |
EP3944159A1 (en) | 2022-01-26 |
US11836257B2 (en) | 2023-12-05 |
JP7229308B2 (ja) | 2023-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022019689A (ja) | 時系列データに対する普遍的敵対的攻撃から防御するための方法およびシステム | |
Kravchik et al. | Efficient cyber attack detection in industrial control systems using lightweight neural networks and pca | |
Li et al. | Data-driven bearing fault identification using improved hidden Markov model and self-organizing map | |
Gopali et al. | A comparison of TCN and LSTM models in detecting anomalies in time series data | |
CN107945210B (zh) | 基于深度学习和环境自适应的目标跟踪方法 | |
JP7528948B2 (ja) | データ分析方法、デバイス及びコンピュータプログラム | |
Mezina et al. | Obfuscated malware detection using dilated convolutional network | |
CN114692156B (zh) | 内存片段恶意代码入侵检测方法、系统、存储介质及设备 | |
CN115810135A (zh) | 样本分析的方法、电子设备、存储介质和程序产品 | |
JP2019105871A (ja) | 異常候補抽出プログラム、異常候補抽出方法および異常候補抽出装置 | |
CN114218998A (zh) | 一种基于隐马尔可夫模型的电力系统异常行为分析方法 | |
Sokolov et al. | Applying Methods of Machine Learning in the Task of Intrusion Detection Based on the Analysis of Industrial Process State and ICS Networking. | |
Jordaney et al. | Misleading metrics: On evaluating machine learning for malware with confidence | |
Gopali et al. | A comparative study of detecting anomalies in time series data using LSTM and TCN models | |
Collier et al. | Transfer and marginalize: Explaining away label noise with privileged information | |
US20210073579A1 (en) | Recognition of biases in data and models | |
Castellini et al. | Adversarial Data Augmentation for HMM-based Anomaly Detection | |
CN117134958B (zh) | 用于网络技术服务的信息处理方法及系统 | |
EP4127984B1 (en) | Neural network watermarking | |
Hwang et al. | Anomaly Detection in Time Series Data and its Application to Semiconductor Manufacturing | |
Farag et al. | Inductive Conformal Prediction for Harvest-Readiness Classification of Cauliflower Plants: A Comparative Study of Uncertainty Quantification Methods | |
CN116366303A (zh) | 基于深度学习的网络异常检测方法、装置、设备及介质 | |
De Bernardi et al. | Rule-based out-of-distribution detection | |
Raihan et al. | An augmented surprise-guided sequential learning framework for predicting the melt pool geometry | |
Sartoli et al. | Malware classification using recurrence plots and deep neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210823 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210915 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220920 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7229308 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |