JP6932270B2 - 敵対的学習に基づく工業制御システムの悪意あるサンプルの生成方法 - Google Patents
敵対的学習に基づく工業制御システムの悪意あるサンプルの生成方法 Download PDFInfo
- Publication number
- JP6932270B2 JP6932270B2 JP2020540726A JP2020540726A JP6932270B2 JP 6932270 B2 JP6932270 B2 JP 6932270B2 JP 2020540726 A JP2020540726 A JP 2020540726A JP 2020540726 A JP2020540726 A JP 2020540726A JP 6932270 B2 JP6932270 B2 JP 6932270B2
- Authority
- JP
- Japan
- Prior art keywords
- hostile
- sample
- industrial control
- control system
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004891 communication Methods 0.000 claims description 37
- 238000001514 detection method Methods 0.000 claims description 36
- 238000000034 method Methods 0.000 claims description 34
- 238000010801 machine learning Methods 0.000 claims description 23
- 238000005457 optimization Methods 0.000 claims description 22
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 230000000694 effects Effects 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 8
- 230000002159 abnormal effect Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000011160 research Methods 0.000 description 6
- 230000002547 anomalous effect Effects 0.000 description 4
- 238000002347 injection Methods 0.000 description 2
- 239000007924 injection Substances 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000009545 invasion Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000011076 safety test Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/57—Certifying or maintaining trusted computer platforms, e.g. secure boots or power-downs, version controls, system software checks, secure updates or assessing vulnerabilities
- G06F21/577—Assessing vulnerabilities and evaluating computer system security
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
- G05B19/4185—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the network communication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/55—Detecting local intrusion or implementing counter-measures
- G06F21/56—Computer malware detection or handling, e.g. anti-virus arrangements
- G06F21/566—Dynamic detection, i.e. detection performed at run-time, e.g. emulation, suspicious activities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/31—From computer integrated manufacturing till monitoring
- G05B2219/31244—Safety, reconnect network automatically if broken
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2221/00—Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/03—Indexing scheme relating to G06F21/50, monitoring users, programs or devices to maintain the integrity of platforms
- G06F2221/034—Test or assess a computer or a system
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Artificial Intelligence (AREA)
- Computer Hardware Design (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Automation & Control Theory (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Virology (AREA)
- Quality & Reliability (AREA)
- Manufacturing & Machinery (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Computer And Data Communications (AREA)
Description
本発明は、工業制御システムのセキュリティの分野に属し、敵対的学習に基づく工業制御システムの悪意あるサンプルの生成方法に関する。
頻繁に発生する工業制御システムセキュリティインシデントは、世界中の国々から大きな注目を集めている。工業制御のセキュリティ問題に積極的に対応するために、規範や規格の策定、侵入検出の導入など、さまざまな対応策が打ち出されている。工業制御システムにおいて、ネットワークベースの侵入検出器が非常に典型的であり、よく見かけるものである。アプリケーションネットワーク(IT)と制御ネットワーク(OT)の間にネットワーク異常検出デバイスを配置することにより、工業制御システムの安全性を大幅に向上させることができる。現在、機械学習に基づく異常検出アルゴリズムは、ネットワークの異常なトラフィックの識別においてより優れたパフォーマンスを実現できる。これらの機械学習技術は、大量の工業制御システムの履歴データから固有の動作パターンを見つけて、異常検出システムを構築できる。
一方で、従来の機械学習アルゴリズムに基づく工業制御システム侵入検出器では、脆弱な箇所が存在する。機械学習モデルは、実際の応用時には、攻撃者が意図的に生成した敵対的サンプルによって扱われやすい。攻撃者は、試験例に対して微小な変更を加えることで、アルゴリズムモデルに正常な出力と全く異なる結果を生成させることができる。モデルに誤った予測結果を生成させるサンプルは、敵対的サンプルと呼ばれる。機械学習に対して敵対的な攻撃を能動的に設計して生成する研究は、敵対的機械学習研究と呼ばれる。このような敵対的攻撃は、機械学習を使用するシステム、特に工業制御などのセキュリティに対する要求が高いシステムに潜在的なセキュリティ脅威をもたらす。
機械学習アルゴリズムに基づく工業制御システム入侵検出システムでは、攻撃者の意図的な敵対的攻撃を受けると、本来識別可能な悪意あるトラフィックを正常に識別できなくなる。これは、工業制御システムに大きなセキュリティリスクをもたらす。現在、既存の工業制御セキュリティ侵入検出の研究では、敵対的学習部分に関する研究が乏しく、攻撃者を真似して工業制御機械学習検出アルゴリズムに対する敵対的サンプルを能動的に生成することは、非常に有意義である。したがって、工業制御システムの安全を保障し、事故の発生を防止するために、工業制御侵入検出システムに対して敵対的機械学習研究を行い、検出器を迂回して隠蔽的な攻撃を完了できる敵対的サンプルを自発的に生成する必要がある。
本発明の目的は、現在の工業制御システムの安全性の欠如及び不足に対して、敵対的学習に基づく工業制御システムの悪意あるサンプルの生成方法を提供することにある。
本発明の目的は、以下の技術案により実現される。敵対的学習に基づく工業制御システムの悪意あるサンプルの生成方法であって、以下のステップを含む。
(1)敵対的サンプルジェネレータは、工業制御システム通信データをスニッフィングし、工業制御侵入検出システムに用いられるトレーニングデータと同じ分布の通信データを取得し、通信データに種別ラベルをマーキングし、種別は、異常と正常を含み、ここで、異常通信データは、元の攻撃サンプルとする。工業制御侵入検出システムは、既存の機械学習方法に基づく工業制御侵入検出システムである。
(2)工業制御システム通信データに対してプロトコル解析作業を行い、その中の、通信データの送信元IPアドレス(SIP)、送信元ポート番号(SP)、宛先IPアドレス(DIP)、宛先ポート番号(DP)、パケット間隔時間(Time delta)、パケット送信時間(Time)、パケット機能コード(Function code)などを含む有効な特徴を識別及び抽出する。
(3)ステップ(2)で抽出された有効な特徴から機械学習分類器を構築し、ラベル付きの工業制御システム通信データを用いて機械学習分類器をトレーニングし、トレーニングされた、正常又は異常通信データを識別するための分類器を得る。
(4)ステップ(3)で構築された分類器を用いて、工業制御侵入検出システムの敵対的学習問題を以下の最適化問題に変換し、最適化問題を解くことで最終的な敵対的サンプルが得られる。
ここで、
は、敵対的サンプル
が異常サンプルであると判定される可能性であり、分類器により計算して得られるものであり、
は、敵対的サンプルと元の攻撃サンプルとの距離であり、
は、工業制御システムが許容する最大ユークリッド距離を示し、即ち、当該距離を超えると、敵対的サンプルが悪意効果を有しないものとする。
(5)ステップ(4)で生成された敵対的サンプルを実際の工業制御システムにおいてテストし、工業制御侵入検出システムを迂回して攻撃効果を維持すれば有効な敵対的サンプルとみなし、そうでなければ、当該敵対的サンプルを破棄する。
本発明の目的は、以下の技術案により実現される。敵対的学習に基づく工業制御システムの悪意あるサンプルの生成方法であって、以下のステップを含む。
(1)敵対的サンプルジェネレータは、工業制御システム通信データをスニッフィングし、工業制御侵入検出システムに用いられるトレーニングデータと同じ分布の通信データを取得し、通信データに種別ラベルをマーキングし、種別は、異常と正常を含み、ここで、異常通信データは、元の攻撃サンプルとする。工業制御侵入検出システムは、既存の機械学習方法に基づく工業制御侵入検出システムである。
(2)工業制御システム通信データに対してプロトコル解析作業を行い、その中の、通信データの送信元IPアドレス(SIP)、送信元ポート番号(SP)、宛先IPアドレス(DIP)、宛先ポート番号(DP)、パケット間隔時間(Time delta)、パケット送信時間(Time)、パケット機能コード(Function code)などを含む有効な特徴を識別及び抽出する。
(3)ステップ(2)で抽出された有効な特徴から機械学習分類器を構築し、ラベル付きの工業制御システム通信データを用いて機械学習分類器をトレーニングし、トレーニングされた、正常又は異常通信データを識別するための分類器を得る。
(4)ステップ(3)で構築された分類器を用いて、工業制御侵入検出システムの敵対的学習問題を以下の最適化問題に変換し、最適化問題を解くことで最終的な敵対的サンプルが得られる。
は、敵対的サンプル
が異常サンプルであると判定される可能性であり、分類器により計算して得られるものであり、
は、敵対的サンプルと元の攻撃サンプルとの距離であり、
は、工業制御システムが許容する最大ユークリッド距離を示し、即ち、当該距離を超えると、敵対的サンプルが悪意効果を有しないものとする。
(5)ステップ(4)で生成された敵対的サンプルを実際の工業制御システムにおいてテストし、工業制御侵入検出システムを迂回して攻撃効果を維持すれば有効な敵対的サンプルとみなし、そうでなければ、当該敵対的サンプルを破棄する。
さらに、前記ステップ(1)では、敵対的サンプルジェネレータは、ブラックボックス攻撃者である必要があり、工業制御侵入検出システム(検出側)と全く同じデータを直接に取得することができない。
さらに、前記ステップ(2)では、異なる工業制御システム通信プロトコルについて、異なる有効な特徴を抽出可能であり、一般的に使用される工業制御システム通信プロトコルは、Modbus、PROFIBUS、DNP3、BACnet、Siemens S7などを含み、ここで各通信プロトコルは、対応するフォーマット及び応用シナリオを有し、具体的なシナリオに応じて、異なる通信プロトコルを解析して有効な特徴集合を得ることができる。
さらに、前記ステップ(3)では、敵対的サンプルジェネレータのトレーニングに用いられる分類器は、工業制御侵入検出システム、即ち検出側と異なる分類器であることが可能であり、敵対的サンプルジェネレータが生成する分類器は、敵対的学習のローカル代替モデルと呼ぶことが可能であり、その原理は、敵対的学習攻撃の遷移可能性である。
さらに、前記ステップ(4)では、具体的な最適化問題の解き方は、勾配降下法、ニュートン法、COBYLA (for Constrained Optimization BY Linear Approximations)方法などを含む。
さらに、前記ステップ(4)では、距離の表現方法は、1-ノルム距離、2-ノルム距離、及び無限ノルム距離を含む。
さらに、前記ステップ(4)では、機械学習分類器は、ニューラルネットワークを採用し、その確率計算方法は以下の通りである:
ここで、
は、予測確率であり、
は、サンプル
の
個目の特徴であり、
は、サンプル
に対応するラベル
であり、
は、ニューラルネットワークパラメータであり、
は、ラベル
に対応するニューラルネットワークパラメータであり、
はラベルの総数であり、
工業制御侵入検出システムの敵対的学習問題を以下の最適化問題に変換する。
は、予測確率であり、
は、サンプル
の
個目の特徴であり、
は、サンプル
に対応するラベル
であり、
は、ニューラルネットワークパラメータであり、
は、ラベル
に対応するニューラルネットワークパラメータであり、
はラベルの総数であり、
工業制御侵入検出システムの敵対的学習問題を以下の最適化問題に変換する。
さらに、前記ステップ(4)では、特定の制御シナリオについて、変数に対する特別な制約を最適化問題に追加する必要があり、例えば、あるシナリオのパケット機能コードが特定されたものであると、敵対的サンプルは、その次元で変更できない。すなわち、当該方法が応用される際に、生成された敵対的サンプルが悪意ある攻撃効果を効果的に完了することを保証するために、ジェネレータは、特定のシナリオに応じて特定の次元の変数に対して最適化問題を設計するときに異なる制約条件を追加する必要がある。
本発明の有益な効果は、以下の通りである。
敵対的学習に基づく工業制御システムの悪意あるサンプルの生成方法によれば、工業制御システムの安全性を向上させることができる。従来の敵対的学習研究の分野を機械視覚、音声等から工業制御の分野に拡張することによって、機械学習に基づく工業制御侵入検出システム安全性能を向上させ、悪意あるサンプルによる攻撃を防止することが可能となる。
敵対的学習に基づく工業制御システムの悪意あるサンプルの生成方法によれば、工業制御システムの安全性を向上させることができる。従来の敵対的学習研究の分野を機械視覚、音声等から工業制御の分野に拡張することによって、機械学習に基づく工業制御侵入検出システム安全性能を向上させ、悪意あるサンプルによる攻撃を防止することが可能となる。
本発明は、図面および特定の実施形態を参照して、以下でさらに詳細に説明する。
本発明に提供される敵対的学習に基づく工業制御システムの悪意あるサンプルの生成方法は、図1に示されるように、以下のステップを含む。
(1)敵対的サンプルジェネレータは、工業制御システム通信データをスニッフィングし、工業制御侵入検出システムに用いられるトレーニングデータと同じ分布の通信データを取得し、通信データに種別ラベルをマーキングし、種別は、異常と正常とを含み、ここで、異常通信データは、元の攻撃サンプルとする。工業制御侵入検出システムは、既存の機械学習方法に基づく工業制御侵入検出システムである。
ここで、敵対的サンプルジェネレータは、ブラックボックス攻撃者である必要があり、工業制御侵入検出システム(検出側)と全く同じデータを直接に取得することができない。
(2)工業制御システム通信データに対してプロトコル解析作業を行い、その中の、通信データの送信元IPアドレス(SIP)、送信元ポート番号(SP)、宛先IPアドレス(DIP)、宛先ポート番号(DP)、パケット間隔時間(Time delta)、パケット送信時間(Time)、パケット機能コード(Function code)などを含む有効な特徴を識別及び抽出する。
異なる工業制御システム通信プロトコルについて、異なる有効な特徴を抽出可能である。一般的に使用される工業制御システム通信プロトコルは、Modbus、PROFIBUS、DNP3、BACnet、Siemens S7などを含む。ここで各通信プロトコルは、対応するフォーマット及び応用シナリオを有し、具体的なシナリオに応じて、異なる通信プロトコルを解析して有効な特徴集合を得ることができる。
(3)ステップ(2)で抽出された有効な特徴から機械学習分類器を構築し、ラベル付きの工業制御システム通信データを用いて機械学習分類器をトレーニングし、トレーニングされた、正常又は異常通信データを識別するための分類器が得られる。
敵対的サンプルジェネレータのトレーニングに用いられる分類器は、工業制御侵入検出システム、即ち検出側と異なる分類器であることが可能であり、敵対的サンプルジェネレータが生成する分類器は、敵対的学習のローカル代替モデルと呼ぶことが可能であり、その原理は、敵対的学習攻撃の遷移可能性である。
(4)ステップ(3)で構築された分類器を用いて、工業制御侵入検出システムの敵対的学習問題を以下の最適化問題に変換し、最適化問題を解くことで最終的な敵対的サンプルが得られる。
ここで、
は、敵対的サンプル
が異常サンプルであると判定される可能性であり、分類器により計算して得られるものであり、
は、敵対的サンプルと元の攻撃サンプルとの距離であり、
は、工業制御システムが許容する最大ユークリッド距離を示し、即ち、当該距離を超えると、敵対的サンプルが悪意効果を有しないとする。
は、敵対的サンプル
が異常サンプルであると判定される可能性であり、分類器により計算して得られるものであり、
は、敵対的サンプルと元の攻撃サンプルとの距離であり、
は、工業制御システムが許容する最大ユークリッド距離を示し、即ち、当該距離を超えると、敵対的サンプルが悪意効果を有しないとする。
具体的な最適化問題の解き方は、勾配降下法、ニュートン法、COBYLA (for Constrained Optimization BY Linear Approximations)方法などを含むことができる。距離の表現方法は、1-ノルム距離、2-ノルム距離、及び無限ノルム距離を採用することができる。
特定の制御シナリオについて、変数に対する特別な制約を最適化問題に追加する必要があり、例えば、あるシナリオのパケット機能コードが特定されたものであると、敵対的サンプルは、その次元で変更できない。すなわち、当該方法が応用される際に、生成された敵対的サンプルが悪意ある攻撃効果を効果的に完了することを保証するために、ジェネレータは、特定のシナリオに応じて特定の次元の変数に対して最適化問題を設計するときに異なる制約条件を追加する必要がある。
機械学習分類器は、ニューラルネットワークを採用し、その確率計算方法は以下の通りである。
ここで、
は、予測確率であり、
は、サンプル
の
個目の特徴であり、
は、サンプル
の対応するラベル
であり、
は、ニューラルネットワークパラメータであり、
は、ラベル
の対応するニューラルネットワークパラメータであり、
はラベルの総数である。
このとき、工業制御侵入検出システムの敵対的学習問題を以下の最適化問題に変換する。
は、予測確率であり、
は、サンプル
の
個目の特徴であり、
は、サンプル
の対応するラベル
であり、
は、ニューラルネットワークパラメータであり、
は、ラベル
の対応するニューラルネットワークパラメータであり、
はラベルの総数である。
このとき、工業制御侵入検出システムの敵対的学習問題を以下の最適化問題に変換する。
(5)ステップ(4)で生成された敵対的サンプルを実際の工業制御システムにおいてテストし、工業制御侵入検出システムを迂回して攻撃効果を維持すれば有効な敵対的サンプルとみなし、そうでなければ、当該敵対的サンプルを破棄する。
以下、1つの具体的な応用シナリオを例にして、工業制御侵入検出システム敵対的サンプルを生成する過程は、以下の通りである。
1.スニッフィングして、既存の機械学習アルゴリズムに基づく工業制御システム侵入検出器に用いられる通信データを得る。
初期攻撃サンプルは、注入攻撃と、機能コード攻撃と、盗聴攻撃とを含む。
初期攻撃サンプルは、注入攻撃と、機能コード攻撃と、盗聴攻撃とを含む。
2.例えばシーメンスS7commプロトコルなどのプロトコル解析を行い、送信元IP、宛先IP、ポート番号、機能コード、サブ機能コード、パケット間隔時間などの特徴を得る。
3.多層パーセプトロンを使用して基本的なニューラルネットワークアルゴリズムを生成するなど、替代分類器をローカルで生成する。
4.当該ニューラルネットワークに基づいて最適化問題を解くように設計して、例えば、機能コードの固定選択値などの具体的な応用シナリオの使用制約を追加し、その他のネットワーク特徴が離散正整数値などである。
COBYLA方法を用いて計算して敵対的サンプルが得られ、工業制御システムの安全テストプラットフォームにおいてその敵対的効果をテストし、3種の攻撃サンプルの攻撃成功率は、図2に示されるとおりである。図2からわかるように、本発明に係る方法は、盗聴攻撃に対する攻撃成功率は100%に達し、機能コード攻撃に対する攻撃成功率は80%に達し、注入攻撃では、実際の攻撃が複雑であるため、元の攻撃サンプルと敵対的サンプルへの変換が完了し難しいが、その攻撃成功率は依然として20%に達することができる。
上述した実施例は、本発明を説明するためのものであり、本発明を限定するものではなく、本発明の趣旨および特許請求の範囲内において、本発明に加えられるあらゆる改変や変更は、本発明の保護範囲に含まれる。
Claims (8)
- 敵対的学習に基づく工業制御システムの悪意あるサンプルの生成方法であって、
ステップ(1)であって、敵対的サンプルジェネレータは、工業制御システムの通信データをスニッフィングし、工業制御侵入検出システムに用いられるトレーニングデータと同じ分布の通信データを取得し、通信データに種別ラベルをマーキングし、そのうちの異常通信データを元の攻撃サンプルとするステップと、
ステップ(2)であって、工業制御システム通信データに対してプロトコル解析作業を行い、その中の、通信データの送信元IPアドレス(SIP)、送信元ポート番号(SP)、宛先IPアドレス(DIP)、宛先ポート番号(DP)、パケット間隔時間(Time delta)、パケット送信時間(Time)、パケット機能コード(Function code)を含む有効な特徴を識別して抽出するステップと、
ステップ(3)であって、ステップ(2)で抽出された有効な特徴に基づいて機械学習分類器を構築し、ラベル付きの工業制御システム通信データを用いて機械学習分類器をトレーニングし、トレーニングされた、正常又は異常通信データを識別するための分類器を得るステップと、
ステップ(4)であって、ステップ(3)で構築された分類器を用いて、工業制御侵入検出システムの敵対的学習問題を以下の最適化問題に変換し、最適化問題を解いて最終的な敵対的サンプルが得られ、
は、敵対的サンプル
が異常サンプルであると判定される可能性であり、分類器により計算されて得られるものであり、
は、敵対的サンプルと元の攻撃サンプルとの距離であり、
は、工業制御システムが許容する最大ユークリッド距離を示し、即ち、当該距離を超えると、敵対的サンプルが悪意効果を有しないものとするステップと、
ステップ(5)であって、ステップ(4)で生成された敵対的サンプルを実際の工業制御システムにおいてテストし、工業制御侵入検出システムを迂回して攻撃効果を維持すれば有効な敵対的サンプルとみなし、そうでなければ、当該敵対的サンプルを破棄するステップと、を含む、
ことを特徴とする敵対的学習に基づく工業制御システムの悪意あるサンプルの生成方法。 - 前記ステップ(1)では、敵対的サンプルジェネレータは、ブラックボックス攻撃者である必要があり、工業制御侵入検出システム(検出側)と全く同じデータを直接に取得することができない、
ことを特徴とする請求項1に記載の敵対的学習に基づく工業制御システムの悪意あるサンプルの生成方法。 - 前記ステップ(2)では、異なる工業制御システム通信プロトコルについて、異なる有効な特徴を抽出可能であり、一般的に使用される工業制御システム通信プロトコルは、Modbus、PROFIBUS、DNP3、BACnet、Siemens S7などを含み、
ここで、各通信プロトコルは、対応するフォーマット及び応用シナリオを有し、具体的なシナリオに従って、異なる通信プロトコルを解析し、有効な特徴集合を得ることができる
ことを特徴とする請求項1に記載の敵対的学習に基づく工業制御システムの悪意あるサンプルの生成方法。 - 前記ステップ(3)では、敵対的サンプルジェネレータのトレーニングに用いられる分類器は、工業制御侵入検出システムとは異なる分類器であることが可能であり、敵対的サンプルジェネレータによって生成される分類器は、敵対的学習のローカル代替モデルと呼ぶことが可能であり、その原理は、敵対的学習攻撃の遷移可能性である、
ことを特徴とする請求項1に記載の敵対的学習に基づく工業制御システムの悪意あるサンプルの生成方法。 - 前記ステップ(4)では、具体的な最適化問題の解き方は、勾配降下法、ニュートン法、COBYLA (for Constrained Optimization BY Linear Approximations)方法などを含む、
ことを特徴とする請求項1に記載の敵対的学習に基づく工業制御システムの悪意あるサンプルの生成方法。 - 前記ステップ(4)では、距離の表現方法は、1-ノルム距離と、2-ノルム距離と、無限ノルム距離とを含む、
ことを特徴とする請求項1に記載の敵対的学習に基づく工業制御システムの悪意あるサンプルの生成方法。 - 前記ステップ(4)では、特定の制御シナリオについて、変数に対する特別な制約を最適化問題に追加する必要があり、即ち、当該方法が応用される際に、生成された敵対的サンプルが悪意ある攻撃効果を効果的に完了することを保証するために、ジェネレータは、特定のシナリオに応じて特定の次元の変数に対して最適化問題を設計するときに異なる制約条件を追加する必要がある、
ことを特徴とする請求項1に記載の敵対的学習に基づく工業制御システムの悪意あるサンプルの生成方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910011642.4A CN109902709B (zh) | 2019-01-07 | 2019-01-07 | 一种基于对抗学习的工业控制系统恶意样本生成方法 |
CN201910011642.4 | 2019-01-07 | ||
PCT/CN2019/101247 WO2020143227A1 (zh) | 2019-01-07 | 2019-08-18 | 一种基于对抗学习的工业控制系统恶意样本生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021513143A JP2021513143A (ja) | 2021-05-20 |
JP6932270B2 true JP6932270B2 (ja) | 2021-09-08 |
Family
ID=66943599
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020540726A Active JP6932270B2 (ja) | 2019-01-07 | 2019-08-18 | 敵対的学習に基づく工業制御システムの悪意あるサンプルの生成方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210319113A1 (ja) |
JP (1) | JP6932270B2 (ja) |
CN (1) | CN109902709B (ja) |
WO (1) | WO2020143227A1 (ja) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109902709B (zh) * | 2019-01-07 | 2020-12-08 | 浙江大学 | 一种基于对抗学习的工业控制系统恶意样本生成方法 |
CN110633570B (zh) * | 2019-07-24 | 2021-05-11 | 浙江工业大学 | 面向恶意软件汇编格式检测模型的黑盒攻击的防御方法 |
CN112311733A (zh) * | 2019-07-30 | 2021-02-02 | 四川大学 | 一种基于强化学习优化xss检测模型防御对抗攻击的方法 |
CN110619216B (zh) * | 2019-09-17 | 2021-09-03 | 武汉思普崚技术有限公司 | 一种对抗性网络的恶意软件检测方法及系统 |
CN111104982B (zh) * | 2019-12-20 | 2021-09-24 | 电子科技大学 | 一种标签无关的跨任务对抗样本生成方法 |
US11811791B2 (en) * | 2020-01-09 | 2023-11-07 | Vmware, Inc. | Generative adversarial network based predictive model for collaborative intrusion detection systems |
CN111242322B (zh) * | 2020-04-24 | 2020-08-14 | 支付宝(杭州)信息技术有限公司 | 后门样本的检测方法、装置和电子设备 |
US20220038474A1 (en) * | 2020-07-31 | 2022-02-03 | Dev Ayan Nag | Method and system that enhances computer-system security by identifying and blocking harmful communications through component interfaces |
CN112115467A (zh) * | 2020-09-04 | 2020-12-22 | 长沙理工大学 | 一种基于集成学习的半监督分类的入侵检测方法 |
CN112162515B (zh) * | 2020-10-10 | 2021-08-03 | 浙江大学 | 一种针对过程监控系统的对抗攻击方法 |
CN112333402B (zh) * | 2020-10-20 | 2021-10-22 | 浙江大学 | 一种基于声波的图像对抗样本生成方法及系统 |
CN112381152B (zh) * | 2020-11-17 | 2023-12-05 | 上海科技大学 | 一种基于攻击成本的对抗样本检测方法 |
US11818147B2 (en) * | 2020-11-23 | 2023-11-14 | Fair Isaac Corporation | Overly optimistic data patterns and learned adversarial latent features |
CN112465019B (zh) * | 2020-11-26 | 2022-12-27 | 重庆邮电大学 | 一种基于扰动的对抗样本生成与对抗性防御方法 |
CN113221100B (zh) * | 2021-02-09 | 2022-08-05 | 上海大学 | 一种面向工业互联网边界防护的对抗式入侵检测方法 |
CN115225295A (zh) * | 2021-04-16 | 2022-10-21 | 华为技术有限公司 | 攻击样本管理的方法以及设备 |
CN112819109B (zh) * | 2021-04-19 | 2021-06-18 | 中国工程物理研究院计算机应用研究所 | 针对黑盒对抗样本攻击的视频分类系统安全性增强方法 |
WO2023286269A1 (ja) * | 2021-07-16 | 2023-01-19 | 日本電気株式会社 | 学習用データ生成装置、学習用データの生成方法、プログラム、検知モデルの生成方法および認証システム |
CN113938309A (zh) * | 2021-10-28 | 2022-01-14 | 西安热工研究院有限公司 | 一种基于DCGAN网络的DoS攻击流量生成系统及方法 |
CN114444075B (zh) * | 2022-02-09 | 2023-05-19 | 深圳市前海新型互联网交换中心有限公司 | 一种生成躲避流量数据的方法 |
CN115277065B (zh) * | 2022-06-15 | 2024-01-23 | 北京信息科技大学 | 一种物联网异常流量检测中的对抗攻击方法及装置 |
CN115909020B (zh) * | 2022-09-30 | 2024-01-09 | 北京瑞莱智慧科技有限公司 | 模型鲁棒性检测方法、相关装置及存储介质 |
CN115333874B (zh) * | 2022-10-18 | 2023-04-28 | 北京珞安科技有限责任公司 | 一种工业终端主机监测方法 |
CN116527373B (zh) * | 2023-05-18 | 2023-10-20 | 清华大学 | 针对恶意url检测系统的后门攻击方法和装置 |
CN116304959B (zh) * | 2023-05-24 | 2023-08-15 | 山东省计算中心(国家超级计算济南中心) | 一种用于工业控制系统的对抗样本攻击防御方法及系统 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080027886A1 (en) * | 2004-07-16 | 2008-01-31 | Adam Kowalczyk | Data Mining Unlearnable Data Sets |
US10043261B2 (en) * | 2016-01-11 | 2018-08-07 | Kla-Tencor Corp. | Generating simulated output for a specimen |
JP6548837B2 (ja) * | 2016-12-01 | 2019-07-24 | 三菱電機株式会社 | 評価装置、セキュリティ製品の評価方法および評価プログラム |
CN108509966A (zh) * | 2017-02-27 | 2018-09-07 | 顾泽苍 | 一种超深度对抗学习的方法 |
KR102403494B1 (ko) * | 2017-04-27 | 2022-05-27 | 에스케이텔레콤 주식회사 | 생성적 대립 네트워크에 기반한 도메인 간 관계를 학습하는 방법 |
CN107819790A (zh) * | 2017-12-08 | 2018-03-20 | 中盈优创资讯科技有限公司 | 攻击报文的识别方法及装置 |
CN108171266A (zh) * | 2017-12-25 | 2018-06-15 | 中国矿业大学 | 一种多目标深度卷积生成式对抗网络模型的学习方法 |
CN108322349B (zh) * | 2018-02-11 | 2021-04-06 | 浙江工业大学 | 基于对抗式生成网络的深度学习对抗性攻击防御方法 |
CN108537271B (zh) * | 2018-04-04 | 2021-02-05 | 重庆大学 | 一种基于卷积去噪自编码机防御对抗样本攻击的方法 |
CN109902709B (zh) * | 2019-01-07 | 2020-12-08 | 浙江大学 | 一种基于对抗学习的工业控制系统恶意样本生成方法 |
-
2019
- 2019-01-07 CN CN201910011642.4A patent/CN109902709B/zh active Active
- 2019-08-18 WO PCT/CN2019/101247 patent/WO2020143227A1/zh active Application Filing
- 2019-08-18 US US16/982,056 patent/US20210319113A1/en active Pending
- 2019-08-18 JP JP2020540726A patent/JP6932270B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
CN109902709A (zh) | 2019-06-18 |
US20210319113A1 (en) | 2021-10-14 |
WO2020143227A1 (zh) | 2020-07-16 |
JP2021513143A (ja) | 2021-05-20 |
CN109902709B (zh) | 2020-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6932270B2 (ja) | 敵対的学習に基づく工業制御システムの悪意あるサンプルの生成方法 | |
CN109600363B (zh) | 一种物联网终端网络画像及异常网络访问行为检测方法 | |
CN111181901B (zh) | 异常流量检测装置及其异常流量检测方法 | |
Lee et al. | Detection of DDoS attacks using optimized traffic matrix | |
CN106911669B (zh) | 一种基于深度学习的ddos检测方法 | |
CN109861988A (zh) | 一种基于集成学习的工业控制系统入侵检测方法 | |
CN113162893B (zh) | 基于注意力机制的工业控制系统网络流量异常检测方法 | |
CN110719250B (zh) | 基于PSO-SVDD的Powerlink工控协议异常检测方法 | |
CN112804253A (zh) | 一种网络流量分类检测方法、系统及存储介质 | |
Mohammed et al. | Detection and mitigation of field flooding attacks on oil and gas critical infrastructure communication | |
CN111224973A (zh) | 一种基于工业云的网络攻击快速检测系统 | |
CN111669354A (zh) | 基于机器学习的威胁情报工业防火墙 | |
Mubarak et al. | Industrial datasets with ICS testbed and attack detection using machine learning techniques | |
Wei et al. | Domain adversarial neural network-based intrusion detection system for in-vehicle network variant attacks | |
Valentin et al. | Network firewall using artificial neural networks | |
Behdadnia et al. | Leveraging deep learning to increase the success rate of DOS attacks in PMU-based automatic generation control systems | |
CN113902052A (zh) | 一种基于ae-svm模型的分布式拒绝服务攻击网络异常检测方法 | |
KR102014044B1 (ko) | L2 패킷 차단이 가능한 침입 방지 시스템 및 방법 | |
Asif et al. | Intrusion detection system using honey token based encrypted pointers to mitigate cyber threats for critical infrastructure networks | |
Nie et al. | M2VT-IDS: A multi-task multi-view learning architecture for designing IoT intrusion detection system | |
Yu et al. | Mining anomaly communication patterns for industrial control systems | |
Wang et al. | Intrusion detection model of SCADA using graphical features | |
Kharitonov et al. | WiP: Distributed intrusion detection system for TCP/IP-based connections in industrial environments using self-organizing maps | |
Shalini et al. | DDoS attack detection in SDN using CUSUM | |
Li et al. | Prism: Real-Time Privacy Protection Against Temporal Network Traffic Analyzers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200724 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210802 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210817 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6932270 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |