JP2019057268A - マルウェア検出モデルの機械学習のシステムおよび方法 - Google Patents
マルウェア検出モデルの機械学習のシステムおよび方法 Download PDFInfo
- Publication number
- JP2019057268A JP2019057268A JP2018128786A JP2018128786A JP2019057268A JP 2019057268 A JP2019057268 A JP 2019057268A JP 2018128786 A JP2018128786 A JP 2018128786A JP 2018128786 A JP2018128786 A JP 2018128786A JP 2019057268 A JP2019057268 A JP 2019057268A
- Authority
- JP
- Japan
- Prior art keywords
- file
- behavior
- detection model
- malicious
- command
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 111
- 238000010801 machine learning Methods 0.000 title claims abstract description 52
- 238000000034 method Methods 0.000 title claims abstract description 49
- 230000006399 behavior Effects 0.000 claims abstract description 213
- 230000006870 function Effects 0.000 claims abstract description 107
- 230000006378 damage Effects 0.000 claims description 92
- 230000009471 action Effects 0.000 claims description 60
- 239000013598 vector Substances 0.000 claims description 51
- 230000000694 effects Effects 0.000 claims description 42
- 238000012549 training Methods 0.000 claims description 35
- 230000004044 response Effects 0.000 claims description 8
- 230000003542 behavioural effect Effects 0.000 claims description 7
- 238000004458 analytical method Methods 0.000 description 43
- 230000002155 anti-virotic effect Effects 0.000 description 19
- 238000009826 distribution Methods 0.000 description 12
- 230000008859 change Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000012360 testing method Methods 0.000 description 10
- 238000013459 approach Methods 0.000 description 9
- 238000007726 management method Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000007637 random forest analysis Methods 0.000 description 5
- 230000003068 static effect Effects 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000002790 cross-validation Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000000903 blocking effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000007630 basic procedure Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 208000015181 infectious disease Diseases 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/55—Detecting local intrusion or implementing counter-measures
- G06F21/56—Computer malware detection or handling, e.g. anti-virus arrangements
- G06F21/562—Static detection
- G06F21/565—Static detection by checking file integrity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/55—Detecting local intrusion or implementing counter-measures
- G06F21/552—Detecting local intrusion or implementing counter-measures involving long-term monitoring or reporting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/55—Detecting local intrusion or implementing counter-measures
- G06F21/56—Computer malware detection or handling, e.g. anti-virus arrangements
- G06F21/566—Dynamic detection, i.e. detection performed at run-time, e.g. emulation, suspicious activities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/57—Certifying or maintaining trusted computer platforms, e.g. secure boots or power-downs, version controls, system software checks, secure updates or assessing vulnerabilities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2221/00—Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/03—Indexing scheme relating to G06F21/50, monitoring users, programs or devices to maintain the integrity of platforms
- G06F2221/034—Test or assess a computer or a system
Landscapes
- Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Virology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Debugging And Monitoring (AREA)
- Complex Calculations (AREA)
Abstract
Description
riは、行動パターンであると共に、
gは、コンボリューション関数であると共に、
g−1は、逆コンボリューション関数である。
ストリングについての、
bは、計算の位取り法の底である(例えば、2進法のベクトルについてはb=2、ストリング、即ち、文字のグループを表すベクトルについてはb=8)と共に、
riは、行動パターンのi番目の要素であると共に、
hは、ハッシュ関数であるが、ここで、
Claims (21)
- 悪意のあるファイルを検出するためのモデルの機械学習のための方法において、
前記方法は、
訓練サンプルとしてファイルのデータベースから第1のファイルを選択すること、
前記選択された第1のファイルの実行の間にインターセプトされた実行可能なコマンドに基づいて行動ログを発生させること、
前記行動ログに基づいて複数の行動パターンを発生させること、
前記行動パターンに基づいてコンボリューション関数を、前記コンボリューション関数の結果の逆コンボリューション関数が、指定された第1の値と比べてより大きい前記発生させられた行動パターンとの類似性の程度を有するように、決定すること、
悪意のあるファイルを検出するための検出モデルを、前記行動パターンについて前記コンボリューション関数を使用することで前記検出モデルの複数のパラメーターを算出することによって、訓練すること、および、
第2のファイルが悪意のあるファイルであることを、前記第2のファイルの実行の間に発生させられたシステムの行動ログについて前記訓練された検出モデルを使用することで、検出すること
を備える、方法。 - 請求項1の方法において、
前記検出モデルは、前記検出モデルの算出されたパラメーターを使用することで少なくとも一つの行動パターンに基づいてターゲットファイルの有害性の程度を算出するように構成されたルールのセットを備える、方法。 - 請求項1の方法において、
前記選択された第1のファイルの実行の間にインターセプトされた前記実行可能なコマンドに基づいて前記行動ログを発生させることは、
少なくとも前記選択された第1のファイルの実行または前記選択された第1のファイルの前記実行のエミュレーションの間に少なくとも一つの実行可能なコマンドをインターセプトすること、
各々のインターセプトされたコマンドについて前記コマンドを記述する少なくとも一つのパラメーターを決定すること、および、
前記インターセプトされたコマンドおよび前記パラメーターに基づいて前記選択された第1のファイルと関連付けられた前記行動ログを発生させること
をさらに備える、方法。 - 請求項1の方法において、
前記行動パターンの各々は、少なくとも一つのコマンドおよびそのセットの前記コマンドの全てを記述するパラメーターのセットを備える、方法。 - 請求項1の方法において、
前記コンボリューション関数は、行動パターンの特徴ベクトルを、その行動パターンの要素のハッシュ値の和として、算出するように構成されたものであると共に、
前記コンボリューション関数は、ハッシュ関数を、前記算出された特徴ベクトルおよび前記算出された特徴ベクトルのそのハッシュ関数の前記結果の逆ハッシュ関数の結果の類似性の程度が、前記指定された第1の値と比べてより大きいものであるように、備える、
方法。 - 請求項1の方法であって、
前記行動ログおよび前記検出モデルに基づいて前記第2のファイルの有害性の程度を算出すること、前記第2のファイルの前記有害性の程度が前記第2のファイルの悪意のある行動を記述する定量的な特性であること
をさらに備える、方法。 - 請求項1の方法において、
前記第2のファイルが悪意のあるファイルであることを、前記第2のファイルの実行の間に発生させられた前記システムの行動ログについて前記訓練された検出モデルを使用することで、検出することは、
前記システムの行動ログの中にインターセプトされた実行可能なコマンドおよび前記インターセプトされたコマンドを備えたパラメーターを記録すること、
前記システムの行動ログについて前記訓練された検出モデルを使用することで有害性の係数を算出すること、および、
前記有害性の係数が第1の閾値の値を超えることを決定することに応答して前記第2のファイルが悪意のあるファイルであることを決定すること
をさらに備える、方法。 - 悪意のあるファイルを検出するためのモデルの機械学習のためのシステムにおいて、
前記システムは、
訓練サンプルとしてファイルのデータベースから第1のファイルを選択すると共に、
前記選択された第1のファイルの実行の間にインターセプトされた実行可能なコマンドに基づいて行動ログを発生させると共に、
前記行動ログに基づいて複数の行動パターンを発生させると共に、
前記行動パターンに基づいてコンボリューション関数を、前記コンボリューション関数の結果の逆コンボリューション関数が、指定された第1の値と比べてより大きい前記発生させられた行動パターンとの類似性の程度を有するように、決定すると共に、
悪意のあるファイルを検出するための検出モデルを、前記行動パターンについて前記コンボリューション関数を使用することで前記検出モデルの複数のパラメーターを算出することによって、訓練すると共に、
第2のファイルが悪意のあるファイルであることを、前記第2のファイルの実行の間に発生させられたシステムの行動ログについて前記訓練された検出モデルを使用することで、検出する
ように構成されたプロセッサ
を備える、システム。 - 請求項8のシステムにおいて、
前記検出モデルは、前記検出モデルの算出されたパラメーターを使用することで少なくとも一つの行動パターンに基づいてターゲットファイルの有害性の程度を算出するように構成されたルールのセットを備える、システム。 - 請求項8のシステムにおいて、
前記選択された第1のファイルの実行の間にインターセプトされた前記実行可能なコマンドに基づいて前記行動ログを発生させるように構成された前記プロセッサは、
少なくとも前記選択された第1のファイルの実行または前記選択された第1のファイルの前記実行のエミュレーションの間に少なくとも一つの実行可能なコマンドをインターセプトすると共に、
各々のインターセプトされたコマンドについて前記コマンドを記述する少なくとも一つのパラメーターを決定すると共に、
前記インターセプトされたコマンドおよび前記パラメーターに基づいて前記選択された第1のファイルと関連付けられた前記行動ログを発生させる
ようにさらに構成されたものである、システム。 - 請求項8のシステムにおいて、
前記行動パターンの各々は、少なくとも一つのコマンドおよびそのセットの前記コマンドの全てを記述するパラメーターのセットを備える、システム。 - 請求項8のシステムにおいて、
前記コンボリューション関数は、行動パターンの特徴ベクトルを、その行動パターンの要素のハッシュ値の和として、算出するように構成されたものであると共に、
前記コンボリューション関数は、ハッシュ関数を、前記算出された特徴ベクトルおよび前記算出された特徴ベクトルのそのハッシュ関数の前記結果の逆ハッシュ関数の結果の類似性の程度が、前記指定された第1の値と比べてより大きいものであるように、備える、
システム。 - 請求項8のシステムであって、
前記プロセッサは、
前記行動ログおよび前記検出モデルに基づいて前記第2のファイルの有害性の程度を算出すると共に、前記第2のファイルの前記有害性の程度が前記第2のファイルの悪意のある行動を記述する定量的な特性である
ようにさらに構成されたものである、システム。 - 請求項8のシステムにおいて、
前記第2のファイルが悪意のあるファイルであることを、前記第2のファイルの実行の間に発生させられた前記システムの行動ログについて前記訓練された検出モデルを使用することで、検出するように構成された前記プロセッサは、
前記システムの行動ログの中にインターセプトされた実行可能なコマンドおよび前記インターセプトされたコマンドを備えたパラメーターを記録すると共に、
前記システムの行動ログについて前記訓練された検出モデルを使用することで有害性の係数を算出すると共に、
前記有害性の係数が第1の閾値の値を超えることを決定することに応答して前記第2のファイルが悪意のあるファイルであることを決定する
ようにさらに構成されたものである、システム。 - 悪意のあるファイルを検出するためのモデルの機械学習のためのコンピューター実行可能な命令を備える非一時的なコンピューター読み取り可能な媒体であって、
訓練サンプルとしてファイルのデータベースから第1のファイルを選択すること、
前記選択された第1のファイルの実行の間にインターセプトされた実行可能なコマンドに基づいて行動ログを発生させること、
前記行動ログに基づいて複数の行動パターンを発生させること、
前記行動パターンに基づいてコンボリューション関数を、前記コンボリューション関数の結果の逆コンボリューション関数が、指定された第1の値と比べてより大きい前記発生させられた行動パターンとの類似性の程度を有するように、決定すること、
悪意のあるファイルを検出するための検出モデルを、前記行動パターンについて前記コンボリューション関数を使用することで前記検出モデルの複数のパラメーターを算出することによって、訓練すること、および、
第2のファイルが悪意のあるファイルであることを、前記第2のファイルの実行の間に発生させられたシステムの行動ログについて前記訓練された検出モデルを使用することで、検出すること
のための命令を含む、コンピューター読み取り可能な媒体。 - 請求項15のコンピューター読み取り可能な媒体において、
前記検出モデルは、前記検出モデルの算出されたパラメーターを使用することで少なくとも一つの行動パターンに基づいてターゲットファイルの有害性の程度を算出するように構成されたルールのセットを備える、コンピューター読み取り可能な媒体。 - 請求項15のコンピューター読み取り可能な媒体において、
前記選択された第1のファイルの実行の間にインターセプトされた前記実行可能なコマンドに基づいて前記行動ログを発生させることは、
少なくとも前記選択された第1のファイルの実行または前記選択された第1のファイルの前記実行のエミュレーションの間に少なくとも一つの実行可能なコマンドをインターセプトすること、
各々のインターセプトされたコマンドについて前記コマンドを記述する少なくとも一つのパラメーターを決定すること、および、
前記インターセプトされたコマンドおよび前記パラメーターに基づいて前記選択された第1のファイルと関連付けられた前記行動ログを発生させること
をさらに備える、コンピューター読み取り可能な媒体。 - 請求項15のコンピューター読み取り可能な媒体において、
前記行動パターンの各々は、少なくとも一つのコマンドおよびそのセットの前記コマンドの全てを記述するパラメーターのセットを備える、コンピューター読み取り可能な媒体。 - 請求項15のコンピューター読み取り可能な媒体において、
前記コンボリューション関数は、行動パターンの特徴ベクトルを、その行動パターンの要素のハッシュ値の和として、算出するように構成されたものであると共に、
前記コンボリューション関数は、ハッシュ関数を、前記算出された特徴ベクトルおよび前記算出された特徴ベクトルのそのハッシュ関数の前記結果の逆ハッシュ関数の結果の類似性の程度が、前記指定された第1の値と比べてより大きいものであるように、備える、
コンピューター読み取り可能な媒体。 - 請求項15のコンピューター読み取り可能な媒体であって、
前記行動ログおよび前記検出モデルに基づいて前記第2のファイルの有害性の程度を算出すること、前記第2のファイルの前記有害性の程度が前記第2のファイルの悪意のある行動を記述する定量的な特性であること
をさらに備える、コンピューター読み取り可能な媒体。 - 請求項15のコンピューター読み取り可能な媒体において、
前記第2のファイルが悪意のあるファイルであることを、前記第2のファイルの実行の間に発生させられた前記システムの行動ログについて前記訓練された検出モデルを使用することで、検出することは、
前記システムの行動ログの中にインターセプトされた実行可能なコマンドおよび前記インターセプトされたコマンドを備えたパラメーターを記録すること、
前記システムの行動ログについて前記訓練された検出モデルを使用することで有害性の係数を算出すること、および、
前記有害性の係数が第1の閾値の値を超えることを決定することに応答して前記第2のファイルが悪意のあるファイルであることを決定すること
をさらに備える、コンピューター読み取り可能な媒体。
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2017125331A RU2673708C1 (ru) | 2017-07-17 | 2017-07-17 | Система и способ машинного обучения модели обнаружения вредоносных файлов |
RU2017125331 | 2017-07-17 | ||
US201762573745P | 2017-10-18 | 2017-10-18 | |
US62/573,745 | 2017-10-18 | ||
US15/907,462 | 2018-02-28 | ||
US15/907,462 US10795996B2 (en) | 2017-07-17 | 2018-02-28 | System and method of machine learning of malware detection model |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019057268A true JP2019057268A (ja) | 2019-04-11 |
JP6636096B2 JP6636096B2 (ja) | 2020-01-29 |
Family
ID=61731633
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018128786A Active JP6636096B2 (ja) | 2017-07-17 | 2018-07-06 | マルウェア検出モデルの機械学習のシステムおよび方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10795996B2 (ja) |
EP (1) | EP3432186B1 (ja) |
JP (1) | JP6636096B2 (ja) |
CN (1) | CN109271780B (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2706896C1 (ru) * | 2018-06-29 | 2019-11-21 | Акционерное общество "Лаборатория Касперского" | Система и способ выявления вредоносных файлов с использованием модели обучения, обученной на одном вредоносном файле |
US11023576B2 (en) * | 2018-11-28 | 2021-06-01 | International Business Machines Corporation | Detecting malicious activity on a computer system |
CN110113226B (zh) * | 2019-04-16 | 2021-03-12 | 新华三信息安全技术有限公司 | 一种检测设备异常的方法及装置 |
KR102046748B1 (ko) * | 2019-04-25 | 2019-11-19 | 숭실대학교산학협력단 | 트리 부스팅 기반 애플리케이션의 위험도 평가 방법, 이를 수행하기 위한 기록 매체 및 장치 |
CN113728336B (zh) * | 2019-06-26 | 2024-04-05 | 赫尔实验室有限公司 | 对卷积神经网络中的后门攻击进行检测的系统和方法 |
US11303653B2 (en) * | 2019-08-12 | 2022-04-12 | Bank Of America Corporation | Network threat detection and information security using machine learning |
CN111159111A (zh) * | 2019-12-13 | 2020-05-15 | 深信服科技股份有限公司 | 一种信息处理方法、设备、系统和计算机可读存储介质 |
US11323473B2 (en) | 2020-01-31 | 2022-05-03 | Bank Of America Corporation | Network threat prevention and information security using machine learning |
CN111680145B (zh) * | 2020-06-10 | 2023-08-15 | 北京百度网讯科技有限公司 | 知识表示学习方法、装置、设备以及存储介质 |
US20220156372A1 (en) * | 2020-11-13 | 2022-05-19 | Sophos Limited | Cybersecurity system evaluation and configuration |
US12032689B2 (en) * | 2021-07-30 | 2024-07-09 | Cloud Linux Software Inc. | Systems and methods for preventing zero-day attacks |
CN114553525A (zh) * | 2022-02-22 | 2022-05-27 | 国网河北省电力有限公司电力科学研究院 | 基于人工智能的网络安全漏洞挖掘方法及系统 |
CN114610885B (zh) * | 2022-03-09 | 2022-11-08 | 江南大学 | 一种文本分类后门攻击方法、系统及设备 |
CN116956295B (zh) * | 2023-09-19 | 2024-01-05 | 杭州海康威视数字技术股份有限公司 | 基于文件图谱拟合的安全检测方法、装置及设备 |
CN116956296B (zh) * | 2023-09-20 | 2023-12-01 | 北京安天网络安全技术有限公司 | 一种文件的动态检测方法、电子设备及存储介质 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004151863A (ja) | 2002-10-29 | 2004-05-27 | Sony Corp | 自動ログインシステム、自動ログイン方法、自動ログインプログラム、及び記憶媒体 |
US7457823B2 (en) | 2004-05-02 | 2008-11-25 | Markmonitor Inc. | Methods and systems for analyzing data related to possible online fraud |
EP1879124A1 (en) | 2006-06-15 | 2008-01-16 | Deutsche Telekom AG | Improved method and system for detecting malicious behavioral patterns in a computer, using machine leaning |
ES2755780T3 (es) * | 2011-09-16 | 2020-04-23 | Veracode Inc | Análisis estático y de comportamiento automatizado mediante la utilización de un espacio aislado instrumentado y clasificación de aprendizaje automático para seguridad móvil |
KR101581606B1 (ko) | 2011-12-16 | 2015-12-30 | 인텔 코포레이션 | 원격 서버에 대한 안전한 사용자 증명 및 인증 |
US9288220B2 (en) | 2013-11-07 | 2016-03-15 | Cyberpoint International Llc | Methods and systems for malware detection |
KR102450834B1 (ko) | 2016-01-04 | 2022-10-05 | 한국전자통신연구원 | 다중 특징벡터를 이용하는 행위기반 악성코드 탐지 장치 및 방법 |
US10796220B2 (en) * | 2016-05-24 | 2020-10-06 | Marvell Asia Pte, Ltd. | Systems and methods for vectorized FFT for multi-dimensional convolution operations |
CN106529293B (zh) * | 2016-11-09 | 2019-11-05 | 东巽科技(北京)有限公司 | 一种用于恶意软件检测的样本类别判定方法 |
CN106778266A (zh) * | 2016-11-24 | 2017-05-31 | 天津大学 | 一种基于机器学习的安卓恶意软件动态检测方法 |
CN106650453B (zh) * | 2016-12-30 | 2019-11-05 | 北京启明星辰信息安全技术有限公司 | 一种检测方法和装置 |
CN106874761A (zh) * | 2016-12-30 | 2017-06-20 | 北京邮电大学 | 一种安卓系统恶意应用检测方法及系统 |
CN106897621A (zh) * | 2017-03-03 | 2017-06-27 | 努比亚技术有限公司 | 一种恶意文件的检测方法及系统 |
-
2018
- 2018-02-28 US US15/907,462 patent/US10795996B2/en active Active
- 2018-03-20 EP EP18162957.7A patent/EP3432186B1/en active Active
- 2018-07-05 CN CN201810732861.7A patent/CN109271780B/zh active Active
- 2018-07-06 JP JP2018128786A patent/JP6636096B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP6636096B2 (ja) | 2020-01-29 |
US10795996B2 (en) | 2020-10-06 |
CN109271780A (zh) | 2019-01-25 |
CN109271780B (zh) | 2022-05-24 |
EP3432186A1 (en) | 2019-01-23 |
US20190018960A1 (en) | 2019-01-17 |
EP3432186B1 (en) | 2020-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6636096B2 (ja) | マルウェア検出モデルの機械学習のシステムおよび方法 | |
JP6731988B2 (ja) | 訓練された機械学習モデルを使用することで悪意のあるファイルを検出するシステムおよび方法 | |
JP6715292B2 (ja) | 機械学習を用いる悪意のあるファイルを検出するシステムおよび方法 | |
US11403396B2 (en) | System and method of allocating computer resources for detection of malicious files | |
RU2679785C1 (ru) | Система и способ классификации объектов | |
RU2739865C2 (ru) | Система и способ обнаружения вредоносного файла | |
JP6731981B2 (ja) | 機械学習モデルに基づいた悪意のあるファイルの検出のための計算資源を管理するシステムおよび方法 | |
RU2654151C1 (ru) | Система и способ обнаружения вредоносных файлов с использованием обученной модели обнаружения вредоносных файлов | |
US9654486B2 (en) | System and method for generating sets of antivirus records for detection of malware on user devices | |
JP2020115328A (ja) | コンピュータシステムのオブジェクト分類のためのシステムおよび方法 | |
RU2624552C2 (ru) | Способ обнаружения вредоносных файлов, исполняемых с помощью стековой виртуальной машины | |
RU2673708C1 (ru) | Система и способ машинного обучения модели обнаружения вредоносных файлов | |
RU2757265C1 (ru) | Система и способ оценки приложения на вредоносность | |
EP3151148B1 (en) | System and method for generating sets of antivirus records for detection of malware on user devices | |
EP3416085A1 (en) | System and method of detecting malicious files with the use of elements of static analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181119 |
|
AA79 | Non-delivery of priority document |
Free format text: JAPANESE INTERMEDIATE CODE: A24379 Effective date: 20181127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191210 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191217 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6636096 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |