RU2018147233A - Система и способ обнаружения вредоносного файла - Google Patents

Система и способ обнаружения вредоносного файла Download PDF

Info

Publication number
RU2018147233A
RU2018147233A RU2018147233A RU2018147233A RU2018147233A RU 2018147233 A RU2018147233 A RU 2018147233A RU 2018147233 A RU2018147233 A RU 2018147233A RU 2018147233 A RU2018147233 A RU 2018147233A RU 2018147233 A RU2018147233 A RU 2018147233A
Authority
RU
Russia
Prior art keywords
file
degree
harmfulness
calculating
parameters
Prior art date
Application number
RU2018147233A
Other languages
English (en)
Other versions
RU2739865C2 (ru
RU2018147233A3 (ru
Inventor
Александр Сергеевич Чистяков
Алексей Михайлович Романенко
Александр Сергеевич Шевелев
Original Assignee
Акционерное общество "Лаборатория Касперского"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Акционерное общество "Лаборатория Касперского" filed Critical Акционерное общество "Лаборатория Касперского"
Priority to RU2018147233A priority Critical patent/RU2739865C2/ru
Priority to US16/414,868 priority patent/US11599630B2/en
Priority to US16/414,907 priority patent/US11176250B2/en
Priority to US16/414,832 priority patent/US11227048B2/en
Priority to EP19181469.8A priority patent/EP3674947B1/en
Priority to CN201910599029.9A priority patent/CN111382434B/zh
Priority to JP2019138879A priority patent/JP7023259B2/ja
Publication of RU2018147233A publication Critical patent/RU2018147233A/ru
Publication of RU2018147233A3 publication Critical patent/RU2018147233A3/ru
Application granted granted Critical
Publication of RU2739865C2 publication Critical patent/RU2739865C2/ru
Priority to US17/499,413 priority patent/US11880455B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/50Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
    • G06F21/52Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems during program execution, e.g. stack integrity ; Preventing unwanted data erasure; Buffer overflow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/50Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
    • G06F21/55Detecting local intrusion or implementing counter-measures
    • G06F21/554Detecting local intrusion or implementing counter-measures involving event detection and direct action
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/50Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
    • G06F21/55Detecting local intrusion or implementing counter-measures
    • G06F21/56Computer malware detection or handling, e.g. anti-virus arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/50Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
    • G06F21/55Detecting local intrusion or implementing counter-measures
    • G06F21/56Computer malware detection or handling, e.g. anti-virus arrangements
    • G06F21/566Dynamic detection, i.e. detection performed at run-time, e.g. emulation, suspicious activities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N5/025Extracting rules from data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/03Indexing scheme relating to G06F21/50, monitoring users, programs or devices to maintain the integrity of platforms
    • G06F2221/033Test or assess software
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/03Indexing scheme relating to G06F21/50, monitoring users, programs or devices to maintain the integrity of platforms
    • G06F2221/034Test or assess a computer or a system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2101Auditing as a secondary aspect
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Claims (51)

1. Система обнаружения вредоносного файла, которая содержит
а) средство сбора данных, предназначенное для формирования на основании собранных данных о поведении выполнения файла, вектора признаков, характеризующих упомянутое поведение, при этом вектор признаков представляет собой свертку собранных данных, сформированную в виде совокупности чисел;
б) средство вычисления параметров, предназначенное для вычисления на основании сформированного средством сбора данных вектора признаков с использованием обученной модели вычисления параметров степени вредоносности, представляющей численное значение, характеризующего вероятность того, что файл может оказаться вредоносным, и предельной степени безопасности, представляющей собой численное значение, характеризующее вероятность того, что файл гарантированно окажется вредоносным, при этом совокупность последовательно вычисленных упомянутых степеней описывается заранее заданным временным законом;
в) средство анализа, предназначенное для вынесения решения об обнаружении вредоносного файла, в случае, когда собранные данные о поведении выполнения файла удовлетворяют заранее заданному критерию определения вредоносности, сформированному на основании вычисленных средством вычисления параметров степени вредоносности и предельной степени безопасности, при этом в качестве упомянутого критерия выступает правило классификации файла по установленной взаимосвязи между степенью вредоносности и предельной степени безопасности.
2. Система по п. 1, в которой модель вычисления параметров была предварительно обучена методом машинного обучения на по меньшей мере одном безопасном файле и вредоносном файле.
3. Система по п. 1, в которой в качестве метода машинного обучения модели вычисления параметров выступает по меньшей мере:
градиентный бустинг на деревьях принятия решений;
решающие деревья;
метод ближайших соседей kNN;
метод опорных векторов.
4. Система по п. 1, в которой данные о поведении исполнения файла включают по меньшей мере:
выполняемые файлом команды, передаваемые упомянутым командам атрибуты и возвращаемые значения;
данные участков оперативной памяти, модифицируемые выполняемым файлом;
статические параметры файла.
5. Система, по п. 1, в которой по меньшей мере вычисляемая степень вредоносности или предельная степень безопасности зависят от степени вредоносности и соответственно предельной степени безопасности, вычисленных в момент запуска файла на основании анализа статических данных файла.
6. Система по п. 1, в которой обученная модель вычисления параметров представляет собой совокупность правил вычисления степени вредоносности файла и предельной степени безопасности файла, зависящих от определенных данных о поведении исполнения файла.
7. Система по п. 1, в которой временные законы, описывающие совокупность последовательно вычисленных степеней вредоносности и совокупность последовательно вычисленных предельных степеней безопасности, имеют монотонных характер.
8. Система по п. 1, в котором в качестве взаимосвязи между степенью вредоносности и предельной степени безопасности выступает по меньшей мере:
отличие расстояния между степенью вредоносности и граничными условиями вредоносности от заранее заданного порогового значения;
отличие площади, ограниченной в заданном временном интервале между степенью вредоносности и граничными условиями, от заранее заданного порогового значения;
отличие скорости взаимного роста кривой, описывающей изменение степени вредоносности и граничных условий вредоносности от времени, от заранее заданного значения.
9. Система по п. 1, которая дополнительно содержит средство корректировки параметров, предназначенное для переобучения модели вычисления параметров на основании анализа вычисленных степени вредоносности и предельной степени безопасности, в результате которого изменения во временных законах, описывающих степень вредоносности и предельную степень безопасности, приводят к тому, что взаимосвязь между значениями, полученными на основании упомянутых законов стремится к максимальной.
10. Система по п. 9, в которой модель вычисления параметров переобучают таким образом, чтобы при использовании упомянутой модели, сформированный впоследствии критерий обеспечивал по меньшей мере:
точность определения степени вредоносности и предельной степени безопасности была выше, чем при использовании необученной модели вычисления параметров;
использование вычислительных ресурсов были ниже, чем при использовании необученной модели вычисления параметров.
11. Способ обнаружения вредоносного файла, при этом способ содержит этапы, которые реализуются с помощью средств из системы по п. 1 и на которых:
а) формируют на основании собранных данных о поведении исполнения файла, вектор признаков, характеризующих упомянутое поведение, при этом вектор признаков представляет собой свертку собранных данных, сформированную в виде совокупности чисел;
б) вычисляют на основании сформированного вектора признаков с использованием обученной модели вычисления параметров степень вредоносности, представляющую численное значение, характеризующего вероятность того, что файл может оказаться вредоносным, и предельную степень безопасности, представляющую собой численное значение, характеризующее вероятность того, что файл гарантированно окажется вредоносным, при этом совокупность последовательно вычисленных упомянутых степеней описывается заранее заданным временным законом;
в) выполняют этапы а) - б) для разных последовательных временных интервалов исполнения анализируемого файла;
г) выносят решение об обнаружении вредоносного файла, в случае, когда собранные данные о поведении исполнения файла удовлетворяют заранее заданному критерию определения вредоносности, сформированному на основании вычисленных на предыдущем этапе степени вредоносности и предельной степени безопасности, при этом в качестве упомянутого критерия выступает правило классификации файла по установленной взаимосвязи между степенью вредоносности и предельной степени безопасности.
12. Способ по п. 11, по которому модель вычисления параметров была предварительно обучена методом машинного обучения на по меньшей мере одном безопасном файле и вредоносном файле.
13. Способ по п. 11, по которому в качестве метода машинного обучения модели вычисления параметров выступает по меньшей мере:
градиентный бустинг на деревьях принятия решений;
решающие деревья;
метод ближайших соседей kNN;
метод опорных векторов.
14. Способ по п. 11, по которому данные о поведении исполнения файла включают по меньшей мере:
выполняемые файлом команды, передаваемые упомянутым командам атрибуты и возвращаемые значения;
данные участков оперативной памяти, модифицируемые выполняемым файлом;
статические параметры файла.
15. Способ по п. 11, по которому по меньшей мере вычисляемая степень вредоносности или предельная степень безопасности зависят от степени вредоносности и соответственно предельной степени безопасности, вычисленных в момент запуска файла на основании анализа статических данных файла.
16. Способ по п. 11, по которому обученная модель вычисления параметров представляет собой совокупность правил вычисления степени вредоносности файла и предельной степени безопасности файла, зависящих от определенных данных о поведении исполнения файла.
17. Способ по п. 11, по которому временные законы, описывающие совокупность последовательно вычисленных степеней вредоносности и совокупность последовательно вычисленных предельных степеней безопасности, имеют монотонных характер.
18. Способ по п. 11, по которому в качестве взаимосвязи между степенью вредоносности и предельной степени безопасности выступает по меньшей мере:
отличие расстояния между степенью вредоносности и граничными условиями вредоносности от заранее заданного порогового значения;
отличие площади, ограниченной в заданном временном интервале между степенью вредоносности и граничными условиями, от заранее заданного порогового значения;
отличие скорости взаимного роста кривой, описывающей изменение степени вредоносности и граничных условий вредоносности от времени, от заранее заданного значения.
19. Способ по п. 11, по которому дополнительно переобучают модель вычисления параметров на основании анализа вычисленных степени вредоносности и предельной степени безопасности, в результате которого изменения во временных законах, описывающих степень вредоносности и предельную степень безопасности, приводят к тому, что взаимосвязь между значениями, полученными на основании упомянутых законов стремится к максимальной.
20. Способ по п. 19, по которому модель вычисления параметров переобучают таким образом, чтобы при использовании упомянутой модели, сформированный впоследствии критерий обеспечивал по меньшей мере:
точность определения степени вредоносности и предельной степени безопасности была выше, чем при использовании необученной модели вычисления параметров;
использование вычислительных ресурсов были ниже, чем при использовании необученной модели вычисления параметров.
RU2018147233A 2018-12-28 2018-12-28 Система и способ обнаружения вредоносного файла RU2739865C2 (ru)

Priority Applications (8)

Application Number Priority Date Filing Date Title
RU2018147233A RU2739865C2 (ru) 2018-12-28 2018-12-28 Система и способ обнаружения вредоносного файла
US16/414,907 US11176250B2 (en) 2018-12-28 2019-05-17 System and method for detection of a malicious file
US16/414,832 US11227048B2 (en) 2018-12-28 2019-05-17 Method and system for detecting malicious files using behavior patterns
US16/414,868 US11599630B2 (en) 2018-12-28 2019-05-17 System and method for training a detection model using machine learning
EP19181469.8A EP3674947B1 (en) 2018-12-28 2019-06-20 System and method for detection of a malicious file
CN201910599029.9A CN111382434B (zh) 2018-12-28 2019-07-04 用于检测恶意文件的系统和方法
JP2019138879A JP7023259B2 (ja) 2018-12-28 2019-07-29 悪意あるファイルを検出するためのシステムおよび方法
US17/499,413 US11880455B2 (en) 2018-12-28 2021-10-12 Selecting a detection model for detection of a malicious file

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2018147233A RU2739865C2 (ru) 2018-12-28 2018-12-28 Система и способ обнаружения вредоносного файла

Publications (3)

Publication Number Publication Date
RU2018147233A true RU2018147233A (ru) 2020-06-29
RU2018147233A3 RU2018147233A3 (ru) 2020-10-09
RU2739865C2 RU2739865C2 (ru) 2020-12-29

Family

ID=71121832

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2018147233A RU2739865C2 (ru) 2018-12-28 2018-12-28 Система и способ обнаружения вредоносного файла

Country Status (5)

Country Link
US (4) US11176250B2 (ru)
EP (1) EP3674947B1 (ru)
JP (1) JP7023259B2 (ru)
CN (1) CN111382434B (ru)
RU (1) RU2739865C2 (ru)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113221109A (zh) * 2021-03-30 2021-08-06 浙江工业大学 一种基于生成对抗网络的恶意文件智能分析方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11023576B2 (en) * 2018-11-28 2021-06-01 International Business Machines Corporation Detecting malicious activity on a computer system
US11200318B2 (en) * 2018-12-28 2021-12-14 Mcafee, Llc Methods and apparatus to detect adversarial malware
US11029947B2 (en) * 2019-08-30 2021-06-08 Accenture Global Solutions Limited Utilizing artificial intelligence to improve productivity of software development and information technology operations (DevOps)
US20210185080A1 (en) * 2019-12-11 2021-06-17 At&T Intellectual Property I, L.P. Social engineering attack prevention
US11834060B2 (en) * 2020-03-31 2023-12-05 Denso International America, Inc. System and method for managing vehicle subscriptions
KR20230037661A (ko) * 2020-07-17 2023-03-16 그램 랩스 인코포레이티드 컨테이너화된 애플리케이션의 배치를 최적화하기 위한 시스템, 방법 및 서버
CN113010888B (zh) * 2021-03-02 2022-04-19 电子科技大学 一种基于关键神经元的神经网络后门攻击防御方法
CN116910755A (zh) * 2023-09-13 2023-10-20 北京安天网络安全技术有限公司 一种文件检测方法
CN116956296B (zh) * 2023-09-20 2023-12-01 北京安天网络安全技术有限公司 一种文件的动态检测方法、电子设备及存储介质

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8984636B2 (en) * 2005-07-29 2015-03-17 Bit9, Inc. Content extractor and analysis system
US8161548B1 (en) * 2005-08-15 2012-04-17 Trend Micro, Inc. Malware detection using pattern classification
US8032714B2 (en) * 2007-09-28 2011-10-04 Aggregate Knowledge Inc. Methods and systems for caching data using behavioral event correlations
US8060857B2 (en) * 2009-01-31 2011-11-15 Ted J. Biggerstaff Automated partitioning of a computation for parallel or other high capability architecture
US8719935B2 (en) * 2010-01-08 2014-05-06 Microsoft Corporation Mitigating false positives in malware detection
US8413244B1 (en) * 2010-11-11 2013-04-02 Symantec Corporation Using temporal attributes to detect malware
WO2012071989A1 (zh) * 2010-11-29 2012-06-07 北京奇虎科技有限公司 基于机器学习的程序识别方法及装置
US9015843B2 (en) * 2010-12-03 2015-04-21 Microsoft Corporation Predictive malware threat mitigation
ES2755780T3 (es) * 2011-09-16 2020-04-23 Veracode Inc Análisis estático y de comportamiento automatizado mediante la utilización de un espacio aislado instrumentado y clasificación de aprendizaje automático para seguridad móvil
US8584235B2 (en) * 2011-11-02 2013-11-12 Bitdefender IPR Management Ltd. Fuzzy whitelisting anti-malware systems and methods
WO2014012106A2 (en) * 2012-07-13 2014-01-16 Sourcefire, Inc. Method and apparatus for retroactively detecting malicious or otherwise undesirable software as well as clean software through intelligent rescanning
US9292688B2 (en) * 2012-09-26 2016-03-22 Northrop Grumman Systems Corporation System and method for automated machine-learning, zero-day malware detection
US11126720B2 (en) * 2012-09-26 2021-09-21 Bluvector, Inc. System and method for automated machine-learning, zero-day malware detection
RU2530210C2 (ru) * 2012-12-25 2014-10-10 Закрытое акционерное общество "Лаборатория Касперского" Система и способ выявления вредоносных программ, препятствующих штатному взаимодействию пользователя с интерфейсом операционной системы
US9501645B2 (en) * 2013-03-15 2016-11-22 Rudolf H. Hendel System and method for the protection of computers and computer networks against cyber threats
CN105229612B (zh) * 2013-03-18 2018-06-26 纽约市哥伦比亚大学理事会 使用基于硬件的微体系结构数据的异常程序执行的检测
KR101794116B1 (ko) * 2013-03-18 2017-11-06 더 트러스티스 오브 컬럼비아 유니버시티 인 더 시티 오브 뉴욕 하드웨어 특징들을 사용한 이상 프로세스들의 비감시된 검출
US9448859B2 (en) * 2013-09-17 2016-09-20 Qualcomm Incorporated Exploiting hot application programming interfaces (APIs) and action patterns for efficient storage of API logs on mobile devices for behavioral analysis
US9288220B2 (en) * 2013-11-07 2016-03-15 Cyberpoint International Llc Methods and systems for malware detection
JP6188956B2 (ja) * 2013-12-30 2017-08-30 ノキア テクノロジーズ オーユー マルウェア検出検査方法及び装置
US10225280B2 (en) * 2014-02-24 2019-03-05 Cyphort Inc. System and method for verifying and detecting malware
US9690933B1 (en) * 2014-12-22 2017-06-27 Fireeye, Inc. Framework for classifying an object as malicious with machine learning for deploying updated predictive models
US9646159B2 (en) * 2015-03-31 2017-05-09 Juniper Networks, Inc. Multi-file malware analysis
US9699205B2 (en) * 2015-08-31 2017-07-04 Splunk Inc. Network security system
TWI547823B (zh) * 2015-09-25 2016-09-01 緯創資通股份有限公司 惡意程式碼分析方法與系統、資料處理裝置及電子裝置
RU2617631C2 (ru) * 2015-09-30 2017-04-25 Акционерное общество "Лаборатория Касперского" Способ обнаружения работы вредоносной программы, запущенной с клиента, на сервере
CN105205396A (zh) * 2015-10-15 2015-12-30 上海交通大学 一种基于深度学习的安卓恶意代码检测系统及其方法
WO2017147441A1 (en) * 2016-02-26 2017-08-31 Cylance Inc. Sub-execution environment controller
US9928363B2 (en) * 2016-02-26 2018-03-27 Cylance Inc. Isolating data for analysis to avoid malicious attacks
RU2628923C1 (ru) * 2016-05-20 2017-08-22 Акционерное общество "Лаборатория Касперского" Система и способ распределения файлов между виртуальными машинами, входящими в распределённую систему виртуальных машин, для выполнения антивирусной проверки
US10270788B2 (en) * 2016-06-06 2019-04-23 Netskope, Inc. Machine learning based anomaly detection
US10972482B2 (en) * 2016-07-05 2021-04-06 Webroot Inc. Automatic inline detection based on static data
CN106778241B (zh) * 2016-11-28 2020-12-25 东软集团股份有限公司 恶意文件的识别方法及装置
US20180150742A1 (en) * 2016-11-28 2018-05-31 Microsoft Technology Licensing, Llc. Source code bug prediction
US11146578B2 (en) * 2016-12-16 2021-10-12 Patternex, Inc. Method and system for employing graph analysis for detecting malicious activity in time evolving networks
US10645107B2 (en) * 2017-01-23 2020-05-05 Cyphort Inc. System and method for detecting and classifying malware
CN106790292A (zh) * 2017-03-13 2017-05-31 摩贝(上海)生物科技有限公司 基于行为特征匹配和分析的web应用层攻击检测与防御方法
US10917419B2 (en) * 2017-05-05 2021-02-09 Servicenow, Inc. Systems and methods for anomaly detection
US10089467B1 (en) * 2017-05-23 2018-10-02 Malwarebytes Inc. Static anomaly-based detection of malware files
JP6860070B2 (ja) * 2017-06-23 2021-04-14 日本電気株式会社 分析装置、ログの分析方法及び分析プログラム
US10560487B2 (en) * 2017-07-26 2020-02-11 International Business Machines Corporation Intrusion detection and mitigation in data processing
RU2654151C1 (ru) 2017-08-10 2018-05-16 Акционерное общество "Лаборатория Касперского" Система и способ обнаружения вредоносных файлов с использованием обученной модели обнаружения вредоносных файлов
RU2659737C1 (ru) 2017-08-10 2018-07-03 Акционерное общество "Лаборатория Касперского" Система и способ управления вычислительными ресурсами для обнаружения вредоносных файлов
US11182695B1 (en) * 2017-08-18 2021-11-23 Groupon, Inc. Method, apparatus, and computer program product for machine learning model lifecycle management
WO2019075399A1 (en) * 2017-10-13 2019-04-18 Huawei Technologies Co., Ltd. SYSTEM AND METHOD FOR COLLABORATIVE REAL TIME USER USE OF CLOUD DEVICE AND DETECTION OF PERFORMANCE ANOMALY
JP6731981B2 (ja) * 2017-10-18 2020-07-29 エーオー カスペルスキー ラボAO Kaspersky Lab 機械学習モデルに基づいた悪意のあるファイルの検出のための計算資源を管理するシステムおよび方法
US11568301B1 (en) * 2018-01-31 2023-01-31 Trend Micro Incorporated Context-aware machine learning system
CN108629183B (zh) * 2018-05-14 2021-07-20 南开大学 基于可信度概率区间的多模型恶意代码检测方法
US11574051B2 (en) * 2018-08-02 2023-02-07 Fortinet, Inc. Malware identification using multiple artificial neural networks
US10826932B2 (en) * 2018-08-22 2020-11-03 General Electric Company Situation awareness and dynamic ensemble forecasting of abnormal behavior in cyber-physical system
RU2724710C1 (ru) * 2018-12-28 2020-06-25 Акционерное общество "Лаборатория Касперского" Система и способ классификации объектов вычислительной системы

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113221109A (zh) * 2021-03-30 2021-08-06 浙江工业大学 一种基于生成对抗网络的恶意文件智能分析方法

Also Published As

Publication number Publication date
US20220043910A1 (en) 2022-02-10
EP3674947B1 (en) 2022-06-22
CN111382434B (zh) 2023-08-01
RU2739865C2 (ru) 2020-12-29
US20200210577A1 (en) 2020-07-02
US11176250B2 (en) 2021-11-16
RU2018147233A3 (ru) 2020-10-09
CN111382434A (zh) 2020-07-07
US20200210567A1 (en) 2020-07-02
US20200210576A1 (en) 2020-07-02
EP3674947A1 (en) 2020-07-01
US11599630B2 (en) 2023-03-07
US11227048B2 (en) 2022-01-18
JP2020115320A (ja) 2020-07-30
JP7023259B2 (ja) 2022-02-21
US11880455B2 (en) 2024-01-23

Similar Documents

Publication Publication Date Title
RU2018147233A (ru) Система и способ обнаружения вредоносного файла
CN110633745B (zh) 一种基于人工智能的图像分类训练方法、装置及存储介质
US9106689B2 (en) Intrusion detection using MDL clustering
RU2018104438A (ru) Система и способ обучения модели обнаружения вредоносных контейнеров
Christie et al. Acoustics based terrain classification for legged robots
US20180365522A1 (en) Methods and apparatuses for building data identification models
US20140046878A1 (en) Method and system for detecting sound events in a given environment
KR20200022739A (ko) 데이터 증강에 기초한 인식 모델 트레이닝 방법 및 장치, 이미지 인식 방법 및 장치
JP2018026122A5 (ru)
KR101780676B1 (ko) 트레이닝 이미지를 이용하여 분류 트리를 구성함으로써 rejector를 학습하고 상기 rejector를 이용하여 테스트 이미지 상의 객체를 검출하는 방법
US11461650B2 (en) Validation of deep neural network (DNN) prediction based on pre-trained classifier
CN110879881B (zh) 基于特征组分层和半监督随机森林的鼠标轨迹识别方法
Gu et al. Concept drift detection based on equal density estimation
JP7115280B2 (ja) 検出学習装置、方法、及びプログラム
CN110852198A (zh) 防止智慧社区内宠物狗袭击的控制方法、设备及存储介质
US20220366040A1 (en) Deep learning based detection of malicious shell scripts
CN112738092A (zh) 一种日志数据增强方法、分类检测方法及系统
CN109067708B (zh) 一种网页后门的检测方法、装置、设备及存储介质
RU2013153768A (ru) Система и способ оценки надежности правила категоризации
JP6812076B2 (ja) ジェスチャ認識装置およびジェスチャ認識プログラム
CN112560787A (zh) 一种行人重识别匹配边界阈值设置方法、装置及相关组件
US11720343B2 (en) Methods and apparatus for automatically labeling data processing events in autonomous driving vehicles via machine learning
CN111783866A (zh) 一种基于改进foa-svm的生产物流预警信息多分类方法
CN111478922A (zh) 一种隐蔽信道通信检测方法、装置及设备
CN110675382A (zh) 基于CNN-LapsELM的铝电解过热度识别方法