RU2739865C2 - Система и способ обнаружения вредоносного файла - Google Patents

Система и способ обнаружения вредоносного файла Download PDF

Info

Publication number
RU2739865C2
RU2739865C2 RU2018147233A RU2018147233A RU2739865C2 RU 2739865 C2 RU2739865 C2 RU 2739865C2 RU 2018147233 A RU2018147233 A RU 2018147233A RU 2018147233 A RU2018147233 A RU 2018147233A RU 2739865 C2 RU2739865 C2 RU 2739865C2
Authority
RU
Russia
Prior art keywords
file
degree
malicious
behavior
harmfulness
Prior art date
Application number
RU2018147233A
Other languages
English (en)
Other versions
RU2018147233A3 (ru
RU2018147233A (ru
Inventor
Александр Сергеевич Чистяков
Алексей Михайлович Романенко
Александр Сергеевич Шевелев
Original Assignee
Акционерное общество "Лаборатория Касперского"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Акционерное общество "Лаборатория Касперского" filed Critical Акционерное общество "Лаборатория Касперского"
Priority to RU2018147233A priority Critical patent/RU2739865C2/ru
Priority to US16/414,868 priority patent/US11599630B2/en
Priority to US16/414,907 priority patent/US11176250B2/en
Priority to US16/414,832 priority patent/US11227048B2/en
Priority to EP19181469.8A priority patent/EP3674947B1/en
Priority to CN201910599029.9A priority patent/CN111382434B/zh
Priority to JP2019138879A priority patent/JP7023259B2/ja
Publication of RU2018147233A publication Critical patent/RU2018147233A/ru
Publication of RU2018147233A3 publication Critical patent/RU2018147233A3/ru
Application granted granted Critical
Publication of RU2739865C2 publication Critical patent/RU2739865C2/ru
Priority to US17/499,413 priority patent/US11880455B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/50Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
    • G06F21/52Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems during program execution, e.g. stack integrity ; Preventing unwanted data erasure; Buffer overflow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/50Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
    • G06F21/55Detecting local intrusion or implementing counter-measures
    • G06F21/554Detecting local intrusion or implementing counter-measures involving event detection and direct action
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/50Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
    • G06F21/55Detecting local intrusion or implementing counter-measures
    • G06F21/56Computer malware detection or handling, e.g. anti-virus arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/50Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
    • G06F21/55Detecting local intrusion or implementing counter-measures
    • G06F21/56Computer malware detection or handling, e.g. anti-virus arrangements
    • G06F21/566Dynamic detection, i.e. detection performed at run-time, e.g. emulation, suspicious activities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N5/025Extracting rules from data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/03Indexing scheme relating to G06F21/50, monitoring users, programs or devices to maintain the integrity of platforms
    • G06F2221/033Test or assess software
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/03Indexing scheme relating to G06F21/50, monitoring users, programs or devices to maintain the integrity of platforms
    • G06F2221/034Test or assess a computer or a system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2101Auditing as a secondary aspect
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

Изобретение относится к антивирусным технологиям. Технический результат настоящего изобретения заключается в увеличении качества проверки файла на вредоносность. Система обнаружения вредоносного файла содержит: средство сбора данных, предназначенное для формирования на основании собранных данных о поведении выполнения файла, вектора признаков, характеризующих упомянутое поведение, при этом вектор признаков представляет собой свертку собранных данных, сформированную в виде совокупности чисел; средство вычисления параметров, предназначенное для вычисления на основании сформированного средством сбора данных вектора признаков с использованием обученной модели вычисления параметров степени вредоносности; средство анализа, предназначенное для вынесения решения об обнаружении вредоносного файла, в случае, когда собранные данные о поведении выполнения файла удовлетворяют заранее заданному критерию определения вредоносности, сформированному на основании вычисленных средством вычисления параметров степени вредоносности и предельной степени безопасности. 2 н. и 18 з.п. ф-лы, 10 ил.

Description

Область техники
Изобретение относится к антивирусным технологиям, а более конкретно к системам и способам обнаружения вредоносных файлов.
Уровень техники
Бурное развитие компьютерных технологий в последнее десятилетие, а также широкое распространение разнообразных вычислительных устройств (персональных компьютеров, ноутбуков, планшетов, смартфонов и т.д.) стали мощным стимулом для использования упомянутых устройств в разнообразных сферах деятельности и для огромного количества задач (от интернет-серфинга до банковских переводов и ведения электронного документооборота). Параллельно с ростом количества вычислительных устройств и программного обеспечения, работающего на этих устройствах, быстрыми темпами росло и количество вредоносных программ.
В настоящий момент существует огромное количество разновидностей вредоносных программ. Одни крадут с устройств пользователей их персональные и конфиденциальные данные (например, логины и пароли, банковские реквизиты, электронные документы). Другие формируют из устройств пользователей так называемые бот-сети (англ. botnet) для таких атак, как отказ в обслуживании (англ. DDoS - Distributed Denial of Service) или для перебора паролей методом грубой силы (англ. bruteforce) на другие компьютеры или компьютерные сети. Третьи предлагают пользователям платный контент через навязчивую рекламу, платные подписки, отправку CMC на платные номера и т.д.
Для борьбы с вредоносными программами, включающей в себя обнаружение вредоносных программ, предотвращение заражения и восстановление работоспособности вычислительных устройств, зараженных вредоносными программами, применяются специализированные программы - антивирусы. Для обнаружения всего многообразия вредоносных программ антивирусные программы используют разнообразные технологии, такие как:
• статический анализ - анализ программ на вредоносность, исключающий запуск или эмуляцию работы анализируемых программ, на основании данных содержащихся в файлах, составляющих анализируемые программы, при этом при статистическом анализе могут использоваться:
Figure 00000001
сигнатурный анализ - поиск соответствий какого-либо участка кода анализируемых программ известному коду (сигнатуре) из базы данных сигнатур вредоносных программ;
Figure 00000001
белые и черные списки - поиск вычисленных контрольных сумм от анализируемых программ (или их частей) в базе данных контрольных сумм вредоносных программ (черные списки) или базе данных контрольных сумм безопасных программ (белые списки);
• динамический анализ - анализ программ на вредоносность на основании данных, полученных в ходе исполнения или эмуляции работы анализируемых программ, при этом при динамическом анализе могут использоваться:
Figure 00000001
эвристический анализ - эмуляция работы анализируемых программ, создание журналов эмуляции (содержащих данные по вызовам API-функций, переданным параметрам, участкам кода анализируемых программ и т.д.) и поиск соответствий данных из созданных журналов с данными из базы данных поведенческих сигнатур вредоносных программ;
Figure 00000002
проактивная защита - перехват вызовов API-функций запущенных анализируемых программ, создания журналов поведения анализируемых программ (содержащих данные по вызовам API-функций, переданным параметрам, участкам кода анализируемых программ и т.д.) и поиск соответствий данных из созданных журналов с данными из базы данных вызовов вредоносных программ.
И статический, и динамический анализ обладают своими плюсами и минусами. Статический анализ менее требователен к ресурсам вычислительного устройства, на котором выполняется анализ, а поскольку он не требует исполнения или эмуляции анализируемой программы, статистический анализ более быстрый, но при этом менее эффективен, т.е. имеет более низкий процент обнаружения вредоносных программ и более высокий процент ложных срабатываний (т.е. вынесения решения о вредоносности файла, анализируемого средствами программы-антивируса, при том, что анализируемый файл является безопасным). Динамический анализ из-за того, что использует данные, получаемые при исполнении или эмуляции работы анализируемой программы, более медленный и предъявляет более высокие требования к ресурсам вычислительного устройства на котором выполняется анализ, но при этом и более эффективен. Современные антивирусные программы используют комплексный анализ, включающий в себя как элементы статического, так и динамического анализа.
Поскольку современные стандарты информационной безопасности требуют оперативного реагирования на вредоносные программы (в особенности на новые), на первый план выходят автоматические средства обнаружения вредоносных программ. Для эффективной работы упомянутых средств зачастую применяются элементы искусственного интеллекта и разнообразные методы машинного обучения моделей обнаружения вредоносных программ (т.е. совокупности правил принятия решения о вредоносности файла на основании некоторого набора входных данных, описывающих вредоносный файл), позволяющие эффективно обнаруживать не только хорошо известные вредоносные программы или вредоносные программы с хорошо известным вредоносным поведением, но и новые вредоносные программы, обладающие неизвестным или слабо исследованным вредоносным поведением, а также оперативно адоптироваться (обучаться) к обнаружению новых вредоносных программ.
В патентной публикации US 9288220 B2 описана технология обнаружения вредоносного ПО в сетевом трафике. С этой целью из данных, выбранных из сетевого трафика, выделяют характерные признаки (признаки, характеризующие тип исполняемого файла, поведение исполняемого файла, тип передаваемых по компьютерной сети данных, например тип и размер передаваемых по компьютерной сети данных, команды, выполняемые при исполнении файла, наличие заранее заданных сигнатур в файле и т.д.), в качестве которых может выступать признаковое описание выбранных данных, т.е. вектор (англ. feature vector), составленный из значений, соответствующих некоторому набору признаков для объекта, содержащего выбранные данные. Применяя модели обнаружения безопасных файлов, обнаружения вредоносных файлов и определения типов вредоносных файлов, предварительно обученные с использованием методов машинного обучения на основании шаблонов, составленных из схожих с упомянутыми характерных признаков, определяют, с каким весом и к какому типу вредоносного ПО относятся выбранные данные, и выносят решение об обнаружении вредоносного ПО в сетевом трафике.
Хотя описанная выше технология хорошо справляется с обнаружением вредоносных файлов, обладающих некоторыми характерными признаками (т.е. данными, описывающими некоторые особенности файлов из некоторой совокупности файлов, например, наличие графического интерфейса, шифрования данных, передачи данных по компьютерной сети и т.д.), схожими с характерными признаками уже известных вредоносных файлов, она не способна справиться с обнаружением вредоносных файлов, имеющих отличные характерные признаки (хотя и схожее поведение) от характерных признаков уже известных вредоносных файлов, кроме того описанная выше технология не раскрывает такие аспекты машинного обучения моделей, как тестирование и переобучение моделей, а также формирование и переформирование (в зависимости от результатов упомянутого выше тестирования) характерных признаков.
Настоящее изобретение позволяет решать задачу обнаружения вредоносных файлов.
Раскрытие изобретения
Изобретение предназначено для антивирусной проверки файлов.
Технический результат настоящего изобретения заключается в увеличении качества проверки файла на вредоносность.
Еще один технический результат настоящего изобретения заключается в уменьшении вычислительных ресурсов, используемых для выполнения проверки файла на вредоносность.
Данные результаты достигаются с помощью использования системы обнаружения вредоносного файла, которая содержит: средство сбора данных, предназначенное для формирования на основании собранных данных о поведении выполнения файла, вектора признаков, характеризующих упомянутое поведение, при этом вектор признаков представляет собой свертку собранных данных, сформированную в виде совокупности чисел; средство вычисления параметров, предназначенное для вычисления на основании сформированного средством сбора данных вектора признаков с использованием обученной модели вычисления параметров степени вредоносности, представляющей численное значение, характеризующего вероятность того, что файл может оказаться вредоносным, и предельной степени безопасности, представляющей собой численное значение, характеризующее вероятность того, что файл гарантированно окажется вредоносным, при этом совокупность последовательно вычисленных упомянутых степеней описывается заранее заданным временным законом; средство анализа, предназначенное для вынесения решения об обнаружении вредоносного файла, в случае, когда собранные данные о поведении выполнения файла удовлетворяют заранее заданному критерию определения вредоносности, сформированному на основании вычисленных средством вычисления параметров степени вредоносности и предельной степени безопасности, при этом в качестве упомянутого критерия выступает правило классификации файла по установленной взаимосвязи между степенью вредоносности и предельной степени безопасности.
В другом частном случае реализации системы модель вычисления параметров была предварительно обучена методом машинного обучения на по меньшей мере одном безопасном файле и вредоносном файле.
Еще в одном частном случае реализации системы в качестве метода машинного обучения модели вычисления параметров выступает по меньшей мере: градиентный бустинг на деревьях принятия решений; решающие деревья; метод ближайших соседей kNN; метод опорных векторов.
В другом частном случае реализации системы данные о поведении исполнения файла включают по меньшей мере: выполняемые файлом команды, передаваемые упомянутым командам атрибуты и возвращаемые значения; данные участков оперативной памяти, модифицируемые выполняемым файлом; статические параметры файла.
Еще в одном частном случае реализации системы по меньшей мере вычисляемая степень вредоносности или предельная степень безопасности зависят от степени вредоносности и соответственно предельной степени безопасности, вычисленных в момент запуска файла на основании анализа статических данных файла.
В другом частном случае реализации системы обученная модель вычисления параметров представляет собой совокупность правил вычисления степени вредоносности файла и предельной степени безопасности файла, зависящих от определенных данных о поведении исполнения файла.
Еще в одном частном случае реализации системы временные законы, описывающие совокупность последовательно вычисленных степеней вредоносности и совокупность последовательно вычисленных предельных степеней безопасности, имеют монотонных характер.
В другом частном случае реализации системы в качестве взаимосвязи между степенью вредоносности и предельной степени безопасности выступает по меньшей мере: отличие расстояния между степенью вредоносности и граничными условиями вредоносности от заранее заданного порогового значения; отличие площади, ограниченной в заданном временном интервале между степенью вредоносности и граничными условиями, от заранее заданного порогового значения; отличие скорости взаимного роста кривой, описывающей изменение степени вредоносности и граничных условий вредоносности от времени, от заранее заданного значения.
Еще в одном частном случае реализации системы дополнительно содержит средство корректировки параметров, предназначенное для переобучения модели вычисления параметров на основании анализа вычисленных степени вредоносности и предельной степени безопасности, в результате которого изменения во временных законах, описывающих степень вредоносности и предельную степень безопасности, приводят к тому, что взаимосвязь между значениями, полученными на основании упомянутых законов стремится к максимальной.
В другом частном случае реализации системы модель вычисления параметров переобучают таким образом, чтобы при использовании упомянутой модели, сформированный впоследствии критерий обеспечивал по меньшей мере: точность определения степени вредоносности и предельной степени безопасности была выше, чем при использовании необученной модели вычисления параметров; использование вычислительных ресурсов были ниже, чем при использовании необученной модели вычисления параметров.
Данные результаты достигаются с помощью использования способа обнаружения вредоносного файла, при этом способ содержит этапы, которые реализуются с помощью средств из системы по п. 1 и на которых: формируют на основании собранных данных о поведении исполнения файла, вектор признаков, характеризующих упомянутое поведение, при этом вектор признаков представляет собой свертку собранных данных, сформированную в виде совокупности чисел; вычисляют на основании сформированного вектора признаков с использованием обученной модели вычисления параметров степень вредоносности, представляющую численное значение, характеризующего вероятность того, что файл может оказаться вредоносным, и предельную степень безопасности, представляющую собой численное значение, характеризующее вероятность того, что файл гарантированно окажется вредоносным, при этом совокупность последовательно вычисленных упомянутых степеней описывается заранее заданным временным законом; выполняют предыдущие этапы для разных последовательных временных интервалов исполнения анализируемого файла; выносят решение об обнаружении вредоносного файла, в случае, когда собранные данные о поведении исполнения файла удовлетворяют заранее заданному критерию определения вредоносности, сформированному на основании вычисленных на предыдущем этапе степени вредоносности и предельной степени безопасности, при этом в качестве упомянутого критерия выступает правило классификации файла по установленной взаимосвязи между степенью вредоносности и предельной степени безопасности.
В другом частном случае реализации способа модель вычисления параметров была предварительно обучена методом машинного обучения на по меньшей мере одном безопасном файле и вредоносном файле.
Еще в одном частном случае реализации способа в качестве метода машинного обучения модели вычисления параметров выступает по меньшей мере: градиентный бустинг на деревьях принятия решений; решающие деревья; метод ближайших соседей kNN; метод опорных векторов.
В другом частном случае реализации способа данные о поведении исполнения файла включают по меньшей мере: выполняемые файлом команды, передаваемые упомянутым командам атрибуты и возвращаемые значения; данные участков оперативной памяти, модифицируемые выполняемым файлом; статические параметры файла.
Еще в одном частном случае реализации способа по меньшей мере вычисляемая степень вредоносности или предельная степень безопасности зависят от степени вредоносности и соответственно предельной степени безопасности, вычисленных в момент запуска файла на основании анализа статических данных файла.
В другом частном случае реализации способа обученная модель вычисления параметров представляет собой совокупность правил вычисления степени вредоносности файла и предельной степени безопасности файла, зависящих от определенных данных о поведении исполнения файла.
Еще в одном частном случае реализации способа временные законы, описывающие совокупность последовательно вычисленных степеней вредоносности и совокупность последовательно вычисленных предельных степеней безопасности, имеют монотонных характер.
В другом частном случае реализации способа в качестве взаимосвязи между степенью вредоносности и предельной степени безопасности выступает по меньшей мере: отличие расстояния между степенью вредоносности и граничными условиями вредоносности от заранее заданного порогового значения; отличие площади, ограниченной в заданном временном интервале между степенью вредоносности и граничными условиями, от заранее заданного порогового значения; отличие скорости взаимного роста кривой, описывающей изменение степени вредоносности и граничных условий вредоносности от времени, от заранее заданного значения.
Еще в одном частном случае реализации способа дополнительно переобучают модель вычисления параметров на основании анализа вычисленных степени вредоносности и предельной степени безопасности, в результате которого изменения во временных законах, описывающих степень вредоносности и предельную степень безопасности, приводят к тому, что взаимосвязь между значениями, полученными на основании упомянутых законов стремится к максимальной.
В другом частном случае реализации способа модель вычисления параметров переобучают таким образом, чтобы при использовании упомянутой модели, сформированный впоследствии критерий обеспечивал по меньшей мере: точность определения степени вредоносности и предельной степени безопасности была выше, чем при использовании необученной модели вычисления параметров; использование вычислительных ресурсов были ниже, чем при использовании необученной модели вычисления параметров.
Краткое описание чертежей
Фиг. 1 представляет структурную схему системы машинного обучения модели обнаружения вредоносных файлов.
Фиг. 2 представляет структурную схему способа машинного обучения модели обнаружения вредоносных файлов.
Фиг. 3 представляет примеры динамики изменения степени вредоносности от количества шаблонов поведения.
Фиг. 4 представляет пример схемы связей между элементами шаблонов поведения.
Фиг. 5 представляет структурную схему системы обнаружения вредоносных файлов с использованием обученной модели обнаружения вредоносных файлов.
Фиг. 6 представляет структурную схему способа обнаружения вредоносных файлов с использованием обученной модели обнаружения вредоносных файлов.
Фиг. 7 представляет структурную схему способа обнаружения вредоносного файла.
Фиг. 8 представляет структурную схему способа обнаружения вредоносного файла.
Фиг. 9 представляет примеры динамики изменения степени вредоносности и предельной степени безопасности от количества шаблонов поведения.
Фиг. 10 представляет пример компьютерной системы общего назначения, персональный компьютер или сервер.
Хотя изобретение может иметь различные модификации и альтернативные формы, характерные признаки, показанные в качестве примера на чертежах, будут описаны подробно. Следует понимать, однако, что цель описания заключается не в ограничении изобретения конкретным его воплощением. Наоборот, целью описания является охват всех изменений, модификаций, входящих в рамки данного изобретения, как это определено приложенной формуле.
Описание вариантов осуществления изобретения
Объекты и признаки настоящего изобретения, способы для достижения этих объектов и признаков станут очевидными посредством отсылки к примерным вариантам осуществления. Однако настоящее изобретение не ограничивается примерными вариантами осуществления, раскрытыми ниже, оно может воплощаться в различных видах. Сущность, приведенная в описании, является ничем иным, как конкретными деталями, необходимыми для помощи специалисту в области техники в исчерпывающем понимании изобретения, и настоящее изобретение определяется в объеме приложенной формулы.
Введем ряд определений и понятий, которые будут использоваться при описании вариантов осуществления изобретения.
Вредоносный файл - файл, исполнение которого заведомо способно привести к несанкционированному уничтожению, блокированию, модификации, копирования компьютерной информации или нейтрализации средств защиты компьютерной информации.
Вредоносное поведение исполняемого файла - совокупность действий, которые могут быть выполнены при исполнении упомянутого файла и которые заведомо способны привести к несанкционированному уничтожению, блокированию, модификации, копированию информации или нейтрализации средств защиты компьютерной информации.
Вредоносная активность исполняемого файла - совокупность действий, выполненных упомянутым файлом в соответствии с его вредоносным поведением.
Вычислительное устройство среднестатистического пользователя - гипотетическое (теоретическое) вычислительное устройство, обладающее усредненными характеристиками вычислительных устройств заранее выбранной группы пользователей, на котором исполняются те же приложения, что и на вычислительных устройствах упомянутых пользователей.
Команда, исполняемая вычислительным устройством - совокупность машинных инструкций или инструкций сценариев, исполняемых вычислительным устройством на основании параметров упомянутых инструкций, называемых параметрами команды или параметрами, описывающими упомянутую команду.
Лексический анализ («токенизация», от англ. tokenizing) - процесс аналитического разбора входной последовательности символов на распознанные группы (далее - лексемы), с целью формирования на выходе идентификационных последовательностей (далее - токены).
Токен - идентификационная последовательность, формируемая из лексемы в процессе лексического анализа.
Фиг. 1 представляет структурную схему системы машинного обучения модели обнаружения вредоносных файлов.
Структурная схема системы машинного обучения состоит из средства подготовки обучающих выборок 111, средства формирования журналов поведения 112, средства формирования шаблонов поведения 121, средства формирования функций свертки 122, средства создания модели обнаружения 131, средства машинного обучения модели обнаружения 132, средства вычисления степени вредоносности, средства управления ресурсами.
В одном из вариантов реализации системы упомянутая система машинного обучения модели обнаружения представляет собой клиент-серверную архитектуру, в которой средство подготовки обучающих выборок 111, средство формирования журналов поведения 112, средство формирования шаблонов поведения 121, средство формирования функций свертки 122, средство создания модели обнаружения 131 и средство машинного обучения модели обнаружения 132 работают на стороне сервера, а средство формирования шаблонов поведения 121, средство вычисления степени вредоносности и средство управления ресурсами работают на стороне клиента.
Например, в качестве клиента могут выступать вычислительные устройства пользователя такие, как персональный компьютер, ноутбук, смартфон и т.д., а в качестве сервера могут выступать вычислительные устройства антивирусной компании такие, как распределенные системы серверов, с помощью которых кроме всего прочего предварительно осуществляют сбор и антивирусный анализ файлов, создание антивирусных записей и т.д., при этом система машинного обучения модели обнаружения вредоносных файлов будет использована для обнаружения вредоносных файлов на клиенте, тем самым повышая эффективность антивирусной защиты упомянутого клиента.
Еще в одном примере в качестве как клиента, так и сервера могут выступать вычислительные устройства только антивирусной компании, при этом система машинного обучения модели обнаружения вредоносных файлов будет использована для автоматизированного антивирусного анализа файлов и создания антивирусных записей, тем самым повышая эффективность работы антивирусной компании.
Средство подготовки обучающих выборок 111 предназначено для:
• выборки по меньшей мере одного файла из базы файлов согласно заранее заданным правилам формирования обучающей выборки файлов, впоследствии на основании анализа выбранных файлов средство машинного обучения модели обнаружения 132 будет выполнять обучение модели обнаружения;
• передачи выбранных файлов средству формирования журналов поведения 112.
В одном из вариантов реализации системы в базе файлов хранится по меньшей мере один безопасный файл и один вредоносный файл.
Например, в базе файлов в качестве безопасных файлов могут храниться файлы операционной системы «Windows», а в качестве вредоносных - файлы бэкдоров (англ. backdoor), приложений, осуществляющих несанкционированный доступ к данным и удаленному управлению операционной системой и компьютером в целом. При этом обученная на упомянутых файлах с помощью методов машинного обучения модель обнаружения вредоносных файлов будет способна с высокой точностью (точность тем выше, чем больше файлов было использовано для обучения упомянутой модели обнаружения) обнаруживать вредоносные файлы, обладающие функционалом, схожим с функционалом упомянутых выше бэкдоров.
Еще в одном из вариантов реализации системы дополнительно в базе файлов хранятся по меньшей мере:
• подозрительные файлы (англ. riskware) - файлы, не являющиеся вредоносными, но способные выполнять вредоносные действия;
• неизвестные файлы - файлы, вредоносность которых не была определена и остается неизвестной (т.е. файлы, не являющиеся безопасными, вредоносными, подозрительными и т.д.).
Например, в базе файлов в качестве подозрительных файлов могут выступать файлы приложений удаленного администрирования (к примеру, RAdmin), архивации или шифрования данных (к примеру, WinZip) и т.д.
Еще в одном из вариантов реализации системы в базе файлов хранятся файлы по меньшей мере:
• собранные антивирусными поисковыми роботами (англ. web crawler);
• переданные пользователями.
При этом упомянутые файлы анализируются антивирусными экспертами, в том числе с помощью автоматических средств анализа файлов, для последующего вынесения решение о вредоносности упомянутых файлов.
Например, в базе файлов могут храниться файлы, переданные пользователями со своих вычислительных устройств антивирусным компаниям для проверки на вредоносность, при этом переданные файлы могут быть как безопасными, так и вредоносными, при этом распределение между количеством упомянутых безопасных и вредоносных файлов близко к распределению между количеством всех безопасных и вредоносных файлов, расположенных на вычислительных устройствах упомянутых пользователей (т.е. отношение количества упомянутых безопасных к количеству упомянутых вредоносных файлов отличается от отношения количества всех безопасных к количеству всех вредоносных файлов, расположенных на вычислительных устройствах упомянутых пользователей на величину меньше заданного порогового значения
Figure 00000003
). В отличии от файлов, переданных пользователями (т.е. файлов, субъективно подозрительных), файлы, собранные антивирусными поисковыми роботами, созданными для поиска подозрительных и вредоносных файлов, чаще оказываются вредоносными.
Еще в одном из вариантов реализации системы в качестве критериев, согласно которым выбираются файлы из базы файлов, выступает по меньшей мере одно из условий:
• распределение между безопасными и вредоносными файлами, выбранными из базы файлов, соответствует распределению между безопасными и вредоносными файлами, расположенными на вычислительном устройстве среднестатистического пользователя;
• распределение между безопасными и вредоносными файлами, выбранными из базы файлов, соответствует распределению между безопасными и вредоносными файлами, собранными с помощью антивирусных поисковых роботов;
• параметры файлов, выбранных из базы файлов, соответствуют параметрам файлов, расположенных на вычислительном устройстве среднестатистического пользователя;
• количество выбранных файлов соответствует заранее заданному значению, а сами файлы выбраны случайным образом.
Например, база файлов содержит 100000 файлов, среди которых 40% безопасных файлов и 60% вредоносных файлов. Из базы файлов выбирают 15000 файлов (15% от общего количества файлов, хранящихся в базе файлов) таким образом, чтобы распределение между выбранными безопасными и вредоносными файлами соответствовало распределению между безопасными и вредоносными файлами, расположенными на вычислительном устройстве среднестатистического пользователя и составляло 95 к 5. С этой целью из базы файлов случайным образом выбирают 14250 безопасных файлов (35,63% от общего числа безопасных файлов) и 750 вредоносных файлов (1,25% от общего числа вредоносных файлов).
Еще в одном примере база файлов содержит 1250000 файлов, среди которых 95% безопасных файлов и 5% вредоносных файлов, т.е. распределение между безопасными и вредоносными файлами, хранящимися в базе файлов, соответствует распределению между безопасными и вредоносными файлами, расположенными на вычислительном устройстве среднестатистического пользователя. Среди упомянутых файлов случайным образом выбирают 5000 файлов, среди которых с большой вероятностью окажется ~4750 безопасных файлов и ~250 вредоносных файлов.
Еще в одном из вариантов реализации системы в качестве параметров файла выступает по меньшей мере:
• вредоносность файла, характеризующая, является ли файл безопасным, вредоносным, потенциально опасным или поведение вычислительной системы при исполнении файла не определено и т.д.;
• количество команд, выполненных вычислительным устройством во время исполнения файла;
• размер файла;
• приложения, использующие файл.
Например, из базы файлов выбирают вредоносные файлы, представляющие собой сценарии на языке «ActionScript», выполняемые приложением «Adobe Flash», и не превышающие размер в 5КБ.
Еще в одном из вариантов реализации системы дополнительно средство подготовки обучающих выборок 111 предназначено для:
• выборки по меньшей мере еще одного файла из базы файлов согласно заранее заданным правилам формирования тестовой выборки файлов, при этом впоследствии на основании анализа выбранных файлов средство машинного обучения модели обнаружения 132 будет выполнять проверку обученной модели обнаружения;
• передачи выбранных файлов средству формирования журналов поведения 112.
Например, база файлов содержит 75000 файлов, среди которых 20% безопасных файлов и 80% вредоносных файлов. Изначально из базы файлов выбирают 12500 файлов, среди которых 30% безопасных файлов и 70% вредоносных файлов, при этом впоследствии на основании анализа выбранных файлов средство машинного обучения модели обнаружения 132 будет выполнять обучение модели обнаружения, затем из оставшихся 62500 файлов выбирают 2500 файлов, среди которых 60% безопасных файлов и 40% вредоносных файлов, при этом впоследствии на основании анализа выбранных файлов средство машинного обучения модели обнаружения 132 будет выполнять проверку обученной модели обнаружения. Данные, сформированные описанным выше образом, называется набором данных для перекрестной проверки (англ. cross-validation set of data).
Средство формирования журналов поведения 112 предназначено для:
• перехвата по меньшей мере одной исполняемой команды по меньшей мере во время:
Figure 00000001
исполнения полученного файла,
Figure 00000001
эмуляции исполнения полученного файла, при этом эмуляция исполнения файла включает в том числе открытие упомянутого файла (например, открытие сценария интерпретатором);
• определения для каждой перехваченной команды по меньшей мере одного параметра, описывающего упомянутую команду;
• формирования на основании перехваченных команд и определенных параметров журнала поведения полученного файла, при этом журнал поведения представляет собой совокупность перехваченных команд (далее - команда) из файла, где каждой команде соответствует по меньшей мере один определенный параметр, описывающий упомянутую команду (далее - параметр).
Например, перехваченные во время исполнения вредоносного файла, собирающего пароли и передающего их по компьютерной сети, команды и вычисленные параметры упомянутых команд могут иметь вид:
Figure 00000004
В одном из вариантов реализации системы перехват команд из файла осуществляется с помощью по меньшей мере:
• специализированного драйвера;
• средства отладки (англ. debugger);
• гипервизора (англ. hypervisor).
Например, перехват команд при исполнении файла и определение их параметров осуществляется с помощью драйвера, использующего перехват сплайсингом (англ. splicing) точки входа (англ. entry point) WinAPI-функции.
Еще в одном примере перехват команд при эмуляции работы файла осуществляется непосредственно средствами эмулятора, выполняющего упомянутую эмуляцию, который определяет параметры команды, которую требуется эмулировать.
Еще в одном примере перехват команд при исполнении файла на виртуальной машине осуществляется средствами гипервизора, который определяет параметры команды, которую требуется эмулировать.
Еще в одном из вариантов реализации системы в качестве перехваченных команд из файла выступают по меньшей мере:
• API-функции;
• совокупности машинных инструкций, описывающих заранее заданный набор действий (макрокоманд).
Например, очень часто вредоносные программы осуществляют поиск некоторых файлов и модификацию их атрибутов, для чего выполняется последовательность команд, таких как:
Figure 00000005
, что может быть в свою очередь описано лишь одной командой
Figure 00000006
Еще в одном из вариантов реализации системы каждой команде ставится в соответствие свой уникальный идентификатор.
Например, всем WinAPI функциям могут быть поставлены в соответствие числа в диапазоне от 0×0000 до 0×8000, при этом каждой WinAPI-функции соответствует свое уникальное число (к примеру,
Figure 00000007
Еще в одном из вариантов реализации системы нескольким командам, описывающим схожие действия, ставится в соответствие единый идентификатор.
Например, всем командам, таким как ReadFile, ReadFileEx, ifstream, getline, getchar и т.д., описывающим чтение данных из файла, ставится в соответствие идентификатор
Figure 00000008
(0x70F0).
Средство формирования шаблонов поведения 121 предназначено для:
• формирования по меньшей мере одного шаблона поведения на основании команд и параметров, выбранных из журнала поведения, при этом журнал поведения представляет собой совокупность исполняемых команд (далее - команда) из файла, где каждой команде соответствует по меньшей мере один параметр, описывающий упомянутую команду (далее - параметр), шаблон поведения представляет собой набор из по меньшей мере одной команды и такого параметра, который описывает все команды из упомянутого набора (далее - элементы шаблона поведения);
• передачи сформированных шаблонов поведения средству формирования функций свертки 122;
Например, из журнала поведения выбирают следующие команды ci (от англ. command) и параметры
Figure 00000009
(от англ. parameter):
Figure 00000010
На основании выбранных команд и параметров формируют шаблоны поведения, содержащие по одной команде и одному параметру, описывающему упомянутую команду:
Figure 00000011
Затем на основании сформированных шаблонов дополнительно формируют шаблоны поведения, содержащие по одному параметру и все команды, описываемые упомянутым параметром:
Figure 00000012
Затем на основании сформированных шаблонов дополнительно формируют шаблоны поведения, содержащие по несколько параметров и все команды, одновременно описываемые упомянутыми параметрами:
Figure 00000013
В одном из вариантов реализации системы команды и параметры из журнала поведения выбирают на основании правил, по которым по меньшей мере выбирают:
• последовательно каждую i-ую команду и описывающие ее параметры, при этом шаг i является заранее заданным;
• команды, выполненные через заранее заданный промежуток времени (например, каждую десятую секунду) после предыдущей выбранной команды, и описывающие их параметры;
• команды и описывающие их параметры, выполненные в заранее заданном временном диапазоне с начала исполнения файла;
• команды из заранее заданного списка и описывающие их параметры;
• параметры из заранее заданного списка и описываемые упомянутыми параметрами команды;
• первые или случайные k параметров команд, в случае, когда количество параметров команд больше заранее заданного порогового значения.
Например, из журнала поведения выбирают все команды для работы с жестким диском (такие как, CreateFile, ReadFile, WriteFile, DeleteFile, GetFileAttribute и т.д.) и все параметры, описывающие выбираемые команды.
Еще в одном примере из журнала поведения выбирают каждую тысячную команду и все параметры, описывающие выбираемые команды.
В одном из вариантов реализации системы журналы поведения заранее сформированы из по меньшей мере двух файлов, один из которых -безопасный файл, а другой - вредоносный файл.
Еще в одном из вариантов реализации системы каждому элементу шаблона поведения ставится в соответствие такая характеристика, как тип элемента шаблона поведения. В качестве типа элемента шаблона поведения (команды или параметра) выступает по меньшей мере:
• в случае, если элемент шаблона поведения может быть выражен в виде числа - «численный диапазон»
например, для элемента шаблона поведения, представляющего собой параметр
Figure 00000014
тип упомянутого элемента шаблона поведения может быть «численное значение от 0×0000 до 0×FFFF»,
• в случае, если элемент шаблона поведения может быть выражен в виде строки - «строка»
например, для элемента шаблона поведения, представляющего собой команду connect, тип упомянутого элемента шаблона поведения может быть «строка размером менее 32 символов»,
• в случае, если элемент шаблона поведения может быть выражен в виде данных, описываемых заранее заданной структурой данных, тип упомянутого элемента шаблона поведения может быть «структура данных» например, для элемента шаблона поведения, представляющего собой параметр
Figure 00000015
команды
Figure 00000016
тип упомянутого элемента шаблона поведения может быть «структура данных MD5».
Еще в одном из вариантов реализации системы дополнительно в шаблон поведения в качестве элементов шаблона поведения включаются токены, сформированные на основании лексического анализа упомянутых элементов шаблона поведения с использованием по меньшей мере:
• заранее заданных правил формирования лексем,
• заранее обученной рекурсивной нейронной сети (англ. recurrent neural network).
Например, с помощью лексического анализа параметра
Figure 00000017
на основании правил формирования лексем:
• если строка содержит путь к файлу, определить диск, на котором расположен файл;
• если строка содержит путь к файлу, определить папки, в которых расположен файл;
• если строка содержит путь к файлу, определить расширение файла;
где в качестве лексем выступают:
• пути к файлу;
• папки, в которых расположены файлы;
• имена файлов;
• расширения файлов;
могут быть сформированы токены:
«пути к файлу» →
Figure 00000018
«папки, в которых расположены файлы» →
Figure 00000019
«расширения файлов» →
Figure 00000020
Еще в одном примере с помощью лексического анализа параметров
Figure 00000021
на основании правила формирования лексемы:
• если параметры представляют собой IP-адреса, определить битовую маску (или ее аналог, выраженный через метасимволы), описывающую упомянутые IP-адреса (т.е. такую битовую маску М, для которой верно равенство М ∧ IP=const для всех упомянутых IP);
может быть сформирован токен:
Figure 00000022
Еще в одном примере из всех доступных параметров, в качестве которых выступают числа, формируют токены чисел в заранее заданных диапазонах:
23, 16, 7224, 6125152186, 512, 2662162, 363627632, 737382, 52,
2625, 3732, 812, 3671, 80, 3200
сортируют по диапазонам чисел:
от 0 до 999
→ {16, 23, 52, 80, 512, 812},
от 1000 до 9999
→ {2625, 3200, 3671, 7224},
от 10000
→ {737382, 2662162, 363627632, 6125152186}
Еще в одном из вариантов реализации системы токены формируются из элементов шаблона поведения, в качестве которых выступают строки.
Например, шаблон поведения представляет собой путь к файлу, содержащему названия диска, директории, файла, расширения файла и т.д. В этом случае токен может представлять собой название диска и расширение файла.
Figure 00000023
Средство формирования функций свертки 122 предназначено для:
• формирования такой функции свертки от шаблона поведения, что обратная функция свертки от результата такой функции свертки над полученным шаблоном поведения будет иметь степень схожести с полученным шаблоном поведения больше заданного значения, т.е.
Figure 00000024
где:
Figure 00000025
- шаблон поведения,
Figure 00000026
- функция свертки,
Figure 00000027
- обратная функция свертки.
• передачи сформированной функции свертки средству машинного обучения модели обнаружения 132.
В одном из вариантов реализации системы средство формирования функций свертки дополнительно предназначено для:
• вычисления признакового описания (англ. feature vector) шаблона поведения на основании полученного шаблона поведения, при этом признаковое описание шаблона поведения может быть выражено как сумма хэш-сумм от элементов шаблона поведения;
• формирования функции свертки от признакового описания шаблона поведения, при этом функция свертки представляет собой хэш-функцию, такую, что степень схожести вычисленного признакового описания и результата обратной хэш-функции от результата упомянутой хэш-функции от вычисленного признакового описания больше заранее заданного значения.
Еще в одном из вариантов реализации системы функция свертки формируется методом метрического обучения (англ. metric learning), т.е. таким образом, что расстояние между свертками, полученными с помощью упомянутой функции свертки для шаблонов поведения имеющих степень схожести больше заранее заданного порогового значения было меньше заранее заданного порогового значения, а для шаблонов поведения имеющих степень схожести менее заранее заданного порогового значения -больше заранее заданного порогового значения.
Например, признаковое описание шаблона поведения может вычисляться следующим образом:
• предварительно создают пустой битовый вектор, состоящий из 100000 элементов (где для каждого элемента вектора зарезервирован один бит информации);
• для хранения данных о командах ci из шаблона поведения r отводят 1000 элементов, оставшиеся 99000 элементов отводят для параметров ci из шаблона поведения r, при этом для строковых параметров отводят 50000 элементов (с 1001 элемента по 51000 элемент), для численных - 25000 элементов (с 51001 элемента по 76000 элемент);
• каждой команде ci из шаблона поведения r ставят в соответствие некоторое число xi от 0 до 999, и устанавливают соответствующий бит в созданном векторе
ν[xi]=true;
• для каждого параметра pi из шаблона поведения г вычисляют хэш-сумму по формуле:
Figure 00000028
для строк:
Figure 00000029
Figure 00000028
для чисел:
Figure 00000030
Figure 00000028
для остального:
Figure 00000031
, и в зависимости от вычисленной хэш-суммы устанавливают соответствующий бит в созданном векторе
ν[yi]=true;
Описанный битовый вектор с установленными элементами представляет собой признаковое описание шаблона поведения r.
Еще в одном из вариантов реализации системы признаковое описание шаблона поведения вычисляется согласно формуле:
Figure 00000032
где:
b - основание позиционной системы счисления (например, для бинарного вектора b=2, для вектора, представляющего собой строку, т.е. совокупность символов, b=8),
ri - i-ый элемент шаблона поведения,
h - хэш-функция, при этом 0≤h(ri)<b.
Например, признаковое описание шаблона поведения может вычисляться следующим образом:
• предварительно создают еще один (отличный от предыдущего примера) пустой битовый вектор, состоящий из 1000 элементов (где для каждого элемента вектора зарезервирован один бит информации);
• для каждого элемента шаблона ri из шаблона поведения r вычисляют хэш-сумма по формуле:
Figure 00000033
, и в зависимости от вычисленной хэш-суммы устанавливают соответствующий бит в созданном векторе
ν[xi]=true;
Еще в одном из вариантов реализации системы признаковое описание шаблона поведения представляет собой фильтр Блума.
Например, признаковое описание шаблона поведения может вычисляться следующим образом:
• предварительно создают еще один (отличный от предыдущих примеров) пустой вектор, состоящий из 100000 элементов;
• для каждого элемента шаблона ri из шаблона поведения r вычисляют по меньшей мере две хэш-суммы с помощью набора хэш-функций {hj} по формуле:
xij=hj(ri)
где:
hj(ri)=crc32(ri),
hj(0)=constj
, и в зависимости от вычисленных хэш-сумм устанавливают соответствующие элементы в созданном векторе
ν[xij]=true.
Еще в одном из вариантов реализации системы размер результата сформированной функции свертки от признакового описания шаблона поведения меньше размера упомянутого признакового описания шаблона поведения.
Например, признаковое описание представляет собой битовый вектор, содержащий 100000 элементов, и тем самым имеет размер 12500 байт, а результат функции свертки от упомянутого признакового описания представляет собой набор из 8 MD5 хэш-сумм и тем самым имеет размер 256 байт, т.е. ~2% от размера признакового описания.
Еще в одном из вариантов реализации системы степень схожести признакового описания и результата обратной хэш-функции от результата упомянутой хэш-функции от вычисленного признакового описания представляет собой численное значение в диапазоне от 0 до 1 и вычисляется согласно формуле:
Figure 00000034
где:
Figure 00000035
обозначает совпадение
Figure 00000036
и
Figure 00000037
- совокупность результатов хэш-функций от элементов шаблона поведения,
Figure 00000038
- совокупность результатов обратной хэш-функции от результата хэш-функции от элементов шаблона поведения,
Figure 00000039
- i-ый элемент шаблона поведения,
h - хэш-функция,
w - степень схожести.
Например, вычисленное признаковое описание представляет собой битовый вектор
Figure 00000040
, результат функции свертки от упомянутого признакового описания
Figure 00000041
, а результат обратной функции свертки от полученного выше результата
Figure 00000042
(где жирным шрифтом отмечены элементы, отличные от признакового описания). Таким образом, схожесть признакового описания и результата обратной функции свертки составляет 0,92.
Еще в одном из вариантов реализации системы упомянутая хэш-функция, принимающая в качестве параметра элемент шаблона поведения, зависит от типа элемента шаблона поведения:
Figure 00000043
Например, для вычисления хэш-суммы от параметра из шаблона поведения, представляющего собой строку, содержащую путь к файлу, используется хэш-функция CRC32, любую другую строку - алгоритм Хаффмана, набор данных - хэш-функция MD5.
Еще в одном из вариантов реализации системы формирование функции свертки от признакового описания шаблона поведения выполняется через автокодировщик (англ. autoencoder), при этом в качестве входных данных выступают элементы упомянутого признакового описания шаблона поведения, а в качестве выходных данных - данных, имеющие коэффициент схожести с входными данными выше заранее заданного порогового значения.
Средство создания модели обнаружения 131 предназначено для:
• создания модели обнаружения вредоносных файлов, которое включает в себя по меньшей мере:
Figure 00000044
выбор метода машинного обучения модели обнаружения;
Figure 00000044
инициализации параметров модели обучения, при этом параметры модели обучения, проинициализированные до начала машинного обучения модели обнаружения, называются гиперпарамерами (англ. hyperparameter);
в зависимости от параметров файлов, выбранных средством подготовки обучающих выборок 111;
• передачи созданной модели обучения средству машинного обучения модели обнаружения 132.
Например, при выборе метода машинного обучения модели обнаружения вначале выносится решение следует ли использовать в качестве модели обнаружения искусственную нейронную сеть или случайные леса (англ. random forest), затем, в случае выбора случайного леса, выбирается разделяющий критерий для узлов случайного леса; или в случае выбора искусственной нейронной сети, выбирается метод численной оптимизации параметров искусственной нейронной сети. При этом решение о выборе того или иного метода машинного обучения принимается на основании эффективности упомянутого метода при обнаружении вредоносных файлов (т.е. количества ошибок первого и второго рода, возникающих при обнаружении вредоносных файлов) с использованием входных данных (шаблонов поведения) заранее заданного вида (т.е. структуры данных, количества элементов шаблонов поведения, производительности вычислительного устройства на котором выполняется поиск вредоносных файлов, доступных ресурсов вычислительного устройства и т.д.).
Еще в одном примере метод машинного обучения модели обнаружения выбирают на основании по меньшей мере:
• перекрестной проверки, скользящего контроля, кросс-валидации (англ. cross-validation, CV);
• математического обоснования критериев AIC, BIC и т.д.;
• А/В тестирования (англ. А/В testing, split testing);
• стекинга.
Еще в одном примере в случае невысокой производительности вычислительного устройства выбирают случайные леса, в противном случае - искусственную нейронную сеть.
В одном из вариантов реализации системы выполняется машинное обучение заранее созданной необученной модели обнаружения (т.е. модели обнаружения, у которой параметры упомянутой модели не позволяют получить на основании анализа входных данных выходных данных с точностью выше заранее заданного порогового значения).
Еще в одном из вариантов реализации системы в качестве метода машинного обучения модели обнаружения выступает по меньшей мере метод:
• градиентный бустинг на деревьях принятия решений (англ. decision-tree-based gradient boosting);
• деревья принятия решений (англ. decision trees);
• ближайших соседей kNN (англ. K-nearest neighbor method);
• опорных векторов (англ. support vector machine, SVM).
Еще в одном из вариантов реализации системы дополнительно средство создания модели обнаружения 131 предназначено для создания модели обнаружения по запросу от средства машинного обучения 132, при этом определенные гиперпараметры и методы машинного обучения выбираются отличными от гиперпараметров и методов машинного обучения, выбранных для предыдущей модели обнаружения.
Средство машинного обучения модели обнаружения 132 предназначено для обучения модели обнаружения, в которой параметры модели обнаружения вычисляются с использованием полученной функции свертки над полученными шаблонами поведения, где модель обнаружения представляет собой совокупность правил вычисления степени вредоносности файла на основании по меньшей мере одного шаблона поведения с использованием вычисленных параметров упомянутой модели обнаружения.
Например, модель обнаружения обучают на известном наборе файлов, выбранных средством подготовки обучающих выборок 111, при этом упомянутый набор файлов содержит 60% безопасных файлов и 40% вредоносных файлов.
В одном из вариантов реализации системы степень вредоносности файла представляет собой численное значение от 0 до 1, при этом 0 означает, что упомянутый файл безопасный, 1 - вредоносный.
Еще в одном из вариантов реализации системы выбирается метод обучения модели обнаружения, обеспечивающий монотонность изменения степени вредоносности файла в зависимости от изменения количества шаблонов поведения, сформированных на основании анализа журнала поведения.
Например, монотонное изменение степени вредоносности файла приводит к тому, что при анализе каждого последующего шаблона поведения, вычисленный степень вредоносности оказывается не меньше чем, вычисленный ранее степень вредоносности (к примеру, после анализа 10ого шаблона поведения вычисленный степень вредоносности равен 0,2, после анализа 50ого шаблона поведения - 0,4, а после анализа 100ого шаблона поведения - 0,7).
Еще в одном из вариантов реализации системы дополнительно средство машинного обучения модели обнаружения 132 предназначено для:
• выполнения проверки обученной модели обнаружения на полученных журналах поведения, сформированных на основании анализа файлов из тестовой выборки файлов, с целью определить корректность определения вредоносности файлов из тестовой выборки файлов;
• в случае отрицательного результата проверки передачи запроса по меньшей мере:
Figure 00000044
средству подготовки обучающих выборок 111 для подготовки выборки файлов, отличной от текущей, на которой производилось обучение модели обнаружения;
Figure 00000044
средству создания модели обнаружения 131 для создания новой модели обнаружения, отличной от текущей.
При этом проверка обученной модели обнаружения заключается в следующем. Упомянутая модель обнаружения была обучена на основании набора выбранных средством подготовки обучающих выборок 111 файлов для которых было известно являются ли они безопасными или вредоносными. Для того, чтобы проверить, что модель обнаружения вредоносных файлов была обучена корректно, т.е. упомянутая модель обнаружения сможет обнаруживать вредоносные файлы и пропускать безопасные файлы выполняется проверка упомянутой модели. С этой целью с помощью упомянутой модели обнаружения определяют являются ли файлы из другого набора выбранных средством подготовки обучающих выборок 111 файлов вредоносными, при этом являются ли упомянутые файлы вредоносными известно заранее. Таким образом, определяют сколько вредоносных файлов было «пропущено» и сколько безопасных файлов было обнаружено. Если количество пропущенных вредоносных и обнаруженных безопасных файлов больше заранее заданного порогового значения, то упомянутая модель обнаружения считается некорректно обученной и требуется выполнить ее повторное машинное обучение (например, на другой обучающей выборке файлов, с использованием отличных от предыдущих значений параметров модели обнаружения и т.д.).
Например, при выполнении проверки обученной модели проверяется количество ошибок первого и второго рода при обнаружении вредоносных файлов из тестовой выборки файлов. Если количество упомянутых ошибок превышает заранее заданное пороговое значение, то выбирается новая обучающая и тестовая выборка файлов и создается новая модель обнаружения.
Еще в одном примере обучающая выборка файлов содержала 10000 файлов из которых 8500 было вредоносными, а 1500 - безопасными. После того как модель обнаружения была обучена, ее проверили на тестовой выборке файлов, содержащей 1200 файлов, из которых 350 было вредоносными, а 850 - безопасными. По результатам выполненной проверки 15 из 350 вредоносных файлов обнаружить не удалось (4%), в тоже время 102 из 850 безопасных файлов (12%) ошибочно было признано вредоносными. В случае, когда количество не обнаруженных вредоносных файлов превышает 5% или случайно обнаруженных безопасных файлов превышает 0,1% обученная модель обнаружения признается некорректно обученной.
В одном из вариантов реализации системы дополнительно журнал поведения системы формируется на основании ранее сформированного журнала поведения системы и команд, перехваченных после формирования упомянутого журнала поведения системы.
Например, после начала исполнения файла, для которого требуется вынести вердикт о вредоносности или безопасности упомянутого файла, перехваченные выполняемые команды и описывающие их параметры записываются в журнал поведения. На основании анализа упомянутых команд и параметров вычисляется степень вредоносности упомянутого файла. Если по результатам анализа решения о признании файла вредоносным или безопасным вынесено не было, перехват команд может быть продолжен. Перехваченные команды и описывающие их параметры дописываются в старый журнал поведения или в новый журнал поведения. В первом случае степень вредоносности вычисляется на основании анализа всех команда и параметров, записанных в журнале поведения, т.е. и тех, которые ранее использовались для вычисления степени вредоносности.
Средство вычисления степени вредоносности предназначено для:
• вычисления степени вредоносности на основании полученного от средства формирования журнала поведения 112 журнала поведения и от средства машинного обучения модели обнаружения 132 модели обнаружения, при этом степень вредоносности файла представляет собой количественную характеристику (например, лежащую в диапазоне от 0 - файл обладает исключительно безопасным поведением до 1 - упомянутый файл обладает заранее заданным вредоносным поведением), описывающую вредоносное поведение исполняемого файла;
• передачи вычисленного степени вредоносности средству управления ресурсами.
Средство управления ресурсами предназначено для на основании анализа полученного степени вредоносности выделения вычислительных ресурсов компьютерной системы для использования их при обеспечении безопасности компьютерной системы.
В одном из вариантов реализации системы в качестве вычислительных ресурсов компьютерной системы выступают по меньшей мере:
• объем свободной оперативной памяти;
• объем свободного места на жестких дисках;
• свободное процессорное время (кванты процессорного времени), которое может быть потрачено на антивирусную проверку (например, с большей глубиной эмуляции).
Еще в одном из вариантов реализации системы анализ степени вредоносности заключается в определении динамики изменения значения степени вредоносности после каждого из предыдущих вычислений степени вредоносности и в случае по меньшей мере:
• увеличение значения степени вредоносности - выделения дополнительных ресурсов компьютерной системы;
• уменьшение значения степени вредоносности - освобождение ранее выделенных ресурсов компьютерной системы.
Фиг. 2 представляет структурную схему способа машинного обучения модели обнаружения вредоносных файлов.
Структурная схема способа машинного обучения модели обнаружения вредоносных файлов содержит этап 211, на котором подготавливают обучающие выборки файлов, этап 212, на котором формируют журналы поведения, этап 221, на котором формируют шаблоны поведения, этап 222, на котором формируют функции свертки, этапа 231, на котором создают модель обнаружения, этапа 232, на котором обучаю модель обнаружения, этапа, на котором отслеживают поведение компьютерной системы, этап, на котором вычисляют степень вредоносности, этап, на котором управляют ресурсами компьютерной системы.
На этапе 211 с помощью средства подготовки обучающих выборок 111 выбирают по меньшей мере один файл из базы файлов согласно заранее заданным критериям, при этом на основании выбранных файлов на этапе 232 будут выполнять обучение модели обнаружения.
На этапе 212 с помощью средства формирования журналов поведения 112:
• перехватывают по меньшей мере одну команду по меньшей мере во время:
Figure 00000044
исполнения выбранного на этапе 211 файла,
Figure 00000044
эмуляции работы выбранного на этапе 211 файла;
• определяют для каждой перехваченной команды по меньшей мере один параметр, описывающий упомянутую команду;
• формируют на основании перехваченных команд и определенных параметров журнал поведения полученного файла, при этом журнал поведения представляет собой совокупность перехваченных команд (далее - команда) из файла, где каждой команде соответствует по меньшей мере один определенный параметр, описывающий упомянутую команду (далее - параметр).
На этапе 221 с помощью средства формирования шаблонов поведения 121 формируют по меньшей мере один шаблон поведения на основании команд и параметров, выбранных из журнала поведения, сформированного на этапе 212, при этом журнал поведения представляет собой совокупность исполняемых команд (далее - команда) из файла, где каждой команде соответствует по меньшей мере один параметр, описывающий упомянутую команду (далее - параметр), шаблон поведения представляет собой набор из по меньшей мере одной команды и такого параметра, который описывает все команды из упомянутого набора.
На этапе 222 с помощью средства формирования функций свертки 122 формируют такую функцию свертки от шаблона поведения, сформированного на этапе 221, что обратная функция свертки от результата такой функции свертки над упомянутым шаблоном поведения будет иметь степень схожести с упомянутым шаблоном поведения больше заданного значения.
На этапе 231 с помощью средства создания модели обнаружения 131 создают модель обнаружения для чего по меньшей мере:
• выбирают метод машинного обучения модели обнаружения;
• инициализируют параметры модели обучения, при этом параметры модели обучения, проинициализированные до начала машинного обучения модели обнаружения, называются гиперпарамерами (англ. hyperparameter),
в зависимости от параметров файлов, выбранных на этапе 211.
На этапе 232 с помощью средства машинного обучения модели обнаружения 132 обучают модель обнаружения, созданную на этапе 231, в которой параметры упомянутой модели обнаружения вычисляются с использованием функции свертки, сформированной на этапе 222, над шаблонами поведения, сформированными на этапе 221, где модель обнаружения где модель обнаружения представляет собой совокупность правил вычисления степени вредоносности файла на основании по меньшей мере одного шаблона поведения с использованием вычисленных параметров упомянутой модели обнаружения.
С помощью средства отслеживания поведения:
• перехватывают по меньшей мере одну команду, исполняемую файлами, работающими в компьютерной системе;
• формируют на основании перехваченных команд журнал поведения системы.
С помощью средства вычисления степени вредоносности вычисляют степень вредоносности на основании журнала поведения системы, сформированного на предыдущем этапе, и модели обнаружения, обученной на этапе 232.
С помощью средства управления ресурсами на основании анализа степени вредоносности, вычисленного на предыдущем этапе, выделяют вычислительные ресурсы для использования их при обеспечении безопасности компьютерной системы.
Фиг. 3 представляет примеры динамики изменения степени вредоносности от количества шаблонов поведения.
Примеры динамики изменения степени вредоносности от количества шаблонов поведения содержит график динамики произвольного изменения степени вредоносности от количества шаблонов поведения, сформированных во время исполнения вредоносного файла 311, график динамики монотонного изменения степени вредоносности от количества шаблонов поведения, сформированных во время исполнения вредоносного файла 312, график динамики произвольного изменения степени вредоносности от количества шаблонов поведения, сформированных во время исполнения безопасного файла 321, график динамики монотонного изменения степени вредоносности от количества шаблонов поведения, сформированных во время исполнения безопасного файла 322.
В одном из вариантов реализации системы степень вредоносности исполняемого файла принимает значение в диапазоне от 0 (упомянутый файл обладает исключительно безопасным поведением) до 1 (упомянутый файл обладает заранее заданным вредоносным поведением).
На графике 311 изображена динамика произвольного изменения степени вредоносности от количества шаблонов поведения, сформированных во время исполнения вредоносного файла.
Изначально, при исполнении упомянутого файла количество сформированных шаблонов поведения невелико, вдобавок вредоносная активность исполняемого файла может отсутствовать или быть минимальной (например, выполняется инициализация данных, свойственная многим, в том числе и безопасным файлам), поэтому вычисленный степень вредоносности незначительно отличается от 0 и не превышает заранее заданного порогового значения (далее - критерия безопасности) при превышении которого поведение исполняемого файла перестанет считать безопасным (на графике упомянутое пороговое значение обозначается пунктирной линией).
Однако со временем вредоносная активность исполняемого файла возрастает и степень вредоносности начинает стремиться к 1, превышая критерий безопасности, при этом степень вредоносности может не достигать заранее заданного порогового значения (далее - критерий вредоносности) при превышении которого поведение исполняемого файла будет считаться вредоносным (на графике упомянутое пороговое значение обозначается штриховой линией).
После периода роста вредоносная активность может прекращаться и степень вредоносности опять будет стремиться к 0 (момент А). В определенный момент степень вредоносности становится больше критерия вредоносности (момент В) и поведение исполняемого файла признается вредоносным и как следствие сам файл признается вредоносным.
При этом момент признания файла вредоносным может произойти значительно позже начала роста вредоносной активности, поскольку описанный подход хорошо реагирует на резкий рост степени вредоносности, что происходит чаще всего при длительной, явно выраженной вредоносной активности исполняемого файла.
В случае, когда вредоносная активность возникает эпизодически (левая сторона графика 311), вычисленный степень вредоносности может не достигать значения, после которого выносится решение о вредоносности поведения исполняемого файла и, следовательно, вредоносности самого исполняемого файла.
В случае, когда степень вредоносности вычисляется не на основании каждого сформированного шаблона поведения (например, из-за того, что производительность вычислительного устройства является невысокой), возможна ситуация, когда степень вредоносности будет вычислен в момент А (когда начинается вредоносная активность) и момент С (когда завершается вредоносная активность), и не будет вычислен в момент В (когда происходит вредоносная активность), из-за чего вычисленные степени вредоносности не превысят критерия вредоносности, активность исполняемого файла не будет признана вредоносной и, следовательно, вредоносный файл не будет обнаружен.
На графики 312 изображена динамика монотонного изменения степени вредоносности от количества шаблонов поведения, сформированных во время исполнения вредоносного файла.
Изначально, при исполнении упомянутого файла количество сформированных шаблонов поведения невелико, вдобавок вредоносная активность исполняемого файла может отсутствовать или быть минимальной (например, выполняется инициализация данных, свойственная многим, в том числе и безопасным файлам), поэтому вычисленный степень вредоносности незначительно отличается от 0 и не превышает заранее заданного порогового значения (далее - критерия безопасности) при превышении которого поведение исполняемого файла перестанет считать безопасным (на графике упомянутое пороговое значение обозначается пунктирной линией).
Однако со временем вредоносная активность исполняемого файла возрастает и степень вредоносности начинает стремиться к 1, превышая критерий безопасности, при этом степень вредоносности может не достигать заранее заданного порогового значения (далее - критерий вредоносности) при превышении которого поведение исполняемого файла будет считаться вредоносным (на графике упомянутое пороговое значение обозначается штриховой линией).
После периода роста (моменты А-В) вредоносная активность может прекращаться (моменты В-А), но степень вредоносности уменьшаться уже не будет, а при любой вредоносной активности исполняемого файла будет только продолжать расти. В определенный момент степень вредоносности становится больше критерия вредоносности (момент D) и поведение исполняемого файла признается вредоносным и как следствие сам файл признается вредоносным.
При этом момент признания файла вредоносным может произойти сразу после выявления вредоносной активности, поскольку описанный подход хорошо реагирует на плавный рост степени вредоносности, что происходит как при длительной, явно выраженной вредоносной активности исполняемого файла, так и при частых эпизодической слабовыраженной вредоносной активности.
В случае, когда вредоносная активность возникает эпизодически (левая сторона графика 312), вычисленный степень вредоносности со временем может достигать значения, после которого выносится решение о вредоносности поведения исполняемого файла и вредоносности самого исполняемого файла.
В случае, когда степень вредоносности вычисляется не на основании каждого сформированного шаблона поведения (например, из-за того, что производительность вычислительного устройства является невысокой), возможна ситуация, когда степень вредоносности будет вычислен в момент А (когда начинается вредоносная активность) и момент С (когда завершается вредоносная активность), и не будет вычислен в момент В (когда происходит вредоносная активность), тем, не менее, поскольку степень вредоносности меняется монотонно вычисленные степени вредоносности только увеличивают свои значения и в момент С степень вредоносности превысит критерий вредоносности, активность исполняемого файла будет признана вредоносной и, следовательно, вредоносный файл будет обнаружен.
На графике 321 изображена динамика произвольного изменения степени вредоносности от количества шаблонов поведения, сформированных во время исполнения безопасного файла.
Изначально, при исполнении упомянутого файла количество сформированных шаблонов поведения невелико, вдобавок вредоносная активность как таковая у исполняемого файла отсутствует, но могут выполняться «подозрительные» команды, выполняемые также и при исполнении вредоносных файлов (например, удаление файлов, передача данных по компьютерной сети и т.д.), поэтому вычисленный степень вредоносности отличается от 0 и не превышает заранее заданного порогового значения (далее - критерия безопасности) при превышении которого поведение исполняемого файла перестанет считать безопасным (на графике упомянутое пороговое значение обозначается пунктирной линией).
Однако со временем вредоносная активность исполняемого файла из-за выполнения большого количества «подозрительных» команд возрастает и степень вредоносности начинает стремиться к 1, при этом степень вредоносности может не достигать заранее заданного порогового значения (далее - критерий вредоносности) при превышении которого поведение исполняемого файла будет считаться вредоносным (на графике упомянутое пороговое значение обозначается штриховой линией), но может превышать критерий безопасности, таким образом файл может перестать считаться безопасным и стать «подозрительным».
После периода роста вредоносная активность может прекращаться и степень вредоносности опять будет стремиться к 0 (момент С).
В случае, когда степень вредоносности вычисляется не на основании каждого сформированного шаблона поведения (например, из-за того, что производительность вычислительного устройства является невысокой), возможна ситуация, когда степень вредоносности будет вычислен в момент В (когда активность наиболее схожа с вредоносной, т.е. становится «подозрительной») и не будет вычислен в момент А (когда «подозрительная» активность увеличивается) и в момент С (когда «подозрительная активность» уменьшается), из-за чего вычисленный степень вредоносности превысит критерий безопасности, активность исполняемого файла будет признана «подозрительной» (не будет признана безопасной) и, следовательно, безопасный файл не будет признан безопасным.
На графике 322 изображена динамика монотонного изменения степени вредоносности от количества шаблонов поведения, сформированных во время исполнения безопасного файла.
Изначально, при исполнении упомянутого файла количество сформированных шаблонов поведения невелико, вдобавок вредоносная активность как таковая у исполняемого файла отсутствует, но могут выполняться «подозрительные» команды, выполняемые также и при исполнении вредоносных файлов (например, удаление файлов, передача данных по компьютерной сети и т.д.), поэтому вычисленный степень вредоносности отличается от 0 и не превышает заранее заданного порогового значения (далее - критерия безопасности) при превышении которого поведение исполняемого файла перестанет считать безопасным (на графике упомянутое пороговое значение обозначается пунктирной линией).
Однако со временем вредоносная активность исполняемого файла из-за выполнения большого количества «подозрительных» команд возрастает и степень вредоносности начинает стремиться к 1, при этом степень вредоносности может не достигать заранее заданного порогового значения (далее - критерий вредоносности) при превышении которого поведение исполняемого файла будет считаться вредоносным (на графике упомянутое пороговое значение обозначается штриховой линией), а также может не превышать критерий безопасности, таким образом файл будет продолжать считаться безопасным.
После периода роста (моменты А-В) вредоносная активность может прекращаться (моменты В-А), но степень вредоносности уменьшаться уже не будет, а при любой вредоносной активности исполняемого файла будет только продолжать расти, но при этом не превышать коэффициент безопасности, таким образом активность исполняемого файла будет считаться безопасной и, следовательно, упомянутый файл будет считаться безопасным.
В случае, когда степень вредоносности вычисляется не на основании каждого сформированного шаблона поведения (например, из-за того, что производительность вычислительного устройства является невысокой), возможна ситуация, когда степень вредоносности будет вычислен в момент В (когда активность наиболее схожа с вредоносной, т.е. становится «подозрительной») и не будет вычислен в момент А (когда «подозрительная» активность увеличивается) и в момент С (когда «подозрительная активность» уменьшается), тем, не менее, поскольку степень вредоносности меняется монотонно вычисленные степени вредоносности только увеличивают свои значения, в моменты А, В, С степени вредоносности не превысят критерия безопасности, активность исполняемого файла будет признана безопасной и, следовательно, безопасный файл будет признан безопасным.
При этом момент признания файла «подозрительным» может не произойти после выявления «подозрительной» активности, поскольку описанный подход обеспечивает на плавный рост степени вредоносности, что позволяет избежать резких пиков при росте степени вредоносности.
Фиг. 4 представляет пример схемы связей между элементами шаблонов поведения.
Пример схемы связей между элементами шаблонов поведения содержит команды 411 (пустые кружки), параметры 412 (штрихованные кружки), пример шаблона поведения с одним параметром 421, пример шаблона поведения с одной командой 422.
Во время исполнения файла были перехвачены команды 411 и определены описывающие им параметры 412:
Figure 00000045
Figure 00000046
На основании упомянутых команд 411 и параметров 412 формируют шаблоны поведения (421, 422) и определяют связи между элементами шаблонов поведения.
На первом этапе формируют шаблоны, содержащие одну команду 411 и один параметр 412, описывающий упомянутую команду:
{c1, p1} {с3, р2}
{с1, р2} {c3, p3}
{с1, р3} {c4, p3}
{с1, р5} {c4, p5}
{с2, р1} {с4, р6}
{с2, р2} {с4, р7}
{с2, р6} {с5, р4}
{с2, р7} {с5, р5}
{c3, p1} {с5, р6}
В приведенном примере на основании 8 перехваченных команд (с описывающими их параметрами) было сформировано 19 шаблонов поведения.
На втором этапе формируют шаблоны, содержащие один параметр 412 и все команды 411, описываемые упомянутым параметром 412:
{c1, c2, c3, p1} {с1, с3, с4, р3}
{c1, c2, c3, p2} {с5, р4}
{c1, c4, с5, р5} {с2, с4, р7}
{с2, с4, с5, р6}
В приведенном примере на основании 8 перехваченных команд (с описывающими их параметрами) было дополнительно сформировано 7 шаблонов поведения.
На третьем этапе формируют шаблоны, содержащие несколько параметров 412 и все команды 411, описываемые упомянутыми шаблонами 412:
{c1, c2, c3, p1, p2} {с2, с4, р6, р7}
{с4, с5, р5, р6}
В приведенном примере на основании 8 перехваченных команд (с описывающими их параметрами) было дополнительно сформировано 3 шаблона поведения.
Фиг. 5 представляет структурную схему системы обнаружения вредоносных файлов с использованием обученной модели обнаружения вредоносных файлов.
Структурная схема системы обнаружения вредоносных файлов с использованием обученной модели обнаружения вредоносных файлов состоит из анализируемого файла 501, средства формирования журналов поведения 112, средства выбора моделей обнаружения 520, базы моделей обнаружения 521, средства анализа журнала поведения 530, средства вычисления степени вредоносности 540, базы шаблонов решений 541 и средства анализа 550.
В одном из вариантов реализации системы упомянутая система дополнительно содержит средство формирования журналов поведения 112 исполняемого файла, предназначенное для:
Figure 00000047
перехвата по меньшей мере одной команды по меньшей мере во время:
Figure 00000047
исполнения файла 501,
Figure 00000047
эмуляции исполнения файла 501;
Figure 00000047
определения для каждой перехваченной команды по меньшей мере одного параметра, описывающего упомянутую команду;
Figure 00000047
формирования на основании перехваченных команд и определенных параметров журнала поведения упомянутого файла, при этом перехваченные команды и описывающие их параметры записываются в журнал поведения в хронологическом порядке от более ранней перехваченной команды к более поздней перехваченной команды (далее - запись в журнале поведения);
Figure 00000047
передачи сформированного журнала поведения средству анализа журнала поведения 530 и средству выбора моделей обнаружения 520.
Еще в одном из вариантов реализации системы журнал поведения представляет собой совокупность исполняемых команд (далее - команда) из файла 501, где каждой команде соответствует по меньшей мере один параметр, описывающий упомянутую команду (далее - параметр).
Еще в одном из вариантов реализации системы перехват команд исполняемого файла 501 и определение параметров перехваченных команд осуществляется на основании анализа производительности вычислительного устройства, на котором работает система обнаружения вредоносных файлов с использованием обученной модели обнаружения вредоносных файлов, что включает в себя по меньшей мере:
Figure 00000047
определения, возможно ли проанализировать исполняемый файл 501 на вредоносность (осуществляемое с помощью средства анализа журнала поведения 530, средства вычисления степени вредоносности 540 и средства анализа 550) до момента, когда будет перехвачена следующая команда;
Figure 00000047
определения, не приведет ли анализ исполняемого файла 501 на вредоносность к снижению вычислительных ресурсов упомянутого вычислительного устройства ниже заранее заданного порогового значения, при этом в качестве ресурсов вычислительного устройства выступает по меньшей мере:
Figure 00000047
производительность упомянутого вычислительного устройства;
Figure 00000047
объем свободной оперативной памяти упомянутого вычислительного устройства;
Figure 00000047
объем свободного места на носителях информации упомянутого вычислительного устройства (например, жестких дисках);
Figure 00000047
пропускная способность компьютерной сети к которой подключено упомянутое вычислительное устройство.
Для повышения производительности системы обнаружения вредоносных файлов с использованием обученной модели обнаружения вредоносных файлов может потребоваться анализировать журнал поведения, содержащего не все выполняемые команды исполняемого файла 501, поскольку вся последовательность действий, выполняемых для анализа файла 501 на вредоносность занимает времени больше, чем промежуток времени между двумя последовательно выполняемыми командами исполняемого файла 501.
Например, команды исполняемого файла 501 выполняются (а, следовательно, и перехватываются) каждую 0,001 сек, но анализ файла 501 на вредоносность занимает 0,15 сек, таким образом все команды, перехваченные в течении упомянутого промежутка времени, будут проигнорированы, таким образом достаточно перехватывать лишь каждую 150 команду.
Средство выбора моделей обнаружения 520 предназначено для:
• выборки из базы моделей обнаружения 521 по меньшей мере двух моделей обнаружения вредоносных файлов на основании команд и параметров, выбранных из журнала поведения исполняемого файла 501, при этом модель обнаружения вредоносных файлов представляет собой решающее правило определения степени вредоносности;
• передачи всех выбранных моделей обнаружения вредоносных файлов средству вычисления степени вредоносности 540.
В одном из вариантов реализации системы модели обнаружения вредоносных файлов, хранящиеся в базе моделей обнаружения 521, были предварительно обучены методом машинного обучения на по меньшей мере одном безопасном файле и вредоносном файле.
Более подробно модель обнаружения вредоносных файлов описана на Фиг. 1 - Фиг. 4.
Еще в одном из вариантов реализации системы в качестве метода машинного обучения модели обнаружения выступает по меньшей мере метод:
• градиентный бустинг на деревьях принятия решений;
• деревья принятия решений;
• ближайших соседей kNN;
• опорных векторов.
Еще в одном из вариантов реализации системы метод обучения модели обнаружения обеспечивает монотонность изменения степени вредоносности файла в зависимости от изменения количества шаблонов поведения, сформированных на основании анализа журнала поведения.
Например, вычисленная степень вредоносности файла 501 может только монотонно возрастать или не изменяться в зависимости от количества шаблонов поведения, сформированных на основании анализа журнала поведения упомянутого файла 501. В начале исполнения файла 501 количество сформированных шаблонов поведения незначительно, а вычисленная степень вредоносности упомянутого файла 501 незначительно отличается от 0, со временем количество сформированных шаблонов растет и вычисленная степень вредоносности упомянутого файла 501 также растет или если вредоносная активность упомянутого файла 501 отсутствует - вычисленная степень вредоносности остается неизменной, таким образом в какой-бы момент исполнения вредоносного файла 501 (или с какой бы записи из журнала поведения ни началось бы формирование шаблонов поведения) ни была бы вычислена степень вредоносности файла, она будет отражать, имела ли место вредоносная активность файла 501 или нет до момента вычисления упомянутой степени вредоносности.
Еще в одном из вариантов реализации системы каждая выбранная из базы моделей обнаружения 521 модель обнаружения вредоносных файлов обучена для обнаружения вредоносных файлов с заранее заданными уникальными характерными признаками.
Например, модели обнаружения, хранящиеся в базе моделей обнаружения 521, могут быть обучены для обнаружения файлов:
• обладающих графическим интерфейсом (англ. GUI - graphical user interface);
• обменивающиеся данными по компьютерной сети;
• шифрующих файлы (например, вредоносные файлы семейства «Trojan-Cryptors»);
• использующие для распространения сетевые уязвимости (например, вредоносные файлы семейства «Net-Worms»), Р2Р сети (например, вредоносные файлы семейства «P2P-Worms») и т.д.
Таким образом, вредоносный файл может быть обнаружен с использованием нескольких обученных моделей обнаружения вредоносных файлов. Например, вредоносный файл «WannaCry.exe» во время своего исполнения шифрующий данные на вычислительном устройстве пользователя и пересылающий свои копии другим вычислительным устройствам, подключенным к той же компьютерной сети, что и упомянутое вычислительное устройство пользователя, на котором исполняется упомянутый файл, может быть обнаружен с помощью модели обнаружения #1, обученной для обнаружения файлов, использующих уязвимости, модели обнаружения #2, обученной для обнаружения файлов, предназначенных для шифрования файлов и модели обнаружения #3, обученной для обнаружения файлов, содержащих текстовую информацию, интерпретируемую как выдвигаемые требования (например, о форме оплаты, денежных суммах и т.п.). При этом степени вредоносности, вычисленная с помощью упомянутых моделей, а также моменты времени, когда вычисленные степени вредоносности превысят заранее заданное пороговое значение, могут различаться. Например, результаты использования моделей обнаружения вредоносных файлов с помощью которых удалось обнаружить вредоносный файл 501 могут быть выражены в следующей таблице:
Figure 00000048
Файл 501 признается вредоносным в случае, когда вычисленная степень вредоносности превосходит 0,78. При этом степень вредоносности (например, 0,78) характеризует вероятность того, что файл для которого вычислена степень вредоносности может оказаться вредоносным (78%) или безопасным (22%). Если файл 501 может быть признан вредоносным с использованием нескольких моделей обнаружения вредоносных файлов, то вероятность того, что файл 501 окажется вредоносным возрастает. Например для моделей обнаружения вредоносных файлов, по которым приведены данные в Таблице #1, итоговая степень вредоносности может быть вычислена по формуле
Figure 00000049
где
wtotal - итоговая степень вредоносности,
wi - степень вредоносности, вычисленная с использованием с модели i,
n - количество моделей обнаружения вредоносных файлов, использованных для вычисления итоговой степени вредоносности.
Таким образом полученная итоговая степень вредоносности (0,999685) значительно выше, чем заранее заданное пороговое значение, при превышении вычисленной степенью вредоносности которого (0,78) файл признается вредоносным. Т.е. использование нескольких моделей обнаружения вредоносных файлов позволяет значительно повысить точность определения вредоносных файлов, уменьшить ошибки первого и второго рода, возникающие при обнаружении вредоносных файлов.
Еще в одном примере использование нескольких моделей обнаружения вредоносных файлов позволяет итоговой степени вредоносности достичь заранее заданное пороговое значение, при превышении вычисленной степенью вредоносности которого файл признается вредоносным, гораздо раньше, чем при использовании каждой из моделей обнаружения вредоносных файлов по отдельности. Например для моделей обнаружения вредоносных файлов, по которым приведены данные в Таблице #1, при условии, что вычисляемые степени вредоносности монотонно изменяются, № команды из журнала поведения, после которого файл будет признан вредоносным может быть вычислен по формуле
Figure 00000050
где
Idetect - № команды из журнала поведения, после анализа которой файл признается вредоносным,
Ii - № команды из журнала поведения, после анализа которой с использованием с модели i файл признается вредоносным,
Figure 00000051
- степень вредоносности, вычисленная с использованием с модели i,
n - количество моделей обнаружения вредоносных
файлов, использованных для вычисления № команды из журнала поведения, после анализа которой файл признается вредоносным.
Таким образом полученный итоговый № команды из журнала поведения (207) значительно меньше, чем самый ранний № команды из журнала поведения (288), после анализа которой файл был признан вредоносным одной из моделей обнаружения вредоносных файлов (модель #2). Т.е. использование нескольких моделей обнаружения вредоносных файлов позволяет значительно повысить скорость (т.е. оперативность) определения вредоносных файлов.
Еще в одном примере разные модели обнаружения, хранящиеся в базе моделей обнаружения 521, могут быть обучены для обнаружения вредоносных файлов с несколькими не обязательно уникальными заранее заданными характерными признаками, т.е. модель обнаружения #1, может обнаруживать файлы, обладающие графическим интерфейсом и обменивающиеся данными по компьютерной сети, а модель #2, может обнаруживать файлы, обменивающиеся данными по компьютерной сети и распространяющиеся по упомянутой компьютерной сети с использованием сетевых уязвимостей. Обе упомянутые модели обнаружения могут обнаружить упомянутый вредоносный файл «WannaCry.exe» за счет общего характерного признака распространения файла по компьютерной сети с использованием сетевых уязвимостей.
Еще в одном из вариантов реализации системы выбирают из базы моделей обнаружения 521 такую модель обнаружения вредоносных файлов, которая обучалась на файлах, при исполнении которых по меньшей мере:
• выполнялись те же команды, что и команды, выбранные из журнала поведения исполняемого файла 501;
• использовались те же параметры, что и параметры, выбранные журнала поведения исполняемого файла 501.
Например из журнала поведения были выбраны команды «CreateFileEx», «ReadFile», «WriteFile», «CloseHandle», которые используются для модификации файлов, в том числе для шифрования файлов. Из базы моделей обнаружения 521 выбирают модель обнаружения, обученную для использования для обнаружения вредоносных файлов семейства «Trojan-Cryptors».
Еще в одном примере из журнала поведения были выбраны параметры «8080», «21», описывающие команды работы с компьютерной сетью (например, connect, где описанные выше параметры представляют собой порты соединения к электронному адресу). Из базы моделей обнаружения 521 выбирают модель обнаружения, обученную для использования для обнаружения файлов, обеспечивающих обмен данными по компьютерной сети.
Средство анализа журнала поведения 530 предназначено для:
• формирования по меньшей мере одного шаблона поведения на основании команд и параметров, выбранных из журнала поведения исполняемого файла 501, при этом шаблон поведения представляет собой набор из по меньшей мере одной команды и такого параметра, который описывает все команды из упомянутого набора;
• вычисления свертки от всех сформированных шаблонов поведения;
• передачи сформированной свертки средству вычисления степени вредоносности 540 исполняемого файла.
В одном из вариантов реализации системы вычисление свертки от сформированных шаблонов поведения выполняется на основании заранее заданной функции свертки, такой что обратная функция свертки от результата упомянутой функции свертки над всеми сформированными шаблонами поведения имеет степень схожести с упомянутым шаблоном поведения больше заданного порогового значения.
Более подробно формирование и использование функций свертки (вычисление свертки) описана на Фиг. 1, Фиг. 2.
Средство вычисления степени вредоносности 540 предназначено для:
• вычисления степени вредоносности исполняемого файла 501 на основании анализа полученной свертки с помощью каждой полученной модели обнаружения вредоносных файлов;
• передачи каждой вычисленной степени вредоносности средству анализа 550.
В одном из вариантов реализации системы шаблон решения представляет собой композицию степеней вредоносности.
Например, композиция степеней вредоносности, вычисленных на основании моделей #1, #2, #3, описанных выше, может быть представлена в виде совокупности пар {0.95, 374}, {0.79, 288}, {0.87, 302}.
Еще в одном примере композиция степеней вредоносности, вычисленных на основании моделей #1, #2, #3, описанных выше, может представлять меру центральной тенденции вычисленных степеней вредоносности (например, среднее арифметическое, в данном случае 0,87).
Еще в одном примере композиция степеней вредоносности представляет собой зависимость изменения степеней вредоносности от времени или количества шаблонов поведения, используемых для вычисления степени вредоносности.
Средство анализа 550 предназначено для:
• формирования на основании полученных степеней вредоносности шаблона решения;
• признания исполняемого файла 501 вредоносным, в случае, когда степень схожести между сформированным шаблоном решения и по меньшей мере одним из заранее заданных шаблонов решения из базы шаблонов решения 541, предварительно сформированных на основании анализа вредоносных файлов, превышает заранее заданное пороговое значение.
В одном из вариантов реализации системы шаблон решения представляет собой совокупность степеней вредоносности, полученных от средства вычисления степеней вредоносности 540.
Еще в одном из вариантов реализации системы шаблон решения представляет собой зависимость степени вредоносности от времени или количества шаблонов поведения, используемых для вычисления упомянутой степени вредоносности.
Еще в одном из вариантов реализации системы шаблонов решения из базы шаблонов решения 541 формируются на основании анализа вредоносных файлов, использованных для обучения моделей из базы моделей обнаружения 521.
Например, на основании 100000 файлов, из которых 75000 безопасных файлов и 25000 вредоносных файлов обучают (включая тестирование) модели обнаружения, которые затем сохраняют в базу моделей обнаружения 521. После того как модели обнаружения вредоносных файлов были обучены, они используются для формирования шаблонов решений для некоторых (или всех) из 25000 упомянутых вредоносных файлов, которые затем записывают в базу шаблонов решений 541. Т.е. первоначально на обучающей и тестовой выборке файлов выполняют машинное обучение моделей обнаружения вредоносных файлов. В итоге может быть обучено несколько моделей обнаружения вредоносных файлов, каждая из которых будет обучена для обнаружения вредоносных файлов с уникальными заранее заданными характерными признаками. После того, как все модели обнаружения будут обучены, определяют какие из обученных моделей обнаружения вредоносных файлов обнаруживают те или иные вредоносные файлы (из описанного выше примера - 25000 вредоносных файлов), может оказаться, что один вредоносный файл может быть обнаружен с использованием одного набора моделей обнаружения вредоносных файлов, другой - с использованием другого набора моделей обнаружения вредоносных файлов, третий - с использованием некоторых моделей обнаружения вредоносных файлов из упомянутых выше наборов моделей обнаружения вредоносных файлов. На основании полученных данных о том с помощью каких моделей обнаружения вредоносных файлов какие вредоносных файлы могут быть обнаружены формируются шаблоны решения.
Еще в одном из вариантов реализации системы дополнительно средство анализа 550 предназначено для переобучения по меньшей мере одной модели обнаружения из базы моделей обнаружения 521 на основании команд и параметров, выбранных из журнала поведения исполняемого файла 501, в случае, когда степень схожести между сформированным шаблоном решения и по меньшей мере одним из заранее заданных шаблонов решения из базы шаблонов решения 541 превышает заранее заданное пороговое значение, а степени вредоносности, вычисленные с помощью упомянутых моделей обнаружения вредоносного файла, не превышают заранее заданного порогового значения.
Фиг. 6 представляет структурную схему способа обнаружения вредоносных файлов с использованием обученной модели обнаружения вредоносных файлов.
Структурная схема способа обнаружения вредоносных файлов с использованием обученной модели обнаружения вредоносных файлов содержит этап 610, на котором исполняют анализируемый файл, этап 620, на котором формируют журнал поведения, этап 630, на котором формируют шаблоны поведения, этап 640, на котором вычисляют свертку, этап 650, на котором выбирают модель обнаружения, этап 660, на котором вычисляют степень вредоносности, этап 670, на котором формируют шаблон решения, этап 680, на котором признают файл вредоносным и этап 690, на котором переобучают модель обнаружения.
На этапе 610 с помощью средства формирования журналов поведения 112 по меньшей мере:
Figure 00000052
исполняют анализируемый файл 501;
Figure 00000052
эмулируют исполнение анализируемого файла 501.
На этапе 620 с помощью средства формирования журналов поведения 112 формируют журнал поведения для анализируемого файла 501 для чего:
Figure 00000052
перехватывают по меньшей мере одну выполняемую команду;
Figure 00000052
определяют для каждой перехваченной команды по меньшей мере один параметр, описывающий упомянутую команду;
Figure 00000052
формируют на основании перехваченных команд и определенных параметров журнала поведения упомянутого файла 501.
На этапе 630 с помощью средства анализа журнала поведения 530 формируют по меньшей мере один шаблон поведения на основании команд и параметров, выбранных из журнала поведения исполняемого файла 501, при этом шаблон поведения представляет собой набор из по меньшей мере одной команды и такого параметра, который описывает все команды из упомянутого набора.
На этапе 640 с помощью средства анализа журнала поведения 530 вычисляют свертку от всех сформированных на этапе 630 шаблонов поведения.
На этапе 650 с помощью средства выбора моделей обнаружения 520 выбирают из базы моделей обнаружения 521 по меньшей мере две модели обнаружения вредоносных файлов на основании команд и параметров, выбранных из журнала поведения исполняемого файла 501, при этом модель обнаружения вредоносных файлов представляет собой решающее правило определения степени вредоносности.
На этапе 660 с помощью средства вычисления степени вредоносности 540 вычисляют степень вредоносности исполняемого файла 501 на основании анализа вычисленной на этапе 640 свертки с помощью каждой выбранной на этапе 650 модели обнаружения вредоносных файлов.
На этапе 670 с помощью средства анализа 550 формируют на основании полученных на этапе 660 степеней вредоносности шаблона решения;
На этапе 680 с помощью средства анализа 550 признают исполняемый файл 501 вредоносным, в случае, когда степень схожести между сформированным на этапе 670 шаблоном решения и по меньшей мере одним из заранее заданных шаблонов решения из базы шаблонов решения 541 превышает заранее заданное пороговое значение.
На этапе 690 с помощью средства анализа 550 переобучают по меньшей мере одну модель обнаружения из базы моделей обнаружения 521 на основании команд и параметров, выбранных из журнала поведения исполняемого файла, в случае, когда степень схожести между сформированным шаблоном решения и по меньшей мере одним из заранее заданных шаблонов решения из базы шаблонов решения 541 превышает заранее заданное пороговое значение, а степени вредоносности, вычисленные с помощью упомянутых моделей обнаружения вредоносного файла не превышают заранее заданного порогового значения.
Фиг. 7 представляет пример системы обнаружения вредоносного файла.
Структурная схема системы обнаружения вредоносного файла состоит из анализируемого файла 501, средства анализа файла 112, базы модулей обнаружения 521, средства сбора данных 710, данных о поведении файла 711, средства вычисления параметров 720, модели вычисления параметров 721, средства анализа 730, модели формирования критериев 731, средства корректировки параметров 740.
Более подробно описание средства анализа файла 112, файла 501, базы моделей 521, средства анализа 730 (как вариант реализации средства анализа 550) раскрыты на Фиг. 1, Фиг. 2, Фиг. 5, Фиг. 6.
Средство сбора данных 710 предназначено для формирования на основании собранных средством анализа файлов 112 данных о поведении 711 выполнения файла 501, вектора признаков, характеризующих упомянутое поведение, при этом вектор признаков представляет собой свертку собранных данных 711, сформированную в виде совокупности чисел.
Пример формирование свертки собранных данных приведен в описании работы средства формирования шаблонов поведения 121 на Фиг. 1.
В одном из вариантов реализации системы данные о поведении 711 исполнения файла 501 включают по меньшей мере:
Figure 00000052
содержащиеся в исполняемом файле 501 или интерпретируемые в процессе исполнения файла 501 команды, передаваемые упомянутым командам атрибуты и возвращаемые значения;
Figure 00000052
данные участков оперативной памяти, модифицируемые при выполнении файла 501;
Figure 00000052
статические параметры файла 501.
Например, в качестве команд могут выступать как инструкции (или совокупности инструкций) процессора компьютера, так и функции WinAPI или функции из сторонних динамических библиотек.
Еще в одном примере в файле 501 могут содержаться необработанные данные (англ. raw data), которые в процессе исполнения файла 501 интерпретируются как команды процессора (или некоторого процесса, как в случае с dll библиотеками) и (или) параметры, передаваемые командам. В частном случае упомянутые данные могут представлять собой промежуточный код (англ. portable code).
Еще в одном примере в качестве данных участков оперативной памяти могут выступать:
Figure 00000052
свертки упомянутых участков памяти (например, с использованием гибких хэшей (англ. fuzzy hash));
Figure 00000052
результатов лексического анализа упомянутых участков памяти, на основании которого из участка памяти выделяются лексемы и собирается статистика по их использованию (например, частота использования, весовые характеристики, связи с другими лексемами и т.д.);
Figure 00000052
статические параметры упомянутых участков памяти, такие как размер, владелец (процесс), права использования и т.д.
В качестве статических параметров файла 501 выступают параметры, характеризующие файл (идентифицирующие его) и которые остаются неизменными в процессе исполнения, анализа или изменения упомянутого файла 501, либо характеризующие файл 501 до момента его исполнения.
В частном случае статические параметры файла 501 могут содержать информацию о характеристиках его исполнения или поведения (т.е. позволяющие предсказать результат исполнения файла 501).
Еще в одном примере в качестве статических параметров файла выступает размер файла, время создания, изменение, владелец файла, источник получения файла (электронный или IP адрес) и т.д.
Еще в одном из вариантов реализации системы данные о поведении 711 исполнения файла 501 собираются из разных источников (каналов входных данных), которые включат по меньшей мере:
Figure 00000052
журнал команд, выполненных анализируемым файлом 501;
Figure 00000052
журнал команд, выполненных операционной системой или приложениями, исполняемыми под управлением операционной системой (за исключением анализируемого файла 501);
Figure 00000052
данные, полученные по компьютерной сети.
Средство вычисления параметров 720 предназначено для вычисления на основании сформированного средством сбора данных 710 вектора признаков с использованием обученной модели вычисления параметров 711 степени вредоносности, представляющей численное значение, характеризующего вероятность того, что файл 501 может оказаться вредоносным, и предельной степени безопасности, представляющей собой численное значение, характеризующее вероятность того, что файл 501 гарантированно окажется вредоносным при выполнении заранее заданных условий, зависящих от степени вредоносности и предельной степени безопасности (см. Фиг. 9), при этом совокупность последовательно вычисленных упомянутых степеней описывается заранее заданным временным законом.
В одном из вариантов реализации системы для каждого канала входных данных (источника входных данных или отфильтрованных по заранее заданному критерию данных от источника выходных данных) создается система выделения признаков (вектора вещественных чисел длины N):
Figure 00000052
если данный канал предполагает последовательное получение информации (например, лог или последовательность распакованных исполняемых файлов), то дополнительно создается система агрегации признаков для входной последовательности в единый вектор;
Figure 00000052
создается система преобразования признаков с данного канала в новый вектор длины K. При этом значения в данном векторе могут только монотонно увеличиваться по мере обработки новых элементов входной последовательности.
Еще в одном из вариантов реализации системы система выделения, агрегации и преобразования признаков может зависеть от параметров для обучения, которые будут настроены позже на этапе обучения всей модели:
Figure 00000052
вектора длины К, поступившие со всех активных каналов монотонно агрегируются в 1 вектор фиксированной длины (например, берется поэлементный максимум);
Figure 00000052
агрегированный монотонно растущий вектор преобразуется в 1 вещественное число, характеризующее подозрительность исследуемого процесса (например, упомянутый вектор преобразуется путем сложения элементов упомянутого вектора или выполнением над элементами вектора действий по заранее заданному алгоритму, например, вычислением нормы упомянутого вектора).
Еще в одном из вариантов реализации системы модель вычисления параметров 721 была предварительно обучена методом машинного обучения на по меньшей мере одном безопасном файле и вредоносном файле.
Еще в одном из вариантов реализации системы в качестве метода машинного обучения модели вычисления параметров 721 выступает по меньшей мере:
Figure 00000052
градиентный бустинг на деревьях принятия решений;
Figure 00000052
решающие деревья;
Figure 00000052
метод ближайших соседей kNN;
Figure 00000052
метод опорных векторов.
Еще в одном из вариантов реализации системы по меньшей мере вычисляемая степень вредоносности или предельная степень безопасности зависят от степени вредоносности и соответственно предельной степени безопасности, вычисленных в момент запуска файла 501 на основании анализа статических данных файла 501.
Например, степень вредоносности и предельная степень безопасности могут вычисляться по формулам:
ω=ω0+ω(t)
ϕ=ϕ0+ϕ(t)
где
ω, ϕ - степень вредоносности и предельная степень безопасности соответственно,
ω0, ϕ0 - начальные значения степени вредоносности и предельной степени безопасности не зависящие от параметров исполнения файла 501, но зависящие от внешних условий (параметров работы операционной системы и т.д.),
ω(t), ϕ(t) - временные законы, на основании которых вычисляются степень вредоносности и предельная степень безопасности соответственно.
При этом упомянутые временные законы могут бы зависимы друг от друга, т.е. от степени вредоносности и предельной степени безопасности, вычисленных ранее:
ω(tn)=ω(t, ϕ(tn-1))
ϕ(tn)=ϕ(t, ω(tn-1))
Более подробно описанный выше вариант реализации системы раскрыт на Фиг. 9.
Еще в одном из вариантов реализации системы обученная модель вычисления параметров 721 представляет собой совокупность правил вычисления степени вредоносности файла и предельной степени безопасности файла, зависящих от определенных данных о поведении 711 исполнения файла 501.
Еще в одном из вариантов реализации системы временные законы, описывающие совокупность последовательно вычисленных степеней вредоносности и совокупность последовательно вычисленных предельных степеней безопасности, имеют монотонных характер.
Например, кривая изменения степени вредоносности от времени может описываться монотонно возрастающей функцией (к примеру, ƒ(x)=ах+b).
Еще в одном из вариантов реализации системы временные законы, описывающие совокупность последовательно вычисленных степеней вредоносности и совокупность последовательно вычисленных предельных степеней безопасности, имеют кусочно-монотонный характер, т.е. обладают монотонным характером на заданных временных интервалах.
Часто при работе описываемой системы не имеется возможности (из-за ограничений вычислительных ресурсов, компьютерного времени, наличия требований к минимальной производительности и т.д.) определять степень вредоносности постоянно (непрерывно или с заданной периодичностью), поэтому степень вредоносности и предельная степень безопасности может вычисляться через вычисляемые (не заранее заданные, а через вычисляемые в процессе исполнения файла 501 промежутки времени). Такие вычисления так же основаны на заранее заданных некоторых временных законах, для которых в процессе исполнения файла вычисляются входные параметры, т.е. для времени вычисления файла можно записать:
tn=τ(tn-1)
При этом время вычисления степени вредоносности и предельной степени безопасности может зависеть от ранее вычисленных степени вредоносности и предельной степени безопасности:
tn=τ(tn-1, ω(tn-1), ϕ(tn-1))
Например, при запуске файла 501 первые 10 секунд степень вредоносности упомянутого файла монотонно возрастает, после 10-ой секунды степень вредоносности упомянутого файла уменьшается вдвое и затем начинает опять монотонно возрастать.
Средство анализа 730 предназначена для вынесения решения об обнаружении вредоносного файла 501, в случае, когда собранные данные о поведении 711 выполнения файла 501 удовлетворяют заранее заданному критерию определения вредоносности, сформированному на основании вычисленных средством вычисления параметров 720 степени вредоносности и предельной степени безопасности, при этом в качестве упомянутого критерия выступает правило классификации файла (предоставляемого моделью формирования критериев 731) по установленной взаимосвязи между степенью вредоносности и предельной степени безопасности.
В одном из вариантов реализации системы в качестве взаимосвязи между степенью вредоносности и предельной степени безопасности выступает по меньшей мере:
Figure 00000052
разница в расстоянии между степенью вредоносности и граничными условиями вредоносности от заранее заданного порогового значения;
Figure 00000052
разница в площадях, ограниченных в заданном временном интервале между кривыми, описывающими степень вредоносности и предельную степень безопасности, от заранее заданного порогового значения;
Figure 00000052
разница в скоростях взаимного роста кривой, описывающей изменение степени вредоносности и граничных условий вредоносности от времени, от заранее заданного значения.
Например, самые характерные случаи описанной взаимосвязи отображены на Фиг. 9.
Средство корректировки параметров 740 предназначено для переобучения модели вычисления параметров 721 на основании анализа (см. Фиг. 9) вычисленных степени вредоносности и предельной степени безопасности, в результате которого изменения во временных законах, описывающих степень вредоносности и предельную степень безопасности, приводят к тому, что взаимосвязь между значениями, полученными на основании упомянутых законов стремится к максимальной.
В одном из вариантов реализации системы модель вычисления параметров 721 переобучают таким образом, чтобы при использовании упомянутой модели, сформированный впоследствии критерий обеспечивал по меньшей мере:
Figure 00000052
точность определения степени вредоносности и предельной степени безопасности была выше, чем при использовании необученной модели вычисления параметров;
Figure 00000052
использование вычислительных ресурсов были ниже, чем при использовании необученной модели вычисления параметров.
Например, после переобучения (или дообучения) коэффициент корреляции между значениями кривых степени вредоносности и предельной степени безопасности становится больше (стремится к 1).
В результате при постоянном переобучении модели вычисления параметров 721 вероятность возникновения ошибок первого и второго рода (ложных срабатываний) постоянно уменьшается. При этом использованих разных приведенных выше критериев переобучения способствует тому, что система обнаружения вредоносного файла с переобученной моделью 721 вначале (в начальные этапы переобучения) показывает очень большую скорость уменьшения ошибок первого и второго рода, таким образом при незначительном количестве итераций переобучения модели вычисления параметров 721 эффективность системы обнаружения вредоносного файла резко возрастает, стремясь к 100%.
Фиг. 8 представляет пример способа обнаружения вредоносного файла.
Структурная схема способа обнаружения вредоносного файла содержит этап 810, на котором формируют вектор признаков, этап 820, на котором вычисляют параметры, этап 830, на котором выносят решение об обнаружении вредоносного файла, этап 840, на котором модель вычисления параметров.
На этапе 810 формируют на основании собранных данных о поведении 711 исполнения файла 501, вектор признаков, характеризующих упомянутое поведение, при этом вектор признаков представляет собой свертку собранных данных, сформированную в виде совокупности чисел.
На этапе 820 вычисляют на основании сформированного вектора признаков с использованием обученной модели вычисления параметров 721 степени вредоносности, представляющей численное значение, характеризующего вероятность того, что файл 501 может оказаться вредоносным, и предельной степени безопасности, представляющей собой численное значение, характеризующее вероятность того, что файл 501 гарантированно окажется вредоносным, при этом совокупность последовательно вычисленных упомянутых степеней описывается заранее заданным временным законом.
Выполняют этапы 810-820 для разных последовательных временных интервалов исполнения анализируемого файла 501.
На этапе 830 выносят решение об обнаружении вредоносного файла 501, в случае, когда собранные данные о поведении 711 исполнения файла 501 удовлетворяют заранее заданному критерию определения вредоносности (см. Фиг. 9), сформированному на основании вычисленных на этапе 820 степени вредоносности и предельной степени безопасности, при этом в качестве упомянутого критерия выступает правило классификации файла по установленной взаимосвязи между степенью вредоносности и предельной степени безопасности.
На этапе 840 дополнительно переобучают модель вычисления параметров 721 на основании анализа вычисленных степени вредоносности и предельной степени безопасности, в результате которого изменения во временных законах, описывающих степень вредоносности и предельную степень безопасности, приводят к тому, что взаимосвязь между значениями, полученными на основании упомянутых законов стремится к максимальной.
Фиг. 9 представляет примеры динамики изменения степени вредоносности и предельной степени безопасности от количества шаблонов поведения:
На схеме 911 изображена ситуация, при которой со временем (по сути с увеличением количества сформированных шаблонов поведения) наблюдается рост степени вредоносности анализируемого файла 501. При этом наблюдается также и рост предельной степени безопасности (общий случай критерия вредоносности, показанного на Фиг. 3).
Решение об обнаружении вредоносного файла 501 принимается, если степень вредоносного файла 501 начинает превышать предельную степень безопасности файла 501 (точка 911.В).
Такая ситуация наблюдается в случае, если и при выполнении файла 501, и при анализе состояния операционной системы в целом регистрируется «подозрительная» активность. Таким образом, достигается уменьшение вероятности возникновения ошибки первого рода. Несмотря на то, что в работе системы регистрируется подозрительная активность (т.е. активность, которая еще не может быть признана вредоносной, но уже не может быть признана и безопасной, например, упаковка в архив с последующим удалением исходных файлов), упомянутая активность учитывается при вычислении степени вредоносности файла 501 таким образом, чтобы вынесение положительного вердикта об обнаружении вредоносного файла не было принято основываясь большей части на подозрительную активность в работе системы, а не при исполнении файла 501, т.е. вклад в итоговое решение о признании файла 501 вредоносным активности исполнения файла 501 должен превышать вклад активности системы.
Например, подобная ситуация может наблюдаться, когда пользователь производить архивацию данных на компьютере, в результате которых происходит многократное считывание данных с жесткого диска и последующее переименование или удаление файлов, что для системы рядового пользователя (например, офисного работника) может считаться подозрительной активностью работы вредоносных программ-шифровальщиков, поскольку такая активность (на основе статистических данных, полученных от пользователей) у упомянутых пользователей не наблюдается или наблюдается очень редко.
Например, стандартное антивирусное приложение при анализе активности программного обеспечения на компьютере пользователя может выдавать предупреждения (не предпринимая никаких активных действий) о том, что то или иное приложение ведет себя «подозрительно», т.е. поведение упомянутого приложения не соответствует заранее заданным правилам антивирусного приложения. Описываемая же система не оперирует заранее заданными правилами, а динамически оценивает изменение активность, что для вредоносного, но неизвестного файла 501 заканчивается его обнаружением (признанием вредоносным).
Еще в одном примере изменение активности при исполнении файла 501 может быть следствием передачи данных по компьютерной сети, при этом в зависимости от характеристик передаваемых данных (частотных, количественных и т.д.), которые могут указывать на то, что имеет место вредоносная активность (к примеру, работает вредоносная программа удаленного администрирования (англ. backdoor)). Чем дольше такая активность происходит, тем выше шанс, что она будет признана вредоносной, поскольку заметно отличается от обычной сетевой активности на компьютере пользователя.
На схеме 912 изображена ситуация, при которой со временем наблюдается рост степени вредоносности анализируемого файла 501 и уменьшение предельной степени безопасности.
Решение об обнаружении вредоносного файла 501 принимается, если степень вредоносного файла 501 начинает превышать предельную степень безопасности файла 501 (точка 912.В).
Такая ситуация наблюдается в случае, обратном от описанного на схеме 911, когда при анализе состояния операционной системы «подозрительная» активность не выявляется. Таким образом, достигается уменьшение вероятности возникновения ошибки второго рода (пропуск вредоносного файла). Подозрительная активность «сильнее» влияет на вынесение положительного вердикта об обнаружении вредоносного файла, если остальное поведение при исполнении файла в частности ли операционной системы в целом не похожа на «подозрительную».
Например, подобная ситуация может наблюдаться при работе на компьютере пользователя вредоносных программ удаленного администрирования, в результате которых вредоносная активность проявляется лишь эпизодически, а значит каждый последующий эпизод должен анализироваться более «пристально», т.е. критерий, после которого активность будет считаться вредоносной должен постоянно снижаться. Однако в случае, если на компьютере пользователя начинают выполняться доверенные приложения, поведение которых могло бы быть признано подозрительных, но не признается таковым из-за того, что приложения являются доверенным (т.е. проверенными ранее на вредоносность), то предельная степень вредоносности может быть увеличена, что защитит от признания поведения легальных файлов вредоносным и лишь отодвинет во времени обнаружение вредоносного поведения вредоносного файла.
На схеме 913 изображена ситуация, при которой со временем наблюдается рост степени вредоносности анализируемого файла 501, при этом рост начинается не с нулевой отметки, а с некоторой рассчитанной величины, в результате критерий вредоносности будет достигнут раньше, чем в изначальном случае или будет достигнут, при том, что в изначальном случае достигнут бы не был.
Решение об обнаружении вредоносного файла 501 принимается, если разница между степенью вредоносного файла 501 и предельной степени безопасности файла 501 становится меньше заранее заданного порогового значения (точка 913.В). При этом в частном случае такое решение может быть принято, только если ранее разница между степенью вредоносного файла 501 и предельной степени безопасности файла 501 становилась меньше другого заранее заданного порогового значения (точка 913.А) (при этом эта разница между точками 913.А и 913.В могла расти).
Например, при выполнении файла 501, полученного от неизвестного источника, или сформированного на компьютере «подозрительными» способами (к примеру, записью данных из памяти процесса на диск) степень вредоносности может изначально выставляться выше, чем степень вредоносность файлов, полученных менее «подозрительными» способами.
На схеме 914 изображена ситуация, аналогичная ситуации, отображенной на схеме 911, с тем лишь исключением, что кривые, описывающие степень вредоносности и предельную степень безопасности имеют несколько последовательных точек пересечения. В такой ситуации решение о признании файла 501 вредоносным выносится не по факту пересечения этих кривых, а по превышению кол-ва пересечений заранее заданного порогового значения или превышения площади, отсекаемой этими кривыми заранее заданного порогового значения.
Указанные схемы способствуют повышению эффективности обнаружения вредоносных файлов и уменьшают ошибки первого и второго рода при обнаружении вредоносных файлов 501.
Описание взаимоотношения между вычисленными степенью вредоносности, предельной степенью безопасности и решением о признании файла 501 вредоносным может быть выражено следующим математическим или алгоритмическим образом:
ω(t)>ϕ(t)
Figure 00000053
Фиг. 10 представляет пример компьютерной системы общего назначения, персональный компьютер или сервер 20, содержащий центральный процессор 21, системную память 22 и системную шину 23, которая содержит разные системные компоненты, в том числе память, связанную с центральным процессором 21. Системная шина 23 реализована, как любая известная из уровня техники шинная структура, содержащая в свою очередь память шины или контроллер памяти шины, периферийную шину и локальную шину, которая способна взаимодействовать с любой другой шинной архитектурой. Системная память содержит постоянное запоминающее устройство (ПЗУ) 24, память с произвольным доступом (ОЗУ) 25. Основная система ввода/вывода (BIOS) 26, содержит основные процедуры, которые обеспечивают передачу информации между элементами персонального компьютера 20, например, в момент загрузки операционной системы с использованием ПЗУ 24.
Персональный компьютер 20 в свою очередь содержит жесткий диск 27 для чтения и записи данных, привод магнитных дисков 28 для чтения и записи на сменные магнитные диски 29 и оптический привод 30 для чтения и записи на сменные оптические диски 31, такие как CD-ROM, DVD-ROM и иные оптические носители информации. Жесткий диск 27, привод магнитных дисков 28, оптический привод 30 соединены с системной шиной 23 через интерфейс жесткого диска 32, интерфейс магнитных дисков 33 и интерфейс оптического привода 34 соответственно. Приводы и соответствующие компьютерные носители информации представляют собой энергонезависимые средства хранения компьютерных инструкций, структур данных, программных модулей и прочих данных персонального компьютера 20.
Настоящее описание раскрывает реализацию системы, которая использует жесткий диск 27, сменный магнитный диск 29 и сменный оптический диск 31, но следует понимать, что возможно применение иных типов компьютерных носителей информации 56, которые способны хранить данные в доступной для чтения компьютером форме (твердотельные накопители, флеш карты памяти, цифровые диски, память с произвольным доступом (ОЗУ) и т.п.), которые подключены к системной шине 23 через контроллер 55.
Компьютер 20 имеет файловую систему 36, где хранится записанная операционная система 35, а также дополнительные программные приложения 37, другие программные модули 38 и данные программ 39. Пользователь имеет возможность вводить команды и информацию в персональный компьютер 20 посредством устройств ввода (клавиатуры 40, манипулятора «мышь» 42). Могут использоваться другие устройства ввода (не отображены): микрофон, джойстик, игровая консоль, сканер и т.п. Подобные устройства ввода по своему обычаю подключают к компьютерной системе 20 через последовательный порт 46, который в свою очередь подсоединен к системной шине, но могут быть подключены иным способом, например, при помощи параллельного порта, игрового порта или универсальной последовательной шины (USB). Монитор 47 или иной тип устройства отображения также подсоединен к системной шине 23 через интерфейс, такой как видеоадаптер 48. В дополнение к монитору 47, персональный компьютер может быть оснащен другими периферийными устройствами вывода (не отображены), например, колонками, принтером и т.п.
Персональный компьютер 20 способен работать в сетевом окружении, при этом используется сетевое соединение с другим или несколькими удаленными компьютерами 49. Удаленный компьютер (или компьютеры) 49 являются такими же персональными компьютерами или серверами, которые имеют большинство или все упомянутые элементы, отмеченные ранее при описании существа персонального компьютера 20, представленного на Фиг. 10. В вычислительной сети могут присутствовать также и другие устройства, например, маршрутизаторы, сетевые станции, пиринговые устройства или иные сетевые узлы.
Сетевые соединения могут образовывать локальную вычислительную сеть (LAN) 50 и глобальную вычислительную сеть (WAN). Такие сети применяются в корпоративных компьютерных сетях, внутренних сетях компаний и, как правило, имеют доступ к сети Интернет. В LAN- или WAN-сетях персональный компьютер 20 подключен к локальной сети 50 через сетевой адаптер или сетевой интерфейс 51. При использовании сетей персональный компьютер 20 может использовать модем 54 или иные средства обеспечения связи с глобальной вычислительной сетью, такой как Интернет. Модем 54, который является внутренним или внешним устройством, подключен к системной шине 23 посредством последовательного порта 46. Следует уточнить, что сетевые соединения являются лишь примерными и не обязаны отображать точную конфигурацию сети, т.е. в действительности существуют иные способы установления соединения техническими средствами связи одного компьютера с другим.
В заключение следует отметить, что приведенные в описании сведения являются примерами, которые не ограничивают объем настоящего изобретения, определенного формулой.

Claims (51)

1. Система обнаружения вредоносного файла, которая содержит
а) средство сбора данных, предназначенное для формирования на основании собранных данных о поведении выполнения файла вектора признаков, характеризующих упомянутое поведение, при этом вектор признаков представляет собой свертку собранных данных, сформированную в виде совокупности чисел;
б) средство вычисления параметров, предназначенное для вычисления на основании сформированного средством сбора данных вектора признаков с использованием обученной модели вычисления параметров степени вредоносности, представляющей численное значение, характеризующее вероятность того, что файл может оказаться вредоносным, и предельной степени безопасности, представляющей собой численное значение, характеризующее вероятность того, что файл гарантированно окажется вредоносным, при этом совокупность последовательно вычисленных упомянутых степеней описывается заранее заданным временным законом;
в) средство анализа, предназначенное для вынесения решения об обнаружении вредоносного файла в случае, когда собранные данные о поведении выполнения файла удовлетворяют заранее заданному критерию определения вредоносности, сформированному на основании вычисленных средством вычисления параметров степени вредоносности и предельной степени безопасности, при этом в качестве упомянутого критерия выступает правило классификации файла по установленной взаимосвязи между степенью вредоносности и предельной степенью безопасности.
2. Система по п. 1, в которой модель вычисления параметров была предварительно обучена методом машинного обучения на по меньшей мере одном безопасном файле и вредоносном файле.
3. Система по п. 1, в которой в качестве метода машинного обучения модели вычисления параметров выступает по меньшей мере:
градиентный бустинг на деревьях принятия решений;
решающие деревья;
метод ближайших соседей kNN;
метод опорных векторов.
4. Система по п. 1, в которой данные о поведении исполнения файла включают по меньшей мере:
выполняемые файлом команды, передаваемые упомянутым командам атрибуты и возвращаемые значения;
данные участков оперативной памяти, модифицируемые выполняемым файлом;
статические параметры файла.
5. Система, по п. 1, в которой по меньшей мере вычисляемая степень вредоносности или предельная степень безопасности зависят от степени вредоносности и соответственно предельной степени безопасности, вычисленных в момент запуска файла на основании анализа статических данных файла.
6. Система по п. 1, в которой обученная модель вычисления параметров представляет собой совокупность правил вычисления степени вредоносности файла и предельной степени безопасности файла, зависящих от определенных данных о поведении исполнения файла.
7. Система по п. 1, в которой временные законы, описывающие совокупность последовательно вычисленных степеней вредоносности и совокупность последовательно вычисленных предельных степеней безопасности, имеют монотонный характер.
8. Система по п. 1, в котором в качестве взаимосвязи между степенью вредоносности и предельной степенью безопасности выступает по меньшей мере:
отличие расстояния между степенью вредоносности и граничными условиями вредоносности от заранее заданного порогового значения;
отличие площади, ограниченной в заданном временном интервале между степенью вредоносности и граничными условиями, от заранее заданного порогового значения;
отличие скорости взаимного роста кривой, описывающей изменение степени вредоносности и граничных условий вредоносности от времени, от заранее заданного значения.
9. Система по п. 1, которая дополнительно содержит средство корректировки параметров, предназначенное для переобучения модели вычисления параметров на основании анализа вычисленных степени вредоносности и предельной степени безопасности, в результате которого изменения во временных законах, описывающих степень вредоносности и предельную степень безопасности, приводят к тому, что взаимосвязь между значениями, полученными на основании упомянутых законов стремится к максимальной.
10. Система по п. 9, в которой модель вычисления параметров переобучают таким образом, чтобы при использовании упомянутой модели сформированный впоследствии критерий обеспечивал по меньшей мере:
точность определения степени вредоносности и предельной степени безопасности была выше, чем при использовании необученной модели вычисления параметров;
использование вычислительных ресурсов были ниже, чем при использовании необученной модели вычисления параметров.
11. Способ обнаружения вредоносного файла, при этом способ содержит этапы, которые реализуются с помощью средств из системы по п. 1 и на которых:
а) формируют на основании собранных данных о поведении исполнения файла вектор признаков, характеризующих упомянутое поведение, при этом вектор признаков представляет собой свертку собранных данных, сформированную в виде совокупности чисел;
б) вычисляют на основании сформированного вектора признаков с использованием обученной модели вычисления параметров степень вредоносности, представляющую численное значение, характеризующее вероятность того, что файл может оказаться вредоносным, и предельную степень безопасности, представляющую собой численное значение, характеризующее вероятность того, что файл гарантированно окажется вредоносным, при этом совокупность последовательно вычисленных упомянутых степеней описывается заранее заданным временным законом;
в) выполняют этапы а) - б) для разных последовательных временных интервалов исполнения анализируемого файла;
г) выносят решение об обнаружении вредоносного файла в случае, когда собранные данные о поведении исполнения файла удовлетворяют заранее заданному критерию определения вредоносности, сформированному на основании вычисленных на предыдущем этапе степени вредоносности и предельной степени безопасности, при этом в качестве упомянутого критерия выступает правило классификации файла по установленной взаимосвязи между степенью вредоносности и предельной степенью безопасности.
12. Способ по п. 11, по которому модель вычисления параметров была предварительно обучена методом машинного обучения на по меньшей мере одном безопасном файле и вредоносном файле.
13. Способ по п. 11, по которому в качестве метода машинного обучения модели вычисления параметров выступает по меньшей мере:
градиентный бустинг на деревьях принятия решений;
решающие деревья;
метод ближайших соседей kNN;
метод опорных векторов.
14. Способ по п. 11, по которому данные о поведении исполнения файла включают по меньшей мере:
выполняемые файлом команды, передаваемые упомянутым командам атрибуты и возвращаемые значения;
данные участков оперативной памяти, модифицируемые выполняемым файлом;
статические параметры файла.
15. Способ по п. 11, по которому по меньшей мере вычисляемая степень вредоносности или предельная степень безопасности зависят от степени вредоносности и соответственно предельной степени безопасности, вычисленных в момент запуска файла на основании анализа статических данных файла.
16. Способ по п. 11, по которому обученная модель вычисления параметров представляет собой совокупность правил вычисления степени вредоносности файла и предельной степени безопасности файла, зависящих от определенных данных о поведении исполнения файла.
17. Способ по п. 11, по которому временные законы, описывающие совокупность последовательно вычисленных степеней вредоносности и совокупность последовательно вычисленных предельных степеней безопасности, имеют монотонный характер.
18. Способ по п. 11, по которому в качестве взаимосвязи между степенью вредоносности и предельной степенью безопасности выступает по меньшей мере:
отличие расстояния между степенью вредоносности и граничными условиями вредоносности от заранее заданного порогового значения;
отличие площади, ограниченной в заданном временном интервале между степенью вредоносности и граничными условиями, от заранее заданного порогового значения;
отличие скорости взаимного роста кривой, описывающей изменение степени вредоносности и граничных условий вредоносности от времени, от заранее заданного значения.
19. Способ по п. 11, по которому дополнительно переобучают модель вычисления параметров на основании анализа вычисленных степени вредоносности и предельной степени безопасности, в результате которого изменения во временных законах, описывающих степень вредоносности и предельную степень безопасности, приводят к тому, что взаимосвязь между значениями, полученными на основании упомянутых законов, стремится к максимальной.
20. Способ по п. 19, по которому модель вычисления параметров переобучают таким образом, чтобы при использовании упомянутой модели сформированный впоследствии критерий обеспечивал по меньшей мере:
точность определения степени вредоносности и предельной степени безопасности была выше, чем при использовании необученной модели вычисления параметров;
использование вычислительных ресурсов были ниже, чем при использовании необученной модели вычисления параметров.
RU2018147233A 2018-12-28 2018-12-28 Система и способ обнаружения вредоносного файла RU2739865C2 (ru)

Priority Applications (8)

Application Number Priority Date Filing Date Title
RU2018147233A RU2739865C2 (ru) 2018-12-28 2018-12-28 Система и способ обнаружения вредоносного файла
US16/414,907 US11176250B2 (en) 2018-12-28 2019-05-17 System and method for detection of a malicious file
US16/414,832 US11227048B2 (en) 2018-12-28 2019-05-17 Method and system for detecting malicious files using behavior patterns
US16/414,868 US11599630B2 (en) 2018-12-28 2019-05-17 System and method for training a detection model using machine learning
EP19181469.8A EP3674947B1 (en) 2018-12-28 2019-06-20 System and method for detection of a malicious file
CN201910599029.9A CN111382434B (zh) 2018-12-28 2019-07-04 用于检测恶意文件的系统和方法
JP2019138879A JP7023259B2 (ja) 2018-12-28 2019-07-29 悪意あるファイルを検出するためのシステムおよび方法
US17/499,413 US11880455B2 (en) 2018-12-28 2021-10-12 Selecting a detection model for detection of a malicious file

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2018147233A RU2739865C2 (ru) 2018-12-28 2018-12-28 Система и способ обнаружения вредоносного файла

Publications (3)

Publication Number Publication Date
RU2018147233A RU2018147233A (ru) 2020-06-29
RU2018147233A3 RU2018147233A3 (ru) 2020-10-09
RU2739865C2 true RU2739865C2 (ru) 2020-12-29

Family

ID=71121832

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2018147233A RU2739865C2 (ru) 2018-12-28 2018-12-28 Система и способ обнаружения вредоносного файла

Country Status (5)

Country Link
US (4) US11599630B2 (ru)
EP (1) EP3674947B1 (ru)
JP (1) JP7023259B2 (ru)
CN (1) CN111382434B (ru)
RU (1) RU2739865C2 (ru)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11023576B2 (en) * 2018-11-28 2021-06-01 International Business Machines Corporation Detecting malicious activity on a computer system
US11200318B2 (en) * 2018-12-28 2021-12-14 Mcafee, Llc Methods and apparatus to detect adversarial malware
US11029947B2 (en) * 2019-08-30 2021-06-08 Accenture Global Solutions Limited Utilizing artificial intelligence to improve productivity of software development and information technology operations (DevOps)
US20210185080A1 (en) * 2019-12-11 2021-06-17 At&T Intellectual Property I, L.P. Social engineering attack prevention
US11834060B2 (en) * 2020-03-31 2023-12-05 Denso International America, Inc. System and method for managing vehicle subscriptions
KR20230037661A (ko) * 2020-07-17 2023-03-16 그램 랩스 인코포레이티드 컨테이너화된 애플리케이션의 배치를 최적화하기 위한 시스템, 방법 및 서버
CN113010888B (zh) * 2021-03-02 2022-04-19 电子科技大学 一种基于关键神经元的神经网络后门攻击防御方法
CN113221109B (zh) * 2021-03-30 2022-06-28 浙江工业大学 一种基于生成对抗网络的恶意文件智能分析方法
CN116910755A (zh) * 2023-09-13 2023-10-20 北京安天网络安全技术有限公司 一种文件检测方法
CN116956296B (zh) * 2023-09-20 2023-12-01 北京安天网络安全技术有限公司 一种文件的动态检测方法、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110173698A1 (en) * 2010-01-08 2011-07-14 Microsoft Corporation Mitigating false positives in malware detection
RU2012156439A (ru) * 2012-12-25 2014-06-27 Закрытое акционерное общество "Лаборатория Касперского" Система и способ выявления вредоносных программ, препятствующих штатному взаимодействию пользователя с интерфейсом операционной системы
US20140317746A1 (en) * 2013-03-15 2014-10-23 Rudolf H. Hendel System and Method for the Protection of Computers and Computer Networks Against Cyber Threats
US20150128263A1 (en) * 2013-11-07 2015-05-07 Cyberpoint International, LLC Methods and systems for malware detection
CN105247532A (zh) * 2013-03-18 2016-01-13 纽约市哥伦比亚大学理事会 使用硬件特征的无监督的基于异常的恶意软件检测

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8984636B2 (en) * 2005-07-29 2015-03-17 Bit9, Inc. Content extractor and analysis system
US8161548B1 (en) * 2005-08-15 2012-04-17 Trend Micro, Inc. Malware detection using pattern classification
US8032714B2 (en) * 2007-09-28 2011-10-04 Aggregate Knowledge Inc. Methods and systems for caching data using behavioral event correlations
US8060857B2 (en) * 2009-01-31 2011-11-15 Ted J. Biggerstaff Automated partitioning of a computation for parallel or other high capability architecture
US8413244B1 (en) * 2010-11-11 2013-04-02 Symantec Corporation Using temporal attributes to detect malware
US9349006B2 (en) * 2010-11-29 2016-05-24 Beijing Qihoo Technology Company Limited Method and device for program identification based on machine learning
US9015843B2 (en) * 2010-12-03 2015-04-21 Microsoft Corporation Predictive malware threat mitigation
EP2610776B1 (en) * 2011-09-16 2019-08-21 Veracode, Inc. Automated behavioural and static analysis using an instrumented sandbox and machine learning classification for mobile security
US8584235B2 (en) * 2011-11-02 2013-11-12 Bitdefender IPR Management Ltd. Fuzzy whitelisting anti-malware systems and methods
US9245120B2 (en) * 2012-07-13 2016-01-26 Cisco Technologies, Inc. Method and apparatus for retroactively detecting malicious or otherwise undesirable software as well as clean software through intelligent rescanning
US9292688B2 (en) * 2012-09-26 2016-03-22 Northrop Grumman Systems Corporation System and method for automated machine-learning, zero-day malware detection
US11126720B2 (en) * 2012-09-26 2021-09-21 Bluvector, Inc. System and method for automated machine-learning, zero-day malware detection
WO2014149080A1 (en) * 2013-03-18 2014-09-25 The Trustees Of Columbia University In The City Of New York Detection of anomalous program execution using hardware-based micro-architectural data
US9448859B2 (en) * 2013-09-17 2016-09-20 Qualcomm Incorporated Exploiting hot application programming interfaces (APIs) and action patterns for efficient storage of API logs on mobile devices for behavioral analysis
WO2015100538A1 (en) * 2013-12-30 2015-07-09 Nokia Technologies Oy Method and apparatus for malware detection
US10225280B2 (en) * 2014-02-24 2019-03-05 Cyphort Inc. System and method for verifying and detecting malware
US9690933B1 (en) * 2014-12-22 2017-06-27 Fireeye, Inc. Framework for classifying an object as malicious with machine learning for deploying updated predictive models
US9646159B2 (en) * 2015-03-31 2017-05-09 Juniper Networks, Inc. Multi-file malware analysis
US9699205B2 (en) * 2015-08-31 2017-07-04 Splunk Inc. Network security system
TWI547823B (zh) * 2015-09-25 2016-09-01 緯創資通股份有限公司 惡意程式碼分析方法與系統、資料處理裝置及電子裝置
RU2617631C2 (ru) * 2015-09-30 2017-04-25 Акционерное общество "Лаборатория Касперского" Способ обнаружения работы вредоносной программы, запущенной с клиента, на сервере
CN105205396A (zh) * 2015-10-15 2015-12-30 上海交通大学 一种基于深度学习的安卓恶意代码检测系统及其方法
US9928363B2 (en) * 2016-02-26 2018-03-27 Cylance Inc. Isolating data for analysis to avoid malicious attacks
WO2017147441A1 (en) * 2016-02-26 2017-08-31 Cylance Inc. Sub-execution environment controller
RU2628923C1 (ru) * 2016-05-20 2017-08-22 Акционерное общество "Лаборатория Касперского" Система и способ распределения файлов между виртуальными машинами, входящими в распределённую систему виртуальных машин, для выполнения антивирусной проверки
US10270788B2 (en) * 2016-06-06 2019-04-23 Netskope, Inc. Machine learning based anomaly detection
US10972482B2 (en) * 2016-07-05 2021-04-06 Webroot Inc. Automatic inline detection based on static data
CN106778241B (zh) * 2016-11-28 2020-12-25 东软集团股份有限公司 恶意文件的识别方法及装置
US20180150742A1 (en) * 2016-11-28 2018-05-31 Microsoft Technology Licensing, Llc. Source code bug prediction
US11146578B2 (en) * 2016-12-16 2021-10-12 Patternex, Inc. Method and system for employing graph analysis for detecting malicious activity in time evolving networks
US10645107B2 (en) * 2017-01-23 2020-05-05 Cyphort Inc. System and method for detecting and classifying malware
CN106790292A (zh) * 2017-03-13 2017-05-31 摩贝(上海)生物科技有限公司 基于行为特征匹配和分析的web应用层攻击检测与防御方法
US10917419B2 (en) * 2017-05-05 2021-02-09 Servicenow, Inc. Systems and methods for anomaly detection
US10089467B1 (en) * 2017-05-23 2018-10-02 Malwarebytes Inc. Static anomaly-based detection of malware files
US20200184072A1 (en) * 2017-06-23 2020-06-11 Nec Corporation Analysis device, log analysis method, and recording medium
US10560487B2 (en) * 2017-07-26 2020-02-11 International Business Machines Corporation Intrusion detection and mitigation in data processing
RU2659737C1 (ru) 2017-08-10 2018-07-03 Акционерное общество "Лаборатория Касперского" Система и способ управления вычислительными ресурсами для обнаружения вредоносных файлов
RU2654151C1 (ru) 2017-08-10 2018-05-16 Акционерное общество "Лаборатория Касперского" Система и способ обнаружения вредоносных файлов с использованием обученной модели обнаружения вредоносных файлов
US11182695B1 (en) * 2017-08-18 2021-11-23 Groupon, Inc. Method, apparatus, and computer program product for machine learning model lifecycle management
WO2019075399A1 (en) * 2017-10-13 2019-04-18 Huawei Technologies Co., Ltd. SYSTEM AND METHOD FOR COLLABORATIVE REAL TIME USER USE OF CLOUD DEVICE AND DETECTION OF PERFORMANCE ANOMALY
JP6731981B2 (ja) 2017-10-18 2020-07-29 エーオー カスペルスキー ラボAO Kaspersky Lab 機械学習モデルに基づいた悪意のあるファイルの検出のための計算資源を管理するシステムおよび方法
US11568301B1 (en) * 2018-01-31 2023-01-31 Trend Micro Incorporated Context-aware machine learning system
CN108629183B (zh) * 2018-05-14 2021-07-20 南开大学 基于可信度概率区间的多模型恶意代码检测方法
US11574051B2 (en) * 2018-08-02 2023-02-07 Fortinet, Inc. Malware identification using multiple artificial neural networks
US10826932B2 (en) * 2018-08-22 2020-11-03 General Electric Company Situation awareness and dynamic ensemble forecasting of abnormal behavior in cyber-physical system
RU2724710C1 (ru) * 2018-12-28 2020-06-25 Акционерное общество "Лаборатория Касперского" Система и способ классификации объектов вычислительной системы

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110173698A1 (en) * 2010-01-08 2011-07-14 Microsoft Corporation Mitigating false positives in malware detection
RU2012156439A (ru) * 2012-12-25 2014-06-27 Закрытое акционерное общество "Лаборатория Касперского" Система и способ выявления вредоносных программ, препятствующих штатному взаимодействию пользователя с интерфейсом операционной системы
US20140317746A1 (en) * 2013-03-15 2014-10-23 Rudolf H. Hendel System and Method for the Protection of Computers and Computer Networks Against Cyber Threats
CN105247532A (zh) * 2013-03-18 2016-01-13 纽约市哥伦比亚大学理事会 使用硬件特征的无监督的基于异常的恶意软件检测
US20150128263A1 (en) * 2013-11-07 2015-05-07 Cyberpoint International, LLC Methods and systems for malware detection

Also Published As

Publication number Publication date
US20200210567A1 (en) 2020-07-02
US20220043910A1 (en) 2022-02-10
US11227048B2 (en) 2022-01-18
EP3674947B1 (en) 2022-06-22
RU2018147233A3 (ru) 2020-10-09
JP2020115320A (ja) 2020-07-30
RU2018147233A (ru) 2020-06-29
CN111382434B (zh) 2023-08-01
US11176250B2 (en) 2021-11-16
US11599630B2 (en) 2023-03-07
US11880455B2 (en) 2024-01-23
US20200210576A1 (en) 2020-07-02
US20200210577A1 (en) 2020-07-02
CN111382434A (zh) 2020-07-07
EP3674947A1 (en) 2020-07-01
JP7023259B2 (ja) 2022-02-21

Similar Documents

Publication Publication Date Title
RU2739865C2 (ru) Система и способ обнаружения вредоносного файла
RU2724710C1 (ru) Система и способ классификации объектов вычислительной системы
RU2679785C1 (ru) Система и способ классификации объектов
US11403396B2 (en) System and method of allocating computer resources for detection of malicious files
US10878090B2 (en) System and method of detecting malicious files using a trained machine learning model
US10795996B2 (en) System and method of machine learning of malware detection model
US10929534B2 (en) System and method detecting malicious files using machine learning
RU2654146C1 (ru) Система и способ обнаружения вредоносных файлов с использованием элементов статического анализа
RU2654151C1 (ru) Система и способ обнаружения вредоносных файлов с использованием обученной модели обнаружения вредоносных файлов
CN109684072B (zh) 基于机器学习模型管理用于检测恶意文件的计算资源的系统和方法
RU2673708C1 (ru) Система и способ машинного обучения модели обнаружения вредоносных файлов