RU2710985C1 - Способ оценки устойчивости киберфизической системы к компьютерным атакам - Google Patents

Способ оценки устойчивости киберфизической системы к компьютерным атакам Download PDF

Info

Publication number
RU2710985C1
RU2710985C1 RU2019109130A RU2019109130A RU2710985C1 RU 2710985 C1 RU2710985 C1 RU 2710985C1 RU 2019109130 A RU2019109130 A RU 2019109130A RU 2019109130 A RU2019109130 A RU 2019109130A RU 2710985 C1 RU2710985 C1 RU 2710985C1
Authority
RU
Russia
Prior art keywords
cfs
values
processes
computer
database
Prior art date
Application number
RU2019109130A
Other languages
English (en)
Inventor
Дмитрий Петрович Зегжда
Дарья Сергеевна Лаврова
Евгений Юрьевич Павленко
Original Assignee
федеральное государственное автономное образовательное учреждение высшего образования "Санкт-Петербургский политехнический университет Петра Великого" (ФГАОУ ВО "СПбПУ")
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by федеральное государственное автономное образовательное учреждение высшего образования "Санкт-Петербургский политехнический университет Петра Великого" (ФГАОУ ВО "СПбПУ") filed Critical федеральное государственное автономное образовательное учреждение высшего образования "Санкт-Петербургский политехнический университет Петра Великого" (ФГАОУ ВО "СПбПУ")
Priority to RU2019109130A priority Critical patent/RU2710985C1/ru
Priority to EA201992834A priority patent/EA039497B1/ru
Application granted granted Critical
Publication of RU2710985C1 publication Critical patent/RU2710985C1/ru

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/14Network architectures or network communication protocols for network security for detecting or protecting against malicious traffic
    • H04L63/1433Vulnerability analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/50Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
    • G06F21/55Detecting local intrusion or implementing counter-measures
    • G06F21/552Detecting local intrusion or implementing counter-measures involving long-term monitoring or reporting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N5/025Extracting rules from data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/14Network architectures or network communication protocols for network security for detecting or protecting against malicious traffic
    • H04L63/1441Countermeasures against malicious traffic
    • H04L63/1466Active attacks involving interception, injection, modification, spoofing of data unit addresses, e.g. hijacking, packet injection or TCP sequence number attacks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Stored Programmes (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Debugging And Monitoring (AREA)

Abstract

Изобретение относится к вычислительной технике. Технический результат заключается в увеличении степени защищенности киберфизической системы от компьютерных атак. Способ оценки устойчивости киберфизических систем к компьютерным атакам, отличающийся тем, что в базе данных на сервере баз данных формируется список правил работы КФС, затем для всех процессов КФС назначаются весовые коэффициенты, затем значения коэффициентов для каждого процесса записываются в базу данных, затем для каждого процесса КФС, представленного как маршрут на графе, ищутся альтернативные маршруты, затем найденные для каждого процесса альтернативные маршруты формируют множества альтернативных маршрутов, для каждого множества вычисляется его мощность, затем вычисляется оценка устойчивости киберфизической системы к компьютерным атакам путем вычисления суммы произведений числа альтернативных маршрутов для маршрута, отражающего каждый процесс КФС, на весовой коэффициент соответствующего процесса, затем значение вычисленной оценки сохраняется в базу данных как «эталонное», затем в различные моменты времени снова производится оценка устойчивости и выполняется контроль значений полученных оценок, заключающийся в сравнении полученных значений с «эталонным» значением или с диапазоном значений. 1 ил.

Description

Изобретение относится к области компьютерных систем, а именно к киберфизическим системам (КФС) и оценке их устойчивости к компьютерным атакам.
Известен способ численной оценки устойчивости промышленных систем управления (патент США №US20130132149A1, опубл. 10.06.2010) и решающий задачу получения количественной оценки устойчивости промышленных систем управления, учитывая нежелательные инциденты, связанные с промышленной системой управления. Рассматриваются нежелательные инциденты, результатом которых является возможность операторов системы выполнять ненадлежащие операции.
Способ направлен на расширение понятия устойчивости, определяя устойчивость как способность и скорость восстановления нормальной работы системы после нежелательного инцидента [0008].
Способ базируется на оценке рисков и реализует циклический процесс, включающий этапы: определения набора критических нежелательных инцидентов, выполнения оценки риска для этих инцидентов (с точки зрения частоты их возникновения и финансовых затрат для системы), определения действий для минимизации частоты каждого нежелательного инцидента, минимизации времени, необходимого для восстановления производительности промышленной системы управления до ее первоначального уровня производительности.
Данное изобретение обладает следующими недостатками:
1. Авторы определяют устойчивость как скорость восстановления промышленной системы управления после того, как произошел нежелательный инцидент [0008]. Это говорит о том, что данный способ реализует апостериорную защиту системы от атак, в условиях того, что нарушение работоспособности системы, вызванное кибератакой, уже произошло. Такой подход не позволяет сохранить работоспособность системы, а только восстановить ее. В связи с этим, данное изобретение неприменимо в промышленных системах управления критическими технологическими процессами (ядерная энергетика, военная отрасль и т.д.). Успешная реализация атак на такие системы может привести к катастрофическим последствиям, поэтому приоритетной задачей является задача сопротивления системы к кибератакам, которая не решается данным изобретением.
2. Критерием устойчивости данного изобретения является производительность промышленной системы управления, что неэффективно при реализации злоумышленником низкоинтенсивных кибератак, а также целенаправленных (Advanced Persistent Threat) кибератак, целью которых может являться не выведение промышленной системы из строя, а изменение логики и параметров ее функционирования с сохранением производительности.
Известны способ и система (патент США №US9203859B2, опубл. 01.02.2012) для моделирования киберфизической безопасности, симуляции и архитектуры для интеллектуальных энергосетей (Smart Grid). Способ используется для оценки по меньшей мере одной угрозы безопасности для сложных систем. Каждая угроза определяется как кибератака или физическая атака на цель, целью может являться как кибер-компонент, так и физический компонент системы. Согласно пп. 3, 4 CLAIMS, оценка включает в себя оценку серьезности угрозы кибератаки на один или несколько физических компонентов.
В данном способе оценка формируется на основании наличия хотя бы одной уязвимости в компонентах системы. Серьезность угрозы оценивается на основании созданного отчета об угрозе (п. 9 CLAIMS). В связи с этим можно сделать вывод о том, что оценка может быть получена только в случае найденной уязвимости. При этом, в описании к изобретению отмечается, что термин «угроза» связан с вызовом катастрофы или с ухудшением производительности. Отсюда следует, что изобретение обладает следующими недостатками:
1) оценка не инвариантна к типу компьютерных атак и может быть вычислена только в случае реализации злоумышленником на систему атак определенного типа;
2) оценка может быть получена только в отдельных случаях – когда обнаружена уязвимость, и для атак определенного типа, что неэффективно.
Известны способ и система обеспечения киберустойчивости (патент США №US20180103052A1, опубл. 11.10.2016), основывающиеся на извлечении данных, выявлении событий, оценке и ранжировании уведомлений безопасности, оценке риска и формировании рекомендаций по его снижению.
Процесс извлечения знаний включает в себя автоматический сбор информации о поведении каждой сущности. Полученная информация используется для создания графа знаний [0007]. Для обнаружения и локализации аномалий в поведении сущностей используются предварительно обученные искусственные нейронные сети [0011]. При обнаружении аномалии производится построение цепочки состояний, которая связывала бы текущее состояние с небезопасным состоянием. При обнаружении цепочки состояний с высокой вероятностью, данная цепочка передается эксперту для изменения конфигурации системы [0017].
Сбор информации о поведении системы включает сбор трафика и сбор информации из логов. Поскольку не учитываются показатели устройств, отследить аномалию в показателях физического процесса, осуществляемого в киберфизической системе, не представляется возможным.
Для оценки вероятности перехода системы в небезопасное состояние должна иметь место аномалия. При осуществлении ряда компьютерных атак время между появлением аномалий в системе и завершением атаки может быть незначительным. Таким образом, метод может не успеть обнаружить атаку до ее завершения. В том случае, когда метод позволит обнаружить факт атаки до момента ее завершения, метод сможет ее прервать. Однако в таком случае атака может успеть оказать деструктивное воздействие на систему.
Отсюда следует, что изобретение обладает следующими недостатками:
1) не учитывает показатели, характеризующие физические процессы, протекающие в системе, что негативно влияет на точность обнаружения компьютерных атак, поскольку некоторые атаки могут быть реализованы через уязвимости в прошивке или программном обеспечении физических устройств;
2) изобретение реализует апостериорный подход к защите от компьютерных атак, поскольку оценка киберустойчивости может быть получена только в случае обнаружения аномалии. Таким образом, не обеспечивается противодействие компьютерным атакам, проводимым на систему.
Технической проблемой заявляемого изобретения является разработка способа оценки устойчивости КФС к компьютерным атакам с целью оценки степени сопротивляемости системы деструктивным информационным воздействиям со стороны злоумышленника.
Технический результат заключается в увеличении степени защищенности киберфизической системы от компьютерных атак за счет оценки ее устойчивости к компьютерным атакам в различные моменты времени и контроля значений полученных оценок, направленного на поддержание значения устойчивости системы в определенных пределах, гарантирующих способность системы сохранять способность корректного функционирования даже в условиях компьютерных атак.
Технический результат достигается способом оценки устойчивости киберфизических систем к компьютерным атакам, который включает компьютерное представление киберфизической системы в виде графа, определение критически важных процессов для киберфизической системы с использованием технической документации и компьютерное представление выделенных критически важных процессов в виде маршрутов на графе, моделирующем киберфизическую систему, в предлагаемом способе в базе данных, располагающейся на сервере баз данных, формируется список правил работы КФС, содержащий описание соотношений между процессами системы с использованием логических предикатов, описывающих одновременное выполнение процессов, запрет на одновременное выполнение процессов, инициирование выполнения процесса, и описание условий для поиска альтернативных маршрутов на графе, затем список правил записывается в базу данных, располагающуюся на сервере баз данных, затем для всех процессов КФС назначаются весовые коэффициенты, представляющие собой вещественное число в промежутке от 0 до 1, при этом, выделенным критически важным процессам назначаются минимальные весовые коэффициенты, затем значения коэффициентов для каждого процесса записываются в базу данных, затем для каждого процесса КФС, представленного как маршрут на графе, в этом же графе ищутся альтернативные маршруты, с учетом ограничений, описанных в списке правил работы КФС, затем найденные для каждого процесса альтернативные маршруты формируют множества альтернативных маршрутов, для каждого множества вычисляется его мощность, представляющая собой число элементов в множестве, затем вычисляется оценка устойчивости киберфизической системы к компьютерным атакам путем вычисления суммы произведений числа альтернативных маршрутов для маршрута, отражающего каждый процесс КФС, на весовой коэффициент соответствующего процесса, затем значение вычисленной оценки сохраняется в базу данных как «эталонное», также в базу данных записываются значения концов диапазона, характеризующего корректное функционирование КФС, вычисляемые как отклонения в меньшую и большую сторону для «эталонного» значения, затем в различные моменты времени снова производится оценка устойчивости и выполняется контроль значений полученных оценок, заключающийся в сравнении полученных значений с «эталонным» значением или с диапазоном значений, затем, если новое значение оценки не попадает в диапазон, выполняется его запись в отдельную таблицу базы данных, содержащую аномальные значений оценки устойчивости, затем на экран компьютера выводится уведомление о том, что устойчивость КФС снизилась в результате возможной компьютерной атаки на КФС, что является сигналом об автоматическом внесении изменений в структуру КФС для поддержания значения устойчивости системы в определенных пределах, описываемых диапазоном значений, содержащим отклонения от «эталонного» значения оценки.
Т.е. решение поставленной задачи обеспечивается тем, что в способе оценки устойчивости КФС к компьютерным атакам реализуется представление КФС в виде графа, а процессов, выполняемых системой – в виде маршрутов на графах. Для каждого процесса (маршрута на графе) определяется множество маршрутов, аналогичных ему по функциям, обеспечивающих выполнение того же процесса, только с использованием других компонентов КФС. Сумма произведений числа альтернативных маршрутов для маршрута, отражающего каждый процесс КФС, на весовой коэффициент соответствующего процесса, и является численной оценкой устойчивости КФС к компьютерным атакам.
Увеличение степени защищенности КФС от компьютерных атак напрямую связано с оценкой устойчивости КФС к компьютерным атакам за счет того, что контроль значений оценок, которые могут быть получены в любое время, позволит по отклонениям значений оценок от «эталонного» зафиксировать компьютерную атаку, реализуемую на КФС, на ранней стадии. Это связано с высокой чувствительностью разработанной оценки устойчивости к изменениям в системе.
Изобретение поясняется Фиг. 1, изображающей схему работы способа.
Важность получения численного значения оценки устойчивости системы к компьютерным атакам обоснована тем, что контроль данного значения позволит обнаружить попытки реализации атаки на систему на ранней стадии и тем самым даст возможность администратору безопасности предотвратить компьютерную атаку, сохранив способность КФС к корректной работе.
Важность решения данной задачи связана также с тем, что большинство КФС интегрированы с промышленными областями деятельности, в том числе, критическими (энергетика, транспорт, военная отрасль и т.д.), поэтому успешная реализация компьютерных атак на такие системы может повлечь за собой катастрофические последствия.
Требования к оценке устойчивости:
1. Оценка должна быть инвариантна к типу компьютерных атак. Данное свойство означает, что оценка не должна учитывать сложность, ресурсоёмкость и другие параметры атаки, она должна быть независима от них. Для оценки важен сам факт проведения компьютерной атаки и возможность нарушения безопасности работы КФС.
2. Оценка должна быть универсальной. Данное свойство означает, что оценка применима для КФС различных типов.
3. Оценка должна быть количественной. КФС имеют сложную структуру, в их состав входит большое число различных компонент, каждый из которых может быть подвержен деструктивному воздействию. В связи с этим, качественной характеристики безопасности КФС, позволяющий ответить на вопрос «Находится ли КФС в состоянии безопасности?» положительно или отрицательно, недостаточно. Для обеспечения защищенности КФС необходимо знать о возможных способностях КФС противодействовать деструктивным воздействиям.
4. Оценка должна быть вычислима в режиме реального времени. Данное требование обосновано необходимостью своевременного обнаружения атак и реагирования на них.
5. Оценка должна быть сравнимой. Это означает, что должна быть возможность сравнивать полученные значения оценок и ранжировать их, сравнивая безопасность различных КФС или уровень безопасности одной и той же КФС в различные моменты времени.
Предлагается трактовать безопасность КФС как сохранение устойчивости в условиях компьютерных атак на ее компоненты. Определение устойчивости КФС состоит в оценке возможности нахождения ее в устойчивом состоянии, причем данная оценка должна проводиться для системы в целом, а не отдельных ее элементов.
Для получения численной оценки устойчивости, киберфизическая система представляется в виде ориентированного графа
Figure 00000001
, где:
1) все компоненты системы формируют множество вершин графа
Figure 00000002
,
Figure 00000003
. При этом, каждая вершина
Figure 00000004
характеризуется кортежем
Figure 00000005
.
Figure 00000006
– идентификатор устройства,
Figure 00000007
– тип устройства (датчик, актуатор, контроллер, интеллектуальное устройство и т.п.).
Figure 00000008
– множество функций, реализуемых вершиной
Figure 00000004
, где верхний индекс
Figure 00000009
обозначает режим выполнения функции (использует ли компонент
Figure 00000004
функциональность
Figure 00000010
в текущем процессе КФС или нет
Figure 00000011
– число процессов, в которых задействован данный компонент;
2) все потоки информации между компонентами КФС формируют множество дуг
Figure 00000012
. Исходящая из вершины дуга означает, что данная вершина (компонент КФС) осуществляет управляющее информационное воздействие на другую вершину (другой компонент КФС).
С использованием документации на КФС и/или с помощью экспертных знаний, для КФС определяется множество процессов
Figure 00000013
, которые она должна реализовывать,
Figure 00000014
. Каждый процесс
Figure 00000015
характеризуется кортежем
Figure 00000016
:
1)
Figure 00000006
– идентификатор процесса;
2)
Figure 00000017
– множество маршрутов графа
Figure 00000018
, элементы которого представляют собой совокупность различных путей из вершины v i
Figure 00000019
в вершину v j
Figure 00000020
: S i j = { s i j ( 1 ) , s i j ( 2 ) ,... }
Figure 00000021
, s i j ( k ) = < v i ,..., v j >
Figure 00000022
, k = 1,..., | S i j |
Figure 00000023
.
3) Множество
Figure 00000024
– множество функций, которые должны быть выполнены в рамках данного процесса, в определенной очередности,
Figure 00000025
. При выполнении маршрута
Figure 00000026
на графе происходит переход между вершинами графа, характеризующийся поочередным выполнением функций
Figure 00000027
, где
Figure 00000028
– число функций, задействованных в маршруте
Figure 00000026
, а
Figure 00000029
– индексы задействованных функций соответствующих вершин.
4)
Figure 00000030
– весовой коэффициент,
Figure 00000031
, означающий критичность данного процесса для данной КФС – чем процесс критичнее, тем ближе значение
Figure 00000030
к 0.
Между процессами КФС, описываемыми множеством
Figure 00000013
, устанавливаются соотношения. Каждый процесс по отношению к другому/другим может быть независимым (протекание процесса не зависит от выполнения процессов) или зависимым (протекание процесса зависит от выполнения процессов). Для зависимых процессов могут быть следующие соотношения:
1) процессы выполняются одновременно;
2) процессы никогда не выполняются одновременно;
3) процесс является следствием непустого множества других процессов;
4) процесс инициирует выполнение непустого множества других процессов.
Установленные соотношения описываются в виде правил с использованием логических предикатов и записываются в базу данных.
Каждому процессу КФС из множества
Figure 00000013
автоматически назначаются значения
Figure 00000032
. При этом, должно быть выполнено следующее условие: если некоторое множество процессов
Figure 00000033
, инициирует процесс
Figure 00000015
, значение
Figure 00000034
которого близко к 0, каждому процессу из множества
Figure 00000035
должен быть назначен такой же весовой коэффициент, как
Figure 00000034
.
Описываются правила выбора альтернативных по функциям маршрутов на графе. Альтернативным по функциям считается маршрут, в рамках которого обеспечивается выполнение такой же совокупности функций в такой же очередности. Множество альтернативных маршрутов обозначим
Figure 00000036
,
Figure 00000037
. Тогда
Figure 00000038
.
При этом, альтернативный маршрут может включать в себя большее число вершин, чем исходный маршрут. Однако для этого должны выполняться следующие условия:
1) вершина графа
Figure 00000004
может быть заменена вершиной
Figure 00000039
, если
Figure 00000040
;
2) вершина графа
Figure 00000004
, реализующая функции
Figure 00000041
, может быть заменена множеством вершин (
Figure 00000042
, если совокупно они реализуют суперпозицию функций
Figure 00000043
;
3) вершина графа
Figure 00000004
может быть включена в альтернативный маршрут только в том случае, если число процессов, в которых она будет задействована, не превышает
Figure 00000011
– число процессов, в которых задействован данный компонент.
Оценка устойчивости КФС к компьютерным атакам связана с количеством альтернативных маршрутов, характеризующих каждый процесс, реализуемый КФС.
Для каждого процесса
Figure 00000044
выполняется поиск альтернативных маршрутов, для чего для каждого маршрута
Figure 00000045
выполняется поиск
Figure 00000046
, формирующих множество
Figure 00000047
. Для каждого множества
Figure 00000047
вычисляется его мощность
Figure 00000048
.
Значениям мощностей для каждого процесса
Figure 00000015
сопоставляется весовой коэффициент
Figure 00000034
, соответствующий данному процессу. Итоговая формула оценки, обозначаемой
Figure 00000049
, вычисляется по следующей формуле:
Figure 00000050
.
За счет того, что у всех маршрутов на графе, отражающих выполнение наиболее критичных процессов КФС, будет маленький вес, даже незначительное изменение числа маршрутов для критичных процессов приведет к большему изменению численного значения оценки, чем изменение числа некритичных маршрутов.
Способ предполагает:
1. Представление КФС в виде ориентированного графа, где компоненты системы – вершины графа, а информационный обмен между компонентами – дуги.
2. Определение множества процессов, необходимых для работы КФС.
3. Определение соотношений между процессами:
1) процессы выполняются одновременно;
2) процессы никогда не выполняются одновременно;
3) процесс является следствием непустого множества других процессов;
4) процесс инициирует выполнение непустого множества других процессов.
1. Описание соотношений между процессами с помощью логики предикатов и их запись в базу данных правил работы КФС.
2. Назначение весовых коэффициентов каждому процессу таким образом, что значение коэффициента принадлежит промежутку
Figure 00000051
, и значения коэффициентов наиболее критичных процессов близки к 0.
3. Описание правил выбора альтернативных по функциям маршрутов на графе, отражающих следующие условия выбора маршрутов:
1) замена вершин графа может быть выполнена только в том случае, если эти вершины характеризуют устройства КФС одного типа;
2) одна вершина может быть заменена на несколько вершин, если совокупно это множество вершин реализует в нужной последовательности набор функций, выполняемых изначальной вершиной;
3) вершина графа может быть включена в альтернативный маршрут только в том случае, если число процессов, в которых она будет задействована, не превышает число процессов, в которых задействован данный компонент.
1. Формирование для каждого процесса множества альтернативных маршрутов на графе.
2. Вычисление мощности множества альтернативных маршрутов.
3. Вычисление оценки устойчивости КФС к компьютерным атакам как суммы произведений числа альтернативных маршрутов для маршрута, отражающего каждый процесс КФС, на весовой коэффициент соответствующего процесса.
В итоге для КФС вычисляется оценка устойчивости, которая может быть получена в любой момент времени для всей системы в целом. При этом она чувствительна к изменениям в системе, относящимся к наиболее важным ее процессам.
Данный способ обеспечивает повышение точности обнаружения компьютерных атак за счет возможности получения значений оценок в различные моменты времени и сравнения полученных значений с «эталонным» значением или с диапазоном значений для корректно функционирующей КФС, находящейся в состоянии безопасности. Высокая чувствительность значения оценки, предлагаемой к вычислению в данном изобретении, к изменениям в параметрах протекания критических для данной КФС процессов, также увеличивает точность обнаружения компьютерных атак на систему. Оценка инвариантна к типу деструктивных воздействий, что, в совокупности с рассмотренными ранее особенностями, обеспечивает увеличение степени защищенности киберфизической системы от компьютерных атак.

Claims (1)

  1. Способ оценки устойчивости киберфизических систем к компьютерным атакам, включающий компьютерное представление киберфизической системы в виде графа, определение критически важных процессов для киберфизической системы с использованием технической документации и компьютерное представление выделенных критически важных процессов в виде маршрутов на графе, моделирующем киберфизическую систему, и отличающийся тем, что в базе данных, располагающейся на сервере баз данных, формируется список правил работы КФС, содержащий описание соотношений между процессами системы с использованием логических предикатов, описывающих одновременное выполнение процессов, запрет на одновременное выполнение процессов, инициирование выполнения процесса, и описание условий для поиска альтернативных маршрутов на графе, затем список правил записывается в базу данных, располагающуюся на сервере баз данных, затем для всех процессов КФС назначаются весовые коэффициенты, представляющие собой вещественное число в промежутке от 0 до 1, при этом выделенным критически важным процессам назначаются минимальные весовые коэффициенты, затем значения коэффициентов для каждого процесса записываются в базу данных, затем для каждого процесса КФС, представленного как маршрут на графе, в этом же графе ищутся альтернативные маршруты с учетом ограничений, описанных в списке правил работы КФС, затем найденные для каждого процесса альтернативные маршруты формируют множества альтернативных маршрутов, для каждого множества вычисляется его мощность, представляющая собой число элементов в множестве, затем вычисляется оценка устойчивости киберфизической системы к компьютерным атакам путем вычисления суммы произведений числа альтернативных маршрутов для маршрута, отражающего каждый процесс КФС, на весовой коэффициент соответствующего процесса, затем значение вычисленной оценки сохраняется в базу данных как «эталонное», также в базу данных записываются значения концов диапазона, характеризующего корректное функционирование КФС, вычисляемые как отклонения в меньшую и большую сторону для «эталонного» значения, затем в различные моменты времени снова производится оценка устойчивости и выполняется контроль значений полученных оценок, заключающийся в сравнении полученных значений с «эталонным» значением или с диапазоном значений, затем, если новое значение оценки не попадает в диапазон, выполняется его запись в отдельную таблицу базы данных, содержащую аномальные значения оценки устойчивости, затем на экран компьютера выводится уведомление о том, что устойчивость КФС снизилась в результате возможной компьютерной атаки на КФС, что является сигналом об автоматическом внесении изменений в структуру КФС для поддержания значения устойчивости системы в определенных пределах, описываемых диапазоном значений, содержащим отклонения от «эталонного» значения оценки.
RU2019109130A 2019-03-28 2019-03-28 Способ оценки устойчивости киберфизической системы к компьютерным атакам RU2710985C1 (ru)

Priority Applications (2)

Application Number Priority Date Filing Date Title
RU2019109130A RU2710985C1 (ru) 2019-03-28 2019-03-28 Способ оценки устойчивости киберфизической системы к компьютерным атакам
EA201992834A EA039497B1 (ru) 2019-03-28 2019-12-25 Способ оценки устойчивости киберфизической системы к компьютерным атакам

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2019109130A RU2710985C1 (ru) 2019-03-28 2019-03-28 Способ оценки устойчивости киберфизической системы к компьютерным атакам

Publications (1)

Publication Number Publication Date
RU2710985C1 true RU2710985C1 (ru) 2020-01-14

Family

ID=69171528

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2019109130A RU2710985C1 (ru) 2019-03-28 2019-03-28 Способ оценки устойчивости киберфизической системы к компьютерным атакам

Country Status (2)

Country Link
EA (1) EA039497B1 (ru)
RU (1) RU2710985C1 (ru)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11863578B1 (en) * 2019-10-15 2024-01-02 The United States Of America, As Represented By The Secretary Of The Navy Cyber vulnerability assessment tool threat assessment heuristie

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2578759C2 (ru) * 2013-09-06 2016-03-27 Общество С Ограниченной Ответственностью "Кибернетические Технологии" Устройство управления в киберфизических системах, преимущественно для управления мобильными роботами и/или беспилотными летательными аппаратами
WO2017171639A1 (en) * 2016-03-29 2017-10-05 Singapore University Of Technology And Design Method of detecting cyber attacks on a cyber physical system which includes at least one computing device coupled to at least one sensor and/or actuator for controlling a physical process
US20180103052A1 (en) * 2016-10-11 2018-04-12 Battelle Memorial Institute System and methods for automated detection, reasoning and recommendations for resilient cyber systems
US20180159881A1 (en) * 2015-10-28 2018-06-07 Fractal Industries, Inc. Automated cyber physical threat campaign analysis and attribution
US20180159890A1 (en) * 2016-12-06 2018-06-07 Brigham Young University Modeling of attacks on cyber-physical systemscyber-physical systems

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10248910B2 (en) * 2015-10-28 2019-04-02 Fractal Industries, Inc. Detection mitigation and remediation of cyberattacks employing an advanced cyber-decision platform
US10313382B2 (en) * 2016-03-29 2019-06-04 The Mitre Corporation System and method for visualizing and analyzing cyber-attacks using a graph model
EP3291120B1 (en) * 2016-09-06 2021-04-21 Accenture Global Solutions Limited Graph database analysis for network anomaly detection systems

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2578759C2 (ru) * 2013-09-06 2016-03-27 Общество С Ограниченной Ответственностью "Кибернетические Технологии" Устройство управления в киберфизических системах, преимущественно для управления мобильными роботами и/или беспилотными летательными аппаратами
US20180159881A1 (en) * 2015-10-28 2018-06-07 Fractal Industries, Inc. Automated cyber physical threat campaign analysis and attribution
WO2017171639A1 (en) * 2016-03-29 2017-10-05 Singapore University Of Technology And Design Method of detecting cyber attacks on a cyber physical system which includes at least one computing device coupled to at least one sensor and/or actuator for controlling a physical process
US20180103052A1 (en) * 2016-10-11 2018-04-12 Battelle Memorial Institute System and methods for automated detection, reasoning and recommendations for resilient cyber systems
US20180159890A1 (en) * 2016-12-06 2018-06-07 Brigham Young University Modeling of attacks on cyber-physical systemscyber-physical systems

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11863578B1 (en) * 2019-10-15 2024-01-02 The United States Of America, As Represented By The Secretary Of The Navy Cyber vulnerability assessment tool threat assessment heuristie

Also Published As

Publication number Publication date
EA201992834A1 (ru) 2020-09-30
EA039497B1 (ru) 2022-02-03

Similar Documents

Publication Publication Date Title
de Gusmão et al. Cybersecurity risk analysis model using fault tree analysis and fuzzy decision theory
US10440048B1 (en) Anti-attacking modelling for CMD systems based on GSPN and Martingale theory
Musman et al. Computing the impact of cyber attacks on complex missions
US20180096153A1 (en) System and Method for Responding to a Cyber-Attack-Related Incident Against an Industrial Control System
Colabianchi et al. Discussing resilience in the context of cyber physical systems
Zhang et al. Exploring the usefulness of unlabelled test cases in software fault localization
US9558346B1 (en) Information processing systems with security-related feedback
Elsayed et al. PredictDeep: security analytics as a service for anomaly detection and prediction
CN108092985B (zh) 网络安全态势分析方法、装置、设备及计算机存储介质
Devroey et al. Abstract test case generation for behavioural testing of software product lines
CN113658715A (zh) 一种面向船舶航行风险管控的安全屏障管理方法及系统
RU2710985C1 (ru) Способ оценки устойчивости киберфизической системы к компьютерным атакам
CN116016198A (zh) 一种工控网络拓扑安全评估方法、装置及计算机设备
Ehis Optimization of security information and event management (SIEM) infrastructures, and events correlation/regression analysis for optimal cyber security posture
Li et al. Nodlink: An online system for fine-grained apt attack detection and investigation
Salazar et al. Monitoring approaches for security and safety analysis: application to a load position system
Kansal et al. Prioritising vulnerabilities using ANP and evaluating their optimal discovery and patch release time
KR102111136B1 (ko) 대응지시서를 생성하고, 적용 결과를 분석하는 방법, 감시장치 및 프로그램
Trifonov et al. Automation of cyber security incident handling through artificial intelligence methods
Anbalagan A study of software security problem disclosure, correction and patching processes
CN114039837A (zh) 告警数据处理方法、装置、系统、设备和存储介质
CN114091644A (zh) 一种人工智能产品的技术风险评估方法及系统
Muller Risk monitoring with intrusion detection for industrial control systems
Lee et al. DRS: A developer risk metric for better predicting software fault-proneness
Narang et al. Prioritizing types of vulnerability on the basis of their severity in multi-version software systems using DEMATEL technique