RU2542901C1 - Способ управления компьютерной сетью - Google Patents

Способ управления компьютерной сетью Download PDF

Info

Publication number
RU2542901C1
RU2542901C1 RU2014109326/08A RU2014109326A RU2542901C1 RU 2542901 C1 RU2542901 C1 RU 2542901C1 RU 2014109326/08 A RU2014109326/08 A RU 2014109326/08A RU 2014109326 A RU2014109326 A RU 2014109326A RU 2542901 C1 RU2542901 C1 RU 2542901C1
Authority
RU
Russia
Prior art keywords
values
indicators
computer network
training
indicator
Prior art date
Application number
RU2014109326/08A
Other languages
English (en)
Inventor
Валерий Игоревич Куваев
Игорь Борисович Саенко
Фадей Александрович Скорик
Original Assignee
Федеральное государственное казенное военное образовательное учреждение высшего профессионального образования "ВОЕННАЯ АКАДЕМИЯ СВЯЗИ имени Маршала Советского Союза С.М. Буденного" Министерства обороны Российской Федерации
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Федеральное государственное казенное военное образовательное учреждение высшего профессионального образования "ВОЕННАЯ АКАДЕМИЯ СВЯЗИ имени Маршала Советского Союза С.М. Буденного" Министерства обороны Российской Федерации filed Critical Федеральное государственное казенное военное образовательное учреждение высшего профессионального образования "ВОЕННАЯ АКАДЕМИЯ СВЯЗИ имени Маршала Советского Союза С.М. Буденного" Министерства обороны Российской Федерации
Priority to RU2014109326/08A priority Critical patent/RU2542901C1/ru
Application granted granted Critical
Publication of RU2542901C1 publication Critical patent/RU2542901C1/ru

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Изобретение относится к области управления компьютерными сетями с использованием алгоритмов искусственного интеллекта. Техническим результатом является снижение времени простоя рабочих объектов компьютерной сети за счет увеличения точности прогноза изменений основных показателей. Способ заключается в том, что формируют прогнозные нейронные сети на основании получаемых в результате опроса рабочих объектов компьютерной сети, значений показателей, определяющих их состояние; формируют прогноз изменений значений через некоторый фиксированный интервал времени. Формируют запоминающие нейронные сети, которые выполняют функции индикатора необходимости переобучения для соответствующей прогнозной нейронной сети, если полученные в результате мониторинга значения существенно отличаются от значений, использованных в обучающей выборке. После переобучения прогнозные нейронные сети способны сформировать прогноз изменений показателей с заданным уровнем точности, на основании которого выполняются управляющие воздействия на объекты вычислительной сети. 8 з.п. ф-лы, 7 ил.

Description

Изобретение относится к области управления компьютерными сетями, а более конкретно к системам управления компьютерными сетями с использованием алгоритмов искусственного интеллекта.
Известна система управления сетью, способ отображения и программа (Патент RU №2295755 С2, IPC G06F 13/00 (2006.01), опубл. 20.03.2007 г.), в которой осуществляется определение местоположения, получение идентификационной информации, формирование списка доступных сетевых устройств и визуализация полученной информации.
В качестве средства обнаружения сетевых устройств и для получения идентификационной информации используют протокол SNMP.
Недостатком данного изобретения является то, что активных управляющих действий не производится, осуществляется только определение функционирующих сетевых устройств и их местоположение.
Известна система и способ управления компьютерной сетью (Патент US №6374293, МПК7G06F 15/177 (2006.01), опубл. 16.04.2002 г.), в котором осуществляют мониторинг, сохранение и визуализацию основных показателей, определяющих поведение объектов компьютерной сети
Нормативные значения показателей и экспертные данные о возможном поведении сети сохраняют заранее, и в дальнейшем используют для формирования предупредительного сигнала администратору компьютерной сети.
Недостатком данного способа является то, что активных управляющих действий в автоматическом режиме не производится, фиксируются только факты ошибок или сбоев в работе объектов компьютерной сети, при этом не обеспечивается возможность их предотвращения в будущем.
Кроме того, аналог имеет ограниченное число параметров, описывающих состояние объекта компьютерной сети, что также не обеспечивает высокого качества принимаемого решения по управлению компьютерной сетью.
Известен способ управления компьютерной сетью и система для его осуществления (Патент РФ №2309451, МПК G06F 15/177 (2006.01) G06F 11/00 (2006.01), опубл. 27.10.2007 г.), являющийся наиболее близким аналогом к предлагаемому техническому решению по своей технической сущности и достигаемому эффекту.
В известном способе управления компьютерными сетями осуществляют доступ к объектам компьютерной сети по линиям связи, собирают статистические данные о состоянии объектов компьютерной сети, запоминают их и формируют прогноз состояния объектов компьютерной сети и всей сети в целом путем осуществления постоянного мониторинга объектов компьютерной сети и последующей обработки данных при помощи искусственных нейронных сетей. В зависимости от прогноза формируют сигнал с управляющим действием, в том числе на исправление ошибок в компьютерной сети, и оповещают пользователя компьютерной сети.
Однако способу-прототипу присущ недостаток, точность прогноза существенно уменьшается в случае, если значения используемых для формирования прогноза исходных данных существенно отличаются от тех, на которых обучались искусственные нейронные сети.
Поскольку компьютерная сеть представляет из себя сложную, динамическую систему с нелинейными зависимостями между ее элементами, то в некоторых случаях величина полученных в результате опроса значений показателей, определяющих состояние объектов компьютерной сети, может существенно отличаться от значений, на которых обучались прогнозные нейронные сети, и, соответственно, точность прогноза уменьшается тем больше, чем существеннее эта разница.
Если же использовать некорректный прогноз в качестве исходных данных для формирования для объектов компьютерной сети сигналов с управляющим действием, то в результате их выполнения может быть получен эффект, существенно отличающийся от ожидаемого.
Целью заявляемого технического решения является повышение точности прогноза, вне зависимости от значений исходных данных, которые использовались для формирования прогноза, и их отличия от значений обучающей выборки, на которой проводилось обучение прогнозных искусственных нейронных сетей, за счет использования запоминающих нейронных сетей, а также снижение времени простоя объектов компьютерной сети за счет увеличения точности прогноза и своевременного выявления деструктивных тенденций изменений значений основных показателей рабочих объектов компьютерной сети.
Поставленная цель достигается тем, что в известном способе управления компьютерной сетью, заключающегося в том, что для каждого из K объектов компьютерной сети устанавливают перечень нормативных значений P показателей, запоминают их.
Выделяют k≤K рабочих объектов компьютерной сети, где k=1, 2, …, K, K - общее число объектов компьютерной сети. Формируют массивы статистических данных об изменениях значений P показателей каждого из рабочих объектов компьютерной сети за промежуток времени T, запоминают полученные значения. Для формирования массивов статистических данных об изменениях значений P показателей каждого из k рабочих объектов компьютерной сети за промежуток времени T, путем опроса N = T Δ t
Figure 00000001
раз, где Δt - интервал времени между двумя следующими друг за другом опросами в промежутке времени T, определяют значения всех P показателей для каждого из рабочих объектов компьютерной сети. Запоминают значения показателей для каждого из рабочих объектов компьютерной сети в каждом из опросов.
Формируют структуры прогнозных искусственных нейронных сетей для каждого из P показателей рабочих объектов компьютерной сети. Устанавливают произвольные начальные весовые коэффициенты синапсов нейронов каждой из прогнозных искусственных нейронных сетей, для чего генерируют эти значения в форме случайных чисел.
Обучают прогнозные искусственные нейронные сети. Для их обучения объединяют массивы статистических данных, полученные от k рабочих объектов компьютерной сети и принадлежащие одинаковым показателям, в P глобальных массивов статистических данных. Разбивают последовательно каждый из глобальных массивов статических данных на D = N k I
Figure 00000002
обучающих выборок [x1, …, xI], где I - размер одной обучающей выборки, для каждого показателя p, p=1…P.
Разбивают D полученных для каждого из показателей выборок на два подмножества: обучающее и тестовое, содержащих соответственно 4 D 5
Figure 00000003
и D 5
Figure 00000004
элементов соответственно. Устанавливают максимально допустимые для каждого показателя p, p=1…P значения ошибок E p max
Figure 00000005
прогноза на выходе каждой из прогнозных искусственных нейронных сетей, соответствующих этим показателям. Подают на входы каждой из прогнозных искусственных нейронных сетей, каждая из которых соответствует одному показателю, соответствующую этому показателю последовательность выборок, принадлежащих обучающему подмножеству. Сравнивают для каждой из искусственных нейронных сетей значения ошибки Ер на их выходах с установленными ранее значениями E p max
Figure 00000006
. Если на выходе отдельно взятой прогнозной искусственной нейронной сети E p E p max
Figure 00000007
, то обучение такой сети завершают, в противном случае процесс обучения продолжают. Если по истечении 4 D 5
Figure 00000008
циклов обучения на выходе какой-либо искусственной нейронной сети E p > E p max
Figure 00000009
, то формируют новые массивы статистических данных для данного показателя и процесс обучения повторяют.
По завершении обучения на входы прогнозных нейронных сетей подают последовательно выборки из тестового множества. В случае, если на выходе отдельно взятой прогнозной искусственной нейронной сети E p E p max
Figure 00000010
, то такую сеть переводят в рабочий режим, в противном случае формируют новые массивы статистических данных для данного показателя, процесс обучения и тестирования повторяют.
Дополнительно, одновременно с формированием структур прогнозных искусственных нейронных сетей формируют структуры запоминающих искусственных нейронных сетей по одной для каждого из P показателей. Для формирования структур запоминающих искусственных нейронных сетей, для каждого из показателей формируют N = T Δ t
Figure 00000011
обучающих выборок [x1, …, xk], каждая их которых содержит k значений одного показателя, полученных по одному от каждого из рабочих объектов компьютерной сети в течение одного опроса.
Отдельно для каждого из показателей объединяют массивы статистических данных, полученные от k рабочих объектов компьютерной сети и принадлежащие одинаковым показателям в P глобальных массивов статистических данных. Вычисляют минимальное x ¯ p min
Figure 00000012
и максимальное x ¯ p max
Figure 00000013
значения для каждого из сформированных глобальных массивов статистических данных. Для каждого из показателей выбирают из N обучающих выборок m-1 выборку, в которых значения одного или более элементов не попадают в интервал [ 0 , 092 x ¯ p max ; 1 , 16 x ¯ p min ]
Figure 00000014
, и одну выборку, значения элементов которой попадают в этот интервал. Определяют число нейронов во входном слое каждой из P запоминающих искусственных нейронных сетей равным k, а в первом и втором слоях равным m.
Устанавливают начальные весовые коэффициенты синапсов нейронов каждой из запоминающих искусственных нейронных сетей равными нулю. Затем одновременно с обучением прогнозных искусственных нейронных сетей обучают P запоминающих искусственных нейронных сетей. Для каждой из них формируют m выходных векторов значений, которым ставят в соответствие m обучающих выборок, сформированных ранее для каждого из показателей, подают последовательно m обучающих выборок, на входы каждой из P запоминающих искусственных нейронных сетей, запоминают состояния нейронов для каждой из них. Каждый из m выходных векторов значений [y1, …, ym], каждой из P запоминающих нейронных сетей ставят в соответствие экспертным заключениям, сделанным на основе сохраненного ранее перечня нормативных значений для каждого из P показателей, определяющим текущее состояние компьютерной сети, по определенному показателю. Сохраняют полученное соотношение. После обучения переводят запоминающие нейронные сети в рабочий режим.
Задают уровень расхождения ΔP значений полученной в результате опроса выборки и значений сохраненных ранее образов в интервале ΔP=(10-15)%.
Через заданные промежутки времени Δt<<T проводят опрос значений показателей каждого из рабочих объектов компьютерной сети, запоминают полученные значения. После каждого опроса формируют P выборок исходных данных, каждая из которых содержит k значений одного показателя, полученных по одному от каждого из рабочих объектов компьютерной сети в течение последнего опроса. Подают полученные выборки на входы соответствующих запоминающих нейронных сетей, которые распознают и определяют степень расхождения значений поступивших выборок со значениями сохраненных ранее в запоминающих нейронных сетях образов, в случае если расхождение значений превышает предварительно заданный уровень ΔP, изменяют структуру соответствующей запоминающей искусственной нейронной сети, добавляют по одному нейрону в первый и второй слои, формируют необходимые связи с остальными нейронами запоминающей искусственной нейронной сети и повторяют процесс обучения для m+1 обучающих выборок, с учетом нового образа состояния компьютерной сети.
На основе сохраненного ранее перечня нормативных значений для данного показателя запрашивают для нового образа экспертное заключение, которое ставят в соответствие m+1 выходному вектору запоминающей нейронной сети, соответствующей рассматриваемому показателю, сохраняют полученное соотношение.
Запрашивают накопленные ранее для данного показателя массивы статистических данных за промежуток времени 0,1T, формируют глобальный массив статистических данных, добавляют в него полученные при последнем опросе значения показателя. Разбивают его на d = 0.1 T Δ t I
Figure 00000015
обучающих выборок [x1, …, xI], где I - размер одной обучающей выборки. Разбивают d обучающих выборок на обучающее и тестовое множества размером 4 d 5
Figure 00000016
и d 5
Figure 00000017
, соответственно, и осуществляют процесс переобучения прогнозной искусственной нейронной сети, соответствующей рассматриваемому показателю.
В случае, если расхождение значений полученной в результате опроса выборки и значений сохраненных ранее образов не превышает ΔP, запрашивают соответствующее выходному вектору этого образа экспертное заключение, на основе которого формируют последовательность управляющих команд к рабочим объектам компьютерной сети на приведение значений соответствующего показателя к нормативным.
Формируют, для каждого из k рабочих объектов компьютерной сети и для каждого из P его показателей, выборки [x1, …, xI] размером I, где x1-xI-1 - накопленная ранее статистическая информация, xI - последнее полученное для этого показателя значение. Последовательно передают их на соответствующие этим показателям входы прогнозных нейронных сетей для формирования прогноза изменения значений показателей через время Δt для каждого из k рабочих объектов компьютерной сети. Объединяют полученные в результате прогнозирования значения, принадлежащие одному показателю, в единую выборку, содержащую k элементов, по числу рабочих объектов компьютерной сети. Формируют такую выборку для каждого из P показателей, передают эти выборки на входы соответствующей каждому из показателей запоминающей нейронной сети. Запрашивают соответствующее выходным векторам каждой из выборок экспертное заключение, на основе которого формируют последовательность управляющих команд к рабочим объектам компьютерной сети на приведение значений соответствующего показателя к нормативным.
Новая совокупность существенных признаков, заключающаяся в использовании запоминающих нейронных сетей в качестве индикатора, определяющего необходимость переобучения прогнозных нейронных сетей в случае появления данных, существенно отличающихся от значений, на которых они обучались. Соответственно сформированный после переобучения прогноз будет иметь существенно меньшую погрешность, чем она была бы без переобучения.
Заявленное техническое решение поясняется чертежами, на которых:
на фиг.1 представлена блок-схема системы, реализующей предложенный способ;
на фиг.2 представлен алгоритм реализации способа;
на фиг.3 представлена схема прогнозной нейронной сети;
на фиг.4 представлена схема запоминающей нейронной сети;
на фиг.5 представлен разброс нормализованных значений обучающей выборки (по одному показателю);
на фиг.6 представлена диаграмма точности прогноза, в зависимости от способа его формирования (по одному показателю);
на фиг.7 представлена диаграмма точности прогнозов в зависимости от способа их формирования (по одному показателю).
Реализация заявляемого способа поясняется на структуре, показанной на фиг.1.
Блок 1 - k≤K рабочих объектов компьютерной сети, где k=1, 2, …, K, K - общее число объектов компьютерной сети.
Блок 2 - модуль опроса, необходимый для получения информации о текущих значениях контролируемых показателей рабочих объектов компьютерной сети, в строго определенные моменты времени. Передает получаемую для каждого из P показателей информацию на входы запоминающих нейронных сетей, соответствующих этим показателям блоков 41…4р, а также сохраняет всю полученную информацию в блоке 5 - базе данных для хранения статистической информации.
Блок 3 - база данных, содержащая нормативные значения для контролируемых показателей, а также информацию о взаимосвязях выходных векторов значений запоминающих нейронных сетей и соответствующих им экспертных заключений, сделанных на основе сохраненного ранее перечня нормативных значений для каждого из P показателей, определяющих текущее состояние компьютерной сети по определенному показателю. Связан с субблоками 4-2 блоков 41…4p, которым по запросу предоставляет информацию о нормативных значениях определенного показателя и об экспертных заключениях о текущем состоянии компьютерной сети, соответствующих полученному выходному вектору субблока 4-1 - запоминающей нейронной сети. При изменении структуры любой из запоминающих нейронных сетей в блоке 3 сохраняют информацию о новом выходном векторе и соответствующем ему экспертном заключении.
Совокупность блоков 41 до 4р имеет одинаковую структуру и выполняет одинаковые действия, но для разных показателей. Каждый из блоков включает в себя пять субблоков:
1. Субблок 4-1 - запоминающая искусственная нейронная сеть, реализованная в виде ассоциативной памяти. Позволяет определить степень близости совокупности значений, поступающих на ее входы, к одной из сохраненных ранее совокупностей (образу) и сформировать соответствующий этому образу вектор выходных значений. Полученный вектор передается на субблок 4-2 - модуль определения принадлежности.
2. Субблок 4-2 - модуль определения принадлежности полученного из субблока 4-1 вектора выходных значений. Формирует запрос в блок 3 на получение экспертного заключения, соответствующего полученному вектору выходных значений субблока 4-1. Если принадлежность установлена, разрешает передачу в модуль формирования исходных данных (субблок 4-3), полученных в результате последнего опроса k значений показателя. В случае, если полученное экспертное заключение требует оперативного вмешательства в работу объектов компьютерной сети, передает на блок 6 - управляющий модуль, информацию о необходимости управляющих воздействий на рабочие объекты компьютерной сети. В случае, если принадлежность установить не удалось, передает субблоку 4-4 - модулю переобучения, полученные в результате последнего опроса k значений показателя, формирует команды на изменение структуры запоминающей нейронной сети (субблок 4-1), ее повторное обучение, переобучение прогнозной нейронной сети (субблок 4-5), получение и сохранение экспертного заключения и соответствующего ему нового вектора выходных значений субблока 4-1.
3. Субблок 4-3 - модуль формирования исходных данных для прогнозной нейронной сети (субблок 4-5). При получении от субблока 4-2 k значений показателя, полученных в результате последнего опроса, запрашивает статистическую информацию из блока 5 - базы данных для хранения статистической информации, и формирует k выборок исходных данных для прогнозной нейронной сети (субблок 4-5), по одной для каждого из k рабочих объектов компьютерной сети.
4. Субблок 4-4 - модуль переобучения прогнозной нейронной сети (субблок 4-5) и изменения структуры и повторного обучения запоминающей нейронной сети (субблок 4-1). Формирует необходимые обучающие выборки и передает их на входы соответствующих нейронных сетей.
5. Субблок 4-5 - прогнозная искусственная нейронная сеть. На основе k выборок исходных данных, получаемых от субблока 4-3, формирует k прогнозов значений показателя через интервал времени Δt, по одному значению для каждого из k рабочих объектов компьютерной сети. Полученные значения передают на k входов запоминающей нейронной сети для обработки, последующего определения принадлежности результатов обработки в субблоке 4-2, и получения соответствующего им экспертного заключения.
Блок 5 - база данных для хранения статистической информации. Сохраняет все полученные в результате опросов значения показателей, выдает по запросу необходимую информацию.
Блок 6 - управляющий модуль, отвечающий за принятие решения о необходимости формирования управляющих команд, а также за их формирование и доставку до адресата.
Действия по управлению компьютерной сетью, алгоритм которых показан на фиг.2, заключаются в следующем.
В зависимости от решаемых в рамках компьютерной сети задач определяют перечень из P показателей (см. блок 1, фиг.2), совокупность значений которых позволяет однозначно принять верное управляющее решение. Устанавливают нормативные значения этих показателей (см. блок 2, фиг.2) и сохраняют их в базе данных (см. блок 3, фиг.2), предназначенной для их хранения.
Путем опроса всех объектов компьютерной сети (в соответствии с ее адресом и маской сети) определяют k≤K рабочих объектов компьютерной сети (см. блок 4, фиг.2), где k=1, 2, …, K, (K - общее число объектов компьютерной сети).
Путем опроса объектов компьютерной сети (см. блок 5, фиг.2), через равные Δt промежутки времени, за общий промежуток времени T>>Δt, N = T Δ t
Figure 00000018
раз получают значения каждого из P выбранных показателей для каждого из k объектов компьютерной сети. Из этих значений формируют P массивов статистических данных первоначально отдельно для каждого из объектов сети (см. блок 6, фиг.2). Таким образом, общее число сформированных массивов M=k*P, где k=1, 2, …, K - число рабочих объектов компьютерной сети, P - число показателей для каждого из рабочих объектов. Полученные значения сохраняются в специальной базе данных (см. блок 7, фиг.2), предназначенной для хранения статистической информации.
По окончании промежутка времени T, после накопления достаточного объема статистических данных (см. блок 8, фиг.2), опрос объектов компьютерной сети завершают.
Формируют структуры P прогнозных нейронных сетей (фиг.3), отдельно для каждого из P показателей (см. блок 9, фиг.2). Число синаптических связей Lw между нейронами определяется D 1 + log 2 D ( D + 1 ) ( I + 2 ) + 1
Figure 00000019
, где D - число обучающих выборок, I - число нейронов во входном слое. Число нейронов в скрытых слоях определяется по формуле L = L w I
Figure 00000020
.
Начальные весовые коэффициенты синапсов устанавливаются произвольно, в выбранном диапазоне, при помощи генератора случайных чисел (см. блок 10, фиг.2).
Объединяют массивы статистических данных, полученные от k рабочих объектов компьютерной сети и принадлежащие одинаковым показателям, в P глобальных массивов статистических данных, разбивают последовательно каждый из глобальных массивов статических данных на D = N k I
Figure 00000021
обучающих выборок [x1, …, xI], где I - размер одной обучающей выборки (см. блок 12, фиг.2), для каждого показателя p, p=1…P, разбивают D полученных для каждого из показателей выборок на два подмножества: обучающее и тестовое, содержащих, соответственно, 4 D 5
Figure 00000022
и D 5
Figure 00000023
элементов соответственно (см. блок 14, фиг.2).
Для каждого из показателей формируют N = T Δ t
Figure 00000024
обучающих выборок [x1, …, xk] (см. блок 11, фиг.2), каждая их которых содержит k значений одного показателя, полученных по одному от каждого из рабочих объектов компьютерной сети в течение одного опроса. Отдельно для каждого из показателей объединяют массивы статистических данных, полученные от k рабочих объектов компьютерной сети и принадлежащие одинаковым показателям, в P глобальных массивов статистических данных, вычисляют минимальное x ¯ p min
Figure 00000025
и максимальное x ¯ p max
Figure 00000026
значения для каждого из сформированных глобальных массивов статистических данных. Для каждого из показателей выбирают из N обучающих выборок m-1 выборку, в которых значения одного или более элементов не попадают в интервал [ 0 , 92 x ¯ p max ; 1 , 16 x ¯ p min ]
Figure 00000027
, и одну выборку, значения элементов которой попадают в этот интервал (см. блок 13, фиг.2).
Формируют структуры запоминающих искусственных нейронных сетей (фиг.4) по одной для каждого из P показателей (см. блок 5, фиг.2), определив число нейронов во входном слое каждой из P запоминающих искусственных нейронных сетей равным k, а в первом и втором слоях равным m.
Начальные весовые коэффициенты синапсов нейронов каждой из запоминающих искусственных нейронных сетей устанавливаются равными нулю (см. блок 17, фиг.2).
Процесс обучения прогнозных нейронных сетей осуществляется следующим образом (см. блок 16, фиг.2).
1. Устанавливаются максимально допустимые для каждого показателя p, где p=1…P, значения ошибок E p max
Figure 00000028
прогноза на каждом из выходов искусственных нейронных сетей, соответствующим этим показателям.
2. Последовательно на I входов каждой из прогнозных нейронных сетей подаются D обучающих выборок. Каждая совокупность D обучающих выборок соответствует определенному показателю, прогноз изменений значений которого через промежуток времени Δt формирует целевая прогнозная нейронная сеть.
3. После обработки очередной обучающей выборки, по формуле E p = 1 2 j k ( y j k x j k ) 2
Figure 00000029
, где yjk - реальное выходное состояние нейрона j выходного слоя нейронной сети при подаче на ее входы k-й обучающей выборки, xjk - требуемое выходное состояние этого нейрона (первое значение k+1 выборки), вычисляются значения на выходе каждой из прогнозных нейронных сетей, которые сравниваются с ранее установленными максимальными значениями ошибки E p max
Figure 00000030
. Если для какой-либо прогнозной нейронной сети значение на выходе E p E p max
Figure 00000031
, обучение такой сети завершается, в противном случае вычисляются смещения весовых коэффициентов нейронов по формуле Δ w i j ( q ) = η E w i j
Figure 00000032
, где w - весовой коэффициент синаптической связи, соединяющей i-й нейрон слоя (q-1) с j-м нейроном слоя q, η - коэффициент скорости обучения 0<η<1. В соответствии с полученными значениями, пересчитываются веса синапсов и на входы подается очередная обучающая выборка.
4. Если по истечении D циклов обучения на выходе какой-либо прогнозной нейронной сети E p > E p max
Figure 00000033
, то повторяют процесс опроса компьютерной сети и сбора статистической информации за промежуток времени 1,5Т, формируют глобальные массивы статистических данных и процесс обучения этой нейронной сети повторяют (см. блок 19, фиг.2).
5. В случае, если на выходе какой-либо прогнозной нейронной сети в процессе обучения получен результат E p < E p max
Figure 00000034
, то на входы такой сети подают последовательно выборки тестового множества. Если E p < E p max
Figure 00000035
для всех тестовых выборок, то прогнозную нейронную сеть переводят в рабочий режим, в противном случае повторяют п.4.
Процесс обучения запоминающих нейронных сетей осуществляется следующим образом (см. блок 18, фиг.2).
1. Инициализация весовых коэффициентов первого слоя в соответствии с формулой w i j = x i j 2
Figure 00000036
, i=1…k, j=1…m, где x - запоминаемые образы, i - компонент вектора x, j - номер образа, k - размерность вектора x, m - число запоминаемых образов.
2. Выходные значения нейронов первого слоя y j ( 1 ) = i = 0 x 1 w i j x i + T j
Figure 00000037
, где x - неизвестный образ, T = I 2
Figure 00000038
- порог активационной функции.
3. Выходные значения нейронов второго слоя определяются следующим образом y j ( 2 ) ( p + 1 ) = f [ s j ( 2 ) ( p + 1 ) ]
Figure 00000039
, j=1…m, где p - номер итерации, s j ( 2 ) ( p + 1 ) = y j ( p ) ε k m 1 y k ( 2 ) ( p )
Figure 00000040
, k≠j, j=1…m, f - пороговая активационная функция
Figure 00000041
F - порог активационной функции.
4. Если значения на выходах не изменились, обучение закончено, иначе действия по п.3 выполняются повторно.
По окончании обучения, запоминающие нейронные сети переводятся в рабочий режим.
Сохраняют значения каждого из m выходных векторов каждой из запоминающих нейронных сетей и соответствующий им образ состояния компьютерной сети по определенному показателю (совокупность из k значений одного показателя), в базе данных, содержащей нормативные значения для контролируемых показателей.
Каждому образу (совокупности из k значений одного показателя), в зависимости от установленных для этого показателя нормативных значений, человеком-экспертом выносится экспертное заключение (см. блок 20, фиг.2), определяющее необходимость и порядок формирования последовательностей управляющих команд к рабочим объектам компьютерной сети на приведение значений соответствующего показателя к нормативным.
Полученное экспертное заключение ставится в соответствие сохраненному ранее выходному вектору запоминающей нейронной сети и также сохраняется в базе данных. В дальнейшем на основании значений выходных векторов запоминающих нейронных сетей из базы данных извлекается необходимое экспертное заключение, и последовательность предписанных им действий выполняется управляющим модулем (см. блок 6, фиг.1).
Задают уровень расхождения ΔP значений полученной в результате опроса выборки и значений сохраненных ранее образов в интервале ΔP=(10-15)%.
Через промежутки времени, равные Δt, осуществляется опрос и получение значений P показателей для каждого из объектов компьютерной сети (см. блок 21, фиг.2). Данные сохраняются в базе для хранения статистических данных (см. блок 22, фиг.2). После каждого опроса формируют Р выборок исходных данных (см. блок 23, фиг.2), каждая из которых содержит k значений одного показателя, полученных по одному от каждого из рабочих объектов компьютерной сети в течение последнего опроса. Подают полученные выборки на входы соответствующих запоминающих нейронных сетей, которые распознают и определяют степень расхождения значений поступивших выборок со значениями сохраненных ранее в запоминающих нейронных сетях образов. В случае если расхождение значений превышает предварительно заданный уровень ΔP (см. блок 26, фиг.2), изменяют структуру соответствующей запоминающей искусственной нейронной сети (см. блок 25, фиг.2), добавляя по одному нейрону в первый и второй слои. Формируют необходимые связи с остальными нейронами запоминающей искусственной нейронной сети, обнуляют весовые коэффициенты всех синапсов и повторяют процесс обучения для m+1 обучающих выборок (см. блок 27, фиг.2), используя последнюю полученную выборку в качестве нового образа, определяющего состояние компьютерной сети по определенному показателю в дополнение к уже имеющимся.
На основании сохраненного ранее перечня нормативных значений для данного показателя запрашивают для нового образа экспертное заключение (см. блок 29, фиг.2), которое ставят в соответствие m+1 выходному вектору запоминающей нейронной сети, соответствующей рассматриваемому показателю, сохраняют полученное соотношение.
Запрашивают накопленные ранее для данного показателя массивы статистических данных за промежуток времени 0,1T (см. блок 31, фиг.2), формируют глобальный массив статистических данных, добавляют в него полученные при последнем опросе значения показателя. Разбивают его на d = 0.1 T Δ t I
Figure 00000042
обучающих выборок [x1, …, xI] (см. блок 32, фиг.2), где I - размер одной обучающей выборки. Разбивают d обучающих выборок на обучающее и тестовое множества размером 0.4 d 5
Figure 00000043
и 0.1 d 5
Figure 00000044
соответственно (см. блок 33, фиг.2), и осуществляют процесс переобучения прогнозной искусственной нейронной сети (см. блок 34, фиг.2), соответствующей рассматриваемому показателю, аналогичный процессу обучения на D обучающих выборках (см. блок 36, фиг.2).
В случае, если расхождение значений полученной в результате опроса выборки и значений сохраненных ранее образов не превышает ΔP, (см. блок 28, фиг.2), запрашивают соответствующее выходному вектору этого образа экспертное заключение (см. блок 30, фиг.2), на основе которого формируют последовательность управляющих команд к рабочим объектам компьютерной сети на приведение значений соответствующего показателя к нормативным.
Формируют, для каждого из k рабочих объектов компьютерной сети и для каждого из P его показателей, выборки [x1, …, xI] (см. блок 35, фиг.2) размером I, где x1 - xI-1 - накопленная ранее статистическая информация, xI - последнее полученное для этого показателя значение. Последовательно передают их на соответствующие этим показателям входы прогнозных нейронных сетей для формирования прогноза изменения значений показателей через время Δt для каждого из k рабочих объектов компьютерной сети (см. блок 37, фиг.2).
Объединяют полученные в результате прогнозирования значения, принадлежащие одному показателю, в единую выборку, содержащую k элементов, по числу рабочих объектов компьютерной сети. Формируют такую выборку для каждого из P показателей и передают эти выборки на входы соответствующей каждому из показателей запоминающей нейронной сети.
После обработки запрашивают соответствующее выходным векторам каждой из выборок экспертное заключение (см. блок 39, фиг.2), определяют, необходимо ли вмешательство в процесс функционирования рабочих объектов компьютерной сети (см. блок 38, фиг.2). Формируют последовательность управляющих команд (см. блок 40, фиг.2) к рабочим объектам компьютерной сети на приведение значений соответствующего показателя к нормативным.
Возможность повышения точности прогноза и, как результат, снижения времени простоя рабочих объектов компьютерной сети в заявленном способе показана статистикой (фиг.6) изменения точности прогноза одного из показателей в зависимости от способа формирования прогноза.
Из графика (фиг.5) видно, что разброс нормированных значений обучающей выборки показателя лежит в диапазоне значений [0,2; 0,5]. Прогнозная нейронная сеть без переобучения не способна сформировать корректный прогноз при поступлении на ее входы значений, существенно отличающихся от граничных значений обучающей выборки, что проиллюстрировано (фиг.6), где имеют место три случая выхода значений показателя за пределы диапазона [0,2; 0,5]. Во всех трех случаях имеет место существенное уменьшение точности прогноза (фиг.7). В двух случаях из трех соответствие прогнозируемых значений реальным оказалось менее 60%, т.е. прогнозная нейронная сеть оказалась не способна предсказать резкие изменения в значениях прогнозируемого показателя.
Прогнозная нейронная сеть с переобучением (т.е. с запоминающей нейронной сетью, способной определять принадлежность поступающих данных диапазону значений обучающей выборки), из трех рассмотренных случаев, имеет ошибку прогноза только в первом случае, до переобучения. В этом случае срабатывает алгоритм определения принадлежности данных, с последующим запуском системы переобучения. После переобучения ошибка прогноза, в критичных для прогнозной нейронной сети без переобучения местах, составляет менее 3%.
Таким образом, в заявленном способе и его реализации за счет использования связки запоминающая нейронная сеть - прогнозная нейронная сеть, реализована адаптивная к постоянно меняющимся условиям функционирования объектов компьютерной сети структура, формирующая с заданным уровнем точности прогноз изменений их показателей, на основании которого, при необходимости, выполняются управляющие воздействия на объекты вычислительной сети, позволяющие минимизировать время их простоя и повышающие эффективность функционирования компьютерной сети в целом.

Claims (9)

1. Способ управления компьютерной сетью, заключающийся в том, что для каждого из K объектов компьютерной сети устанавливают перечень нормативных значений P показателей, запоминают их, выделяют k≤K рабочих объектов компьютерной сети, где k=1, 2, …, K, K - общее число объектов компьютерной сети, формируют массивы статистических данных об изменениях значений P показателей каждого из рабочих объектов компьютерной сети за промежуток времени T, запоминают полученные значения, формируют структуры прогнозных искусственных нейронных сетей для каждого из P показателей рабочих объектов компьютерной сети, устанавливают произвольные начальные весовые коэффициенты синапсов нейронов каждой из прогнозных искусственных нейронных сетей, для чего генерируют эти значения в форме случайных чисел, обучают прогнозные искусственные нейронные сети и по завершении обучения переводят их в рабочий режим, отличающийся тем, что дополнительно, одновременно с формированием структур прогнозных искусственных нейронных сетей, формируют структуры запоминающих искусственных нейронных сетей по одной для каждого из Р показателей, устанавливают начальные весовые коэффициенты синапсов нейронов каждой из запоминающих искусственных нейронных сетей равными нулю, затем одновременно с обучением прогнозных искусственных нейронных сетей обучают P запоминающих искусственных нейронных сетей, а после обучения переводят их в рабочий режим, затем через заданные промежутки времени Δt<<T проводят опрос значений показателей каждого из рабочих объектов компьютерной сети, запоминают полученные значения, после каждого опроса формируют P выборок исходных данных, каждая из которых содержит k значений одного показателя, полученных по одному от каждого из рабочих объектов компьютерной сети в течение последнего опроса, подают полученные выборки на входы соответствующих запоминающих нейронных сетей, которые распознают и определяют степень расхождения значений поступивших выборок со значениями сохраненных ранее в запоминающих нейронных сетях образов, в случае если расхождение значений превышает предварительно заданный уровень ΔP, изменяют структуру соответствующей запоминающей искусственной нейронной сети, обучают ее повторно, с учетом нового образа состояния компьютерной сети, на основе сохраненного ранее перечня нормативных значений для данного показателя запрашивают для нового образа экспертное заключение, которое ставят в соответствие m+1 выходному вектору запоминающей нейронной сети, соответствующей рассматриваемому показателю, сохраняют полученное соотношение, запрашивают накопленные ранее для данного показателя массивы статистических данных за промежуток времени 0,1T, формируют глобальный массив статистических данных, разбивают его на
Figure 00000045
обучающих выборок [x1, …, xI], где I - размер одной обучающей выборки, разбивают d полученных выборок на два подмножества: обучающее и тестовое, и осуществляют процесс переобучения и тестирования прогнозной искусственной нейронной сети, соответствующей рассматриваемому показателю, в случае, если расхождение значений полученной в результате опроса выборки и значений сохраненных ранее образов не превышает ΔP, запрашивают соответствующее выходному вектору этого образа экспертное заключение, на основе которого формируют последовательность управляющих команд к рабочим объектам компьютерной сети на приведение значений соответствующего показателя к нормативным, формируют, для каждого из k рабочих объектов компьютерной сети и для каждого из P его показателей, выборки [x1, …, xI] размером I, где x1-xI-1 - накопленная ранее статистическая информация, xI - последнее полученное для этого показателя значение, и последовательно передают их на соответствующие этим показателям входы прогнозных нейронных сетей для формирования прогноза изменения значений показателей через время Δt для каждого из k рабочих объектов компьютерной сети, объединяют полученные в результате прогнозирования значения, принадлежащие одному показателю, в единую выборку, содержащую k элементов, по числу рабочих объектов компьютерной сети, формируют такую выборку для каждого из P показателей, передают эти выборки на входы соответствующей каждому из показателей запоминающей нейронной сети, запрашивают соответствующие выходным векторам каждой из выборок экспертное заключение, на основе которого формируют последовательность управляющих команд к рабочим объектам компьютерной сети на приведение значений соответствующего показателя к нормативным.
2. Способ по п.1, отличающийся тем, что для формирования массивов статистических данных об изменениях значений P показателей каждого из k рабочих объектов компьютерной сети за промежуток времени T, путем опроса
Figure 00000046
раз, где Δt - интервал времени между двумя следующими друг за другом опросами в промежутке времени T, определяют значения всех P показателей для каждого из рабочих объектов компьютерной сети, запоминают значения показателей для каждого из рабочих объектов компьютерной сети в каждом из опросов.
3. Способ по п.1, отличающийся тем, что для обучения прогнозных искусственных нейронных сетей объединяют массивы статистических данных, полученные от k рабочих объектов компьютерной сети и принадлежащие одинаковым показателям, в P глобальных массивов статистических данных, разбивают последовательно каждый из глобальных массивов статических данных на
Figure 00000047
обучающих выборок [x1, …, xI], где I - размер одной обучающей выборки, для каждого показателя p, p=1…P, разбивают D полученных для каждого из показателей выборок на два подмножества: обучающее и тестовое, содержащих соответственно
Figure 00000048
и
Figure 00000049
элементов соответственно, устанавливают максимально допустимые для каждого показателя p, p=1…P значения ошибок
Figure 00000050
прогноза на выходе каждой из прогнозных искусственных нейронных сетей, соответствующим этим показателям, подают на входы каждой из прогнозных искусственных нейронных сетей, каждая из которых соответствует одному показателю, соответствующую этому показателю последовательность выборок, принадлежащих обучающему подмножеству, сравнивают для каждой из искусственных нейронных сетей значения ошибки Ep на их выходах с установленными ранее значениями
Figure 00000051
, если на выходе отдельно взятой прогнозной искусственной нейронной сети
Figure 00000052
, то обучение такой сети завершают, в противном случае процесс обучения продолжают, если по истечении
Figure 00000053
циклов обучения на выходе какой-либо искусственной нейронной сети
Figure 00000054
, то формируют новые массивы статистических данных для данного показателя и процесс обучения повторяют, по завершении обучения на входы прогнозных нейронных сетей подают последовательно выборки из тестового множества, в случае если на выходе отдельно взятой прогнозной искусственной нейронной сети
Figure 00000055
, то такую сеть переводят в рабочий режим, в противном случае формируют новые массивы статистических данных для данного показателя, процесс обучения и тестирования повторяют.
4. Способ по п.1, отличающийся тем, что для формирования структур запоминающих искусственных нейронных сетей, для каждого из показателей формируют
Figure 00000056
обучающих выборок [x1, …, xk], каждая их которых содержит k значений одного показателя, полученных по одному от каждого из рабочих объектов компьютерной сети в течение одного опроса, отдельно для каждого из показателей объединяют массивы статистических данных, полученные от k рабочих объектов компьютерной сети и принадлежащие одинаковым показателям, в P глобальных массивов статистических данных, вычисляют минимальное
Figure 00000057
и максимальное
Figure 00000058
значения для каждого из сформированных глобальных массивов статистических данных, для каждого из показателей выбирают из N обучающих выборок m-1 выборку, в которых значения одного или более элементов не попадают в интервал [
Figure 00000059
;
Figure 00000060
], и одну выборку, значения элементов которой попадают в этот интервал, определяют число нейронов во входном слое каждой из P запоминающих искусственных нейронных сетей равным k, а в первом и втором слоях равным m.
5. Способ по п.1, отличающийся тем, что для обучения P запоминающих искусственных нейронных сетей для каждой из них формируют m выходных векторов значений, которым ставят в соответствие m обучающих выборок, сформированных ранее для каждого из показателей, подают последовательно m обучающих выборок, на входы каждой из P запоминающих искусственных нейронных сетей, запоминают состояния нейронов для каждой из них.
6. Способ по п.1, отличающийся тем, что каждый из m выходных векторов значений [y1, …, ym], каждой из P запоминающих нейронных сетей, ставят в соответствие экспертным заключениям, сделанным на основе сохраненного ранее перечня нормативных значений для каждого из P показателей, определяющим текущее состояние компьютерной сети, по определенному показателю, сохраняют полученное соотношение.
7. Способ по п.1, отличающийся тем, что для повторного обучения запоминающей искусственной нейронной сети добавляют по одному нейрону в первый и второй слои, формируют необходимые связи с остальными нейронами запоминающей искусственной нейронной сети и повторяют процесс обучения для m+1 обучающих выборок.
8. Способ по п.1, отличающийся тем, что при переобучении прогнозных искусственных нейронных сетей размеры обучающего и тестового множеств равны
Figure 00000061
и
Figure 00000062
соответственно, где d - число обучающих выборок.
9. Способ по п.1, отличающийся тем, что предварительно заданный уровень расхождения ΔP значений, полученный в результате опроса выборки, и значений сохраненных ранее образов задают в интервале ΔP=(10-15)%.
RU2014109326/08A 2014-03-11 2014-03-11 Способ управления компьютерной сетью RU2542901C1 (ru)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2014109326/08A RU2542901C1 (ru) 2014-03-11 2014-03-11 Способ управления компьютерной сетью

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2014109326/08A RU2542901C1 (ru) 2014-03-11 2014-03-11 Способ управления компьютерной сетью

Publications (1)

Publication Number Publication Date
RU2542901C1 true RU2542901C1 (ru) 2015-02-27

Family

ID=53290005

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2014109326/08A RU2542901C1 (ru) 2014-03-11 2014-03-11 Способ управления компьютерной сетью

Country Status (1)

Country Link
RU (1) RU2542901C1 (ru)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2597457C1 (ru) * 2015-03-30 2016-09-10 Федеральное государственное казенное военное образовательное учреждение высшего образования "Академия Федеральной службы охраны Российской Федерации" (Академия ФСО России) Способ динамического управления параметрами сети связи в признаковом пространстве
RU2686030C1 (ru) * 2015-07-24 2019-04-23 Дипмайнд Текнолоджиз Лимитед Непрерывное управление с помощью глубокого обучения с подкреплением
CN110362437A (zh) * 2019-07-16 2019-10-22 张家港钛思科技有限公司 基于深度学习的嵌入式设备缺陷追踪的自动化方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6374293B1 (en) * 1990-09-17 2002-04-16 Aprisma Management Technologies, Inc. Network management system using model-based intelligence
RU2295755C2 (ru) * 2002-02-28 2007-03-20 Кэнон Кабусики Кайся Система управления сетью, способ отображения и программа
RU2309451C2 (ru) * 2005-04-19 2007-10-27 Государственное образовательное учреждение высшего профессионального образования Московский государственный институт электроники и математики (технический университет) Способ управления компьютерной сетью и система для его осуществления
RU99879U1 (ru) * 2010-07-12 2010-11-27 Государственное образовательное учреждение высшего профессионального образования Академия Федеральной службы охраны Российской Федерации (Академия ФСО России) Децентрализованная система управления компьютерной сетью

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6374293B1 (en) * 1990-09-17 2002-04-16 Aprisma Management Technologies, Inc. Network management system using model-based intelligence
RU2295755C2 (ru) * 2002-02-28 2007-03-20 Кэнон Кабусики Кайся Система управления сетью, способ отображения и программа
RU2309451C2 (ru) * 2005-04-19 2007-10-27 Государственное образовательное учреждение высшего профессионального образования Московский государственный институт электроники и математики (технический университет) Способ управления компьютерной сетью и система для его осуществления
RU99879U1 (ru) * 2010-07-12 2010-11-27 Государственное образовательное учреждение высшего профессионального образования Академия Федеральной службы охраны Российской Федерации (Академия ФСО России) Децентрализованная система управления компьютерной сетью

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2597457C1 (ru) * 2015-03-30 2016-09-10 Федеральное государственное казенное военное образовательное учреждение высшего образования "Академия Федеральной службы охраны Российской Федерации" (Академия ФСО России) Способ динамического управления параметрами сети связи в признаковом пространстве
RU2686030C1 (ru) * 2015-07-24 2019-04-23 Дипмайнд Текнолоджиз Лимитед Непрерывное управление с помощью глубокого обучения с подкреплением
US10776692B2 (en) 2015-07-24 2020-09-15 Deepmind Technologies Limited Continuous control with deep reinforcement learning
US11803750B2 (en) 2015-07-24 2023-10-31 Deepmind Technologies Limited Continuous control with deep reinforcement learning
CN110362437A (zh) * 2019-07-16 2019-10-22 张家港钛思科技有限公司 基于深度学习的嵌入式设备缺陷追踪的自动化方法
CN110362437B (zh) * 2019-07-16 2023-07-07 张家港钛思科技有限公司 基于深度学习的嵌入式设备缺陷追踪的自动化方法

Similar Documents

Publication Publication Date Title
US11314242B2 (en) Methods and systems for fault detection and identification
Mozhaev et al. Multiservice network security metric
US9940386B2 (en) Distributed model-building
US6216119B1 (en) Multi-kernel neural network concurrent learning, monitoring, and forecasting system
JP7201844B2 (ja) グラディエントベースのセンサ識別を利用した障害予測
Kondratenko et al. Multi-criteria decision making for selecting a rational IoT platform
Yang et al. A comparison between extreme learning machine and artificial neural network for remaining useful life prediction
CN110309537B (zh) 一种飞行器的智能健康预测方法及系统
RU2542901C1 (ru) Способ управления компьютерной сетью
CN116307641A (zh) 一种面向数字化电厂的资源协同调度管理方法及系统
Pau et al. Online learning on tiny micro-controllers for anomaly detection in water distribution systems
Xie et al. Neural-network based structural health monitoring with wireless sensor networks
CN113762391A (zh) 冷却系统的状态检测方法、装置、计算机设备和存储介质
CN115391048A (zh) 基于趋势预测的微服务实例动态水平扩展收缩方法及系统
Demidova et al. Application of the machine learning tools in the problem of classifying failures in the work of the complex technical systems
Magableh et al. A deep recurrent Q network towards self‐adapting distributed microservice architecture
CN113435103B (zh) 配电房异常检测方法、系统、服务器、边缘网关和介质
CN117330963B (zh) 储能电站故障检测方法、系统及设备
CN110533109A (zh) 一种喷涂生产监测数据的存储及特征分析方法及其装置
Dang et al. seq2graph: Discovering dynamic non-linear dependencies from multivariate time series
CN113868957B (zh) 贝叶斯深度学习下剩余寿命预测及不确定性量化校准方法
Garcia et al. Resilient plant monitoring system: Design, analysis, and performance evaluation
MORAL et al. Comparing two approaches for consensus computation in group decision making problems
El-Shishiny et al. Mining software aging patterns by artificial neural networks
Wen et al. A Novel Bayesian Update Method for Parameter Reconstruction of Remaining Useful Life Prognostics

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20160312