RU2573766C1 - Artificial neural network - Google Patents

Artificial neural network Download PDF

Info

Publication number
RU2573766C1
RU2573766C1 RU2014128636/08A RU2014128636A RU2573766C1 RU 2573766 C1 RU2573766 C1 RU 2573766C1 RU 2014128636/08 A RU2014128636/08 A RU 2014128636/08A RU 2014128636 A RU2014128636 A RU 2014128636A RU 2573766 C1 RU2573766 C1 RU 2573766C1
Authority
RU
Russia
Prior art keywords
layer
neurons
signals
channel
adaptation
Prior art date
Application number
RU2014128636/08A
Other languages
Russian (ru)
Inventor
Илья Викторович Мюхкеря
Наталья Сергеевна Марченко
Сергей Владимирович Стариков
Original Assignee
Открытое акционерное общество "Центральное научно-производственное объединение "Ленинец"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Открытое акционерное общество "Центральное научно-производственное объединение "Ленинец" filed Critical Открытое акционерное общество "Центральное научно-производственное объединение "Ленинец"
Priority to RU2014128636/08A priority Critical patent/RU2573766C1/en
Application granted granted Critical
Publication of RU2573766C1 publication Critical patent/RU2573766C1/en

Links

Images

Abstract

FIELD: information technology.
SUBSTANCE: device comprises a layer of input nodes and at least two neuron layers connected in series in a forward direction, which form a forward channel for processing control signals, a neural subnetwork for processing adaptation signals, consisting of a layer of input nodes and at least one neuron layer, the output signals of which set weight coefficients of links of at least one neuron layer of the forward channel for processing control signals.
EFFECT: providing efficient adaptation of an artificial neural network to external environment parameters and to control object state parameters.
4 cl, 7 dwg

Description

Изобретение относится к интеллектуальным системам управления и может быть использовано в качества ядра цифровых нейроконтроллеров, нейропроцессоров и нейрорегуляторов.The invention relates to intelligent control systems and can be used as the core of digital neurocontrollers, neuroprocessors and neuroregulators.

Известно, что ядром нейрорегуляторов для сложных динамических объектов (ДО) обычно являются искусственные нейронные сети (ИНС) прямого распространения [1]. Обладая способностью к обобщению, применение ИНС позволяет осуществлять эффективное управление ДО в широком диапазоне изменения фазовых переменных (переменных состояния) последнего. Известны ИНС, содержащие совокупность искусственных нейронов и устройств передачи информации между ними [2] (Заявка на изобретение №2006116775 РФ, МПК G06N 3/04. Аппаратно-реализованная искусственная нейронная сеть./ Г.А. Сорокин, А.Е. Рогов. - Заявлено 16.05.2006; Опубл. 27.11.2007).It is known that the core of neuroregulators for complex dynamic objects (DOs) are usually artificial neural networks (ANNs) of direct distribution [1]. Possessing the ability to generalize, the use of ANN allows effective control of BS in a wide range of changes in phase variables (state variables) of the latter. Known ANNs containing a set of artificial neurons and devices for transmitting information between them [2] (Application for invention No. 2006116775 RF, IPC G06N 3/04. Hardware-implemented artificial neural network. / G.A. Sorokin, A.E. Rogov. - Stated May 16, 2006; Published on November 27, 2007).

Наиболее близким по технической сущности к заявленному устройству является многослойная ИНС прямого распространения, состоящая из слоя входных узлов, скрытых слоев искусственных нейронов и выходного слоя нейронов, соединенных связями, называемыми синаптическими, последовательно в прямом направлении и не содержащих связей между элементами внутри слоя и обратных связей между слоями [3] (http://www.osp.ru/os/1997/04/179189/ - Введение в искусственные нейронные сети./ Жианчанг Мао, Энил Дж.// ″Открытые системы″, №04, 1997. Рис.4). Известное устройство, обладая способностью к обобщению, не обладает адаптивностью к параметрам внешней обстановки ДО и параметрам его состояния. Адаптация может быть реализована перестройкой весовых коэффициентов синаптических связей соответственно библиотеке типовых алгоритмов настройки, что требует дополнительного оборудования (компонентов).The closest in technical essence to the claimed device is a multilayer direct distribution ANN, consisting of a layer of input nodes, hidden layers of artificial neurons and an output layer of neurons, connected by connections called synaptic, sequentially in the forward direction and not containing connections between elements inside the layer and feedbacks between layers [3] (http://www.osp.ru/os/1997/04/179189/ - Introduction to artificial neural networks. / Zhianchang Mao, Enil J. // ″ Open Systems ″, No. 04, 1997. Fig. 4). The known device, having the ability to generalize, does not have adaptability to the parameters of the external environment of DO and the parameters of its state. Adaptation can be implemented by restructuring the weighting coefficients of synaptic connections according to the library of typical tuning algorithms, which requires additional equipment (components).

Задача, на решение которой направлено заявляемое изобретение, заключается в создании эффективной адаптации ИНС к параметрам внешней обстановки, в которой находится объект управления, и к параметрам его состояния (значениям фазовых переменных ДО) без увеличения оборудования (количества компонентов) нейроконтроллера, нейропроцессора или нейрорегулятора.The problem to which the claimed invention is directed is to create an effective adaptation of the ANN to the parameters of the external environment in which the control object is located, and to its state parameters (values of phase variables of DO) without increasing the equipment (number of components) of the neurocontroller, neuroprocessor or neuroregulator.

Ожидаемый технический результат достигается за счет реализации новой архитектуры ИНС прямого распространения, содержащей слой входных узлов и не менее двух слоев нейронов, соединенных последовательно в прямом направлении, образующих прямой канал обработки сигналов управления, за счет введения в ее структуру нейронной подсети обработки сигналов адаптации, которая образует канал параметров, состоящий из слоя входных узлов для сигналов адаптации и, по крайней мере, из одного слоя нейронов, выходные сигналы которых устанавливают весовые коэффициенты связей, по крайней мере, одного слоя нейронов прямого канала обработки сигналов управления, т.е. весовые коэффициенты синаптических связей, по крайней мере, одного слоя нейронов прямого канала обработки сигналов управления равны монотонным функциям от сигналов выходного слоя нейронов канала параметров.The expected technical result is achieved through the implementation of a new direct distribution ANN architecture, containing a layer of input nodes and at least two layers of neurons connected in series in the forward direction, forming a direct channel for processing control signals, by introducing adaptation signal processing neural subnet into its structure, which forms a channel of parameters consisting of a layer of input nodes for adaptation signals and at least one layer of neurons whose output signals establish weight coupling coefficients of at least one neuron layer of the direct channel for processing control signals, i.e. the weighting coefficients of the synaptic connections of at least one neuron layer of the direct control signal processing channel are equal to the monotonic functions of the signals of the output neuron layer of the parameter channel.

Это обеспечивает эффективную адаптивность ИНС при неизменной базовой совокупности значений весовых коэффициентов, полученной в процессе обучения ИНС, а следовательно, и без увеличения количества компонентов (оборудования), поскольку отсутствует библиотека (база данных) типовых алгоритмов настройки весовых коэффициентов, как это реализуется в известных адаптивных нейроконтроллерах [4].This ensures the effective adaptability of the ANN with an unchanged basic set of weight coefficients obtained during the training of the ANN, and therefore without increasing the number of components (equipment), since there is no library (database) of typical algorithms for setting weight coefficients, as is realized in the known adaptive neurocontrollers [4].

Дополнительным техническим результатом является устранение статической ошибки управления ДО за счет выполнения искусственных нейронов последнего скрытого слоя прямого канала линейными, и введение в них обучаемых пропорционально-интегрирующих звеньев.An additional technical result is the elimination of the static error of DO control due to the execution of artificial neurons of the last hidden layer of the direct channel linear, and the introduction of trainee proportionally integrating links into them.

Реализация активационных функций всех искусственных нейронов, кроме линейных нейронов последнего скрытого слоя прямого канала, одинаковыми и проходящими через нулевую точку, обеспечивает унификацию элементов ИНС, позволяющую упростить конструкцию устройства. При этом во входном слое нейронов канала параметров вводится источник обучаемого смещения, что позволяет сдвигать начало отсчета активационных функции, обеспечивая ускорение процесса обучения ИНС.The implementation of the activation functions of all artificial neurons, except for the linear neurons of the last hidden layer of the direct channel, identical and passing through the zero point, provides unification of the ANN elements, which allows to simplify the design of the device. At the same time, the source of the trained bias is introduced in the input layer of neurons of the parameter channel, which allows shifting the reference point of activation functions, providing an acceleration of the ANN learning process.

Другим дополнительным техническим результатом является ускорение процесса обучения адаптивной ИНС за счет кластеризации сигналов адаптации по физической сущности, например, разделение сигналов адаптации ИНС к параметрам внешней обстановки, в которой находится объект управления, и к параметрам его состояния (значениям фазовых переменных ДО), и введение для каждого кластера соответствующей подсети, которая образует свой канал параметров, каждый из которых состоит из слоя входных узлов и по крайней мере из одного слоя нейронов, выходные сигналы которых устанавливают весовые коэффициенты связей разных слоев нейронов прямого канала обработки сигналов управления.Another additional technical result is the acceleration of the learning process of an adaptive ANN due to the clustering of adaptation signals by physical nature, for example, the separation of ANS adaptation signals to the parameters of the external environment in which the control object is located and to its state parameters (values of phase variables of DO), and introduction for each cluster of the corresponding subnet, which forms its own channel of parameters, each of which consists of a layer of input nodes and at least one layer of neurons, the output whose signals establish the weighting coefficients of the connections of different layers of neurons of the direct channel for processing control signals.

На фиг. 1 представлена архитектура предложенной адаптивной ИНС и введены обозначения: 1 - слой входных узлов прямого канала; 2 - слои нейронов прямого канала обработки сигналов управления; 3 - слой входных узлов канала параметров для сигналов адаптации; 4 - слой нейронов канала параметров для обработки сигналов адаптации; 5 - вектор весовых коэффициентов синаптических связей нейронов прямого канала, устанавливаемых обработанными в слое нейронов 4 сигналами адаптации.In FIG. 1 shows the architecture of the proposed adaptive ANN and the notation is introduced: 1 - layer of input nodes of the direct channel; 2 - layers of neurons of the direct channel for processing control signals; 3 - layer of input nodes of the parameter channel for adaptation signals; 4 - layer of neurons of the parameter channel for processing adaptation signals; 5 is a vector of weight coefficients of the synaptic connections of the neurons of the direct channel established by 4 adaptation signals processed in the neuron layer.

На фиг. 2 представлена структура системы адаптивного управления сложным ДО, в которой нейрорегулятор включен в цепь обратной связи; введены обозначения: 6 - ДО; 7 - нейрорегулятор; 8 - ИНС; 9 - блок вычисления производных сигналов по времени; 10 - блок памяти, хранящий множество весовых коэффициентов (МВК) для ИНС 8; 11 - вектор сигналов адаптации S V ¯

Figure 00000001
; 12 - датчики параметров внешней обстановки ДО 6, формирующие вектор сигналов E C ¯
Figure 00000002
; 13 - блок мультиплексирования (обозначение как принято в пакете Simulink MATLAB и используется на фиг. 2-6).In FIG. 2 shows the structure of the adaptive control system for complex DO, in which the neuroregulator is included in the feedback circuit; designations introduced: 6 - DO; 7 - neuroregulator; 8 - ANN; 9 is a block for calculating the derivatives of signals with respect to time; 10 is a memory unit that stores a set of weighting factors (MVK) for ANN 8; 11 - vector of adaptation signals S V ¯
Figure 00000001
; 12 - sensors of environmental parameters up to 6, forming a vector of signals E C ¯
Figure 00000002
; 13 - multiplexing unit (designation as adopted in the Simulink MATLAB package and used in Figs. 2-6).

На фиг. 3 представлена структура системы адаптивного управления сложным ДО, в которой нейрорегулятор включен в цепь обратной связи; введены обозначения: 6 - ДО; 7 - нейрорегулятор; 8 - ИНС; 9 - блок вычисления производных сигналов по времени; 11 - вектор сигналов адаптации S V ¯

Figure 00000003
; 12 - датчиков параметров внешней обстановки ДО 6, формирующий вектор сигналов E C ¯
Figure 00000004
; 13 - блок мультиплексирования; 14 - база данных (БД), содержащая библиотеку типовых алгоритмов настройки весовых коэффициентов ИНС 8.In FIG. 3 shows the structure of the adaptive control system for complex DO, in which the neuroregulator is included in the feedback circuit; designations introduced: 6 - DO; 7 - neuroregulator; 8 - ANN; 9 is a block for calculating the derivatives of signals with respect to time; 11 - vector of adaptation signals S V ¯
Figure 00000003
; 12 - sensors of environmental parameters DO 6, forming a vector of signals E C ¯
Figure 00000004
; 13 - block multiplexing; 14 is a database (DB) containing a library of typical algorithms for setting the weight coefficients of ANN 8.

На фиг. 4 представлен фрагмент реализованной структуры нейрорегулятора с основным фрагментом структуры ИНС для автоматического управления летательным аппаратом в пакете Simulink MATLAB; введены обозначения: 1 - слой входных узлов прямого канала; 2 - слои нейронов прямого канала обработки сигналов управления; 3 - слой входных узлов канала параметров для сигналов адаптации; 4 - слой нейронов канала параметров для обработки сигналов адаптации; 10 - блок памяти, хранящий МВК; 15 - источник обучаемого смещения (источник с единичным сигналом) для входного слоя нейронов 4 канала параметров.In FIG. 4 presents a fragment of the implemented structure of the neuroregulator with the main fragment of the ANN structure for automatic control of the aircraft in the Simulink MATLAB package; designations are introduced: 1 - layer of input nodes of the direct channel; 2 - layers of neurons of the direct channel for processing control signals; 3 - layer of input nodes of the parameter channel for adaptation signals; 4 - layer of neurons of the parameter channel for processing adaptation signals; 10 - a memory unit that stores MVK; 15 - source of the trained bias (source with a single signal) for the input layer of neurons 4 channel parameters.

На фиг. 5 представлен фрагмент структуры нейрорегулятора, реализованного в пакете Simulink MATLAB, и основной фрагмент структуры ИНС; введены обозначения: 2 - скрытый слой нейронов прямого канала обработки сигналов управления; 16 - линейные нейроны последнего скрытого слоя прямого канала; 17 - блоки вычисления интеграла сигнала по времени; 18 - введенный источник постоянного смещения; 19 - выходной слой нейронов; 20 - блоки, реализующие активационные функции выходного слоя нейронов 19.In FIG. 5 shows a fragment of the structure of the neuroregulator implemented in the Simulink MATLAB package, and the main fragment of the ANN structure; designations introduced: 2 - a hidden layer of neurons of the direct channel for processing control signals; 16 - linear neurons of the last hidden layer of the direct channel; 17 - blocks for calculating the signal integral over time; 18 - input source of constant bias; 19 - output layer of neurons; 20 - blocks that implement the activation functions of the output layer of neurons 19.

На фиг. 6 представлена структура системы адаптивного управления сложным ДО, в которой нейрорегулятор, содержащий вариант исполнения заявляемого устройства, включен в цепь обратной связи; используются обозначения: 6 - ДО; 7 - нейрорегулятор; 8 - ИНС; 9 - блок вычисления производных сигналов по времени; 10 - блок памяти, хранящий множество весовых коэффициентов (МВК) для ИНС 8; 11 - вектор сигналов адаптации S V ¯

Figure 00000005
; 12 - датчики параметров внешней обстановки ДО 6, формирующие вектор сигналов E C ¯
Figure 00000006
.In FIG. 6 shows the structure of the adaptive control system for complex DO, in which a neuroregulator containing an embodiment of the inventive device is included in the feedback circuit; designations are used: 6 - DO; 7 - neuroregulator; 8 - ANN; 9 is a block for calculating the derivatives of signals with respect to time; 10 is a memory unit that stores a set of weighting factors (MVK) for ANN 8; 11 - vector of adaptation signals S V ¯
Figure 00000005
; 12 - sensors of environmental parameters up to 6, forming a vector of signals E C ¯
Figure 00000006
.

На фиг. 7 представлен вариант архитектуры предложенной адаптивной ИНС и введены обозначения: 1 - слой входных узлов прямого канала; 2 - слои нейронов прямого канала обработки сигналов управления; 3 - слои входных узлов каналов параметров для сигналов адаптации; 4 - слои нейронов каналов параметров для обработки сигналов адаптации; 5 - векторы весовых коэффициентов синаптических связей нейронов прямого канала, устанавливаемых обработанными в слоях нейронов 4 сигналами адаптации.In FIG. 7 shows a variant of the architecture of the proposed adaptive ANN and the notation is introduced: 1 - layer of input nodes of the direct channel; 2 - layers of neurons of the direct channel for processing control signals; 3 - layers of input nodes of parameter channels for adaptation signals; 4 - layers of parameter channel neurons for processing adaptation signals; 5 - vectors of weight coefficients of synaptic connections of neurons of the direct channel established by 4 adaptation signals processed in layers of neurons.

Заявляемое устройство - ИНС прямого распространения - содержит (фиг. 1) слой входных узлов 1 и не менее двух слоев нейронов 2, соединенных последовательно в прямом направлении и не содержащих связей между элементами внутри слоя и обратных связей между слоями. Эти слои нейронов 2 образуют прямой канал обработки сигналов управления. Введенная нейронная подсеть обработки сигналов адаптации образует канал параметров, состоящий из слоя входных узлов 3 для сигналов адаптации и слоя нейронов 4, выходные сигналы которых устанавливают весовые коэффициенты связей 5 нейронов прямого канала обработки сигналов управления, т.е. присваивают значения произвольных монотонных функций от выходных сигналов слоя нейронов 4 вектору весовых коэффициентов W ¯ P

Figure 00000007
. Функции от выходных сигналов слоя нейронов 4, значения которых присваивают вектору весовых коэффициентов, зависят от конкретной физической реализации ИНС. Так, в цифровых обучаемых нейроконтроллерах это просто линейная функция с единичным коэффициентом, а, например, в аналоговых нейропроцессорах (необучаемых) синаптические связи могут быть реализованы полевыми транзисторами, включенными как управляемые резисторы, на затворы которых поступают сигналы установки весовых коэффициентов соответствующих синаптических связей ИНС, при этом функции нелинейные, но монотонные и знать их математическое представление не требуется.The inventive device - ANN direct distribution - contains (Fig. 1) a layer of input nodes 1 and at least two layers of neurons 2 connected in series in the forward direction and not containing connections between elements inside the layer and feedbacks between layers. These layers of neurons 2 form a direct channel for processing control signals. The introduced adaptation signal processing neural subnet forms a parameter channel consisting of a layer of input nodes 3 for adaptation signals and a layer of neurons 4, the output signals of which establish link weights 5 of the neurons of the direct control signal processing channel, i.e. assign values of arbitrary monotonic functions from the output signals of the neuron layer to 4 vector weights W ¯ P
Figure 00000007
. The functions of the output signals of the neuron layer 4, the values of which are assigned to the vector of weights, depend on the specific physical implementation of the ANN. So, in digital trained neurocontrollers, it’s just a linear function with a unit coefficient, and, for example, in analog neuroprocessors (untrained), synaptic connections can be implemented by field-effect transistors included as controlled resistors, to the gates of which the signals for setting the weight coefficients of the corresponding synaptic connections of the ANN are received, in this case, the functions are nonlinear, but monotonic, and it is not required to know their mathematical representation.

Работа заявляемого устройства демонстрируется на фиг. 2 в системе адаптивного управления сложным ДО 6, в которой нейрорегулятор 7 включен в цепь обратной связи. На вход ИНС 8, предлагаемой архитектуры и являющейся ядром нейрорегулятора 7, поступает вектор сигналов ошибки управления x ¯

Figure 00000008
. Этот вектор составлен как из самих сигналов ошибки управления, так и из их временных производных, реализуемых блоком 9. Множество весовых коэффициентов (МВК) W ¯
Figure 00000009
, значения которых предварительно получены в процессе обучения ИНС 8, сохраняются в блоке памяти 10. Совокупность сигналов адаптации составлена из вектора сигналов S V ¯
Figure 00000010
11, получаемых из датчиков параметров состояния ДО 6, и из вектора сигналов E C ¯
Figure 00000011
, получаемых из датчиков 12 параметров внешней обстановки, в которой находится объект управления. Эти векторные сигналы S V ¯
Figure 00000012
и E C ¯
Figure 00000013
объединяют в один общий вектор сигналов адаптации (параметров) P ¯
Figure 00000014
с помощью блока мультиплексирования 13 (обозначение как принято в пакете Simulink MATLAB). Вектор сигналов адаптации P ¯
Figure 00000015
поступает на слой входных узлов канала параметров ИНС 8. Таким образом, осуществляется эффективное адаптивное управление сложным ДО 6.The operation of the inventive device is shown in FIG. 2 in the adaptive control system of complex DO 6, in which the neuroregulator 7 is included in the feedback circuit. Input ANN 8, the proposed architecture and which is the core of the neuroregulator 7, receives a vector of control error signals x ¯
Figure 00000008
. This vector is composed both of the control error signals themselves and of their temporary derivatives, implemented by block 9. The set of weight coefficients (MVK) W ¯
Figure 00000009
, the values of which were previously obtained during the training of ANN 8, are stored in the memory unit 10. The set of adaptation signals is composed of a vector of signals S V ¯
Figure 00000010
11 obtained from sensors of state parameters DO 6, and from the signal vector E C ¯
Figure 00000011
obtained from the sensors 12 of the parameters of the external environment in which the control object is located. These vector signals S V ¯
Figure 00000012
and E C ¯
Figure 00000013
combine into one common vector of adaptation signals (parameters) P ¯
Figure 00000014
using multiplexing unit 13 (designation as adopted in the Simulink MATLAB package). Adaptation Signals Vector P ¯
Figure 00000015
enters the layer of input nodes of the channel of the ANN 8 parameters channel. Thus, effective adaptive control of complex DO 6 is carried out.

Ожидаемый технический результат следует из сравнения заявляемого изобретения с известной аналогичной системой адаптивного управления сложным ДО 6, в которой нейрорегулятор 7 включен в цепь обратной связи, представленной на фиг. 3. Сущность известного способа адаптивного управления [4] заключается в создании библиотеки типовых алгоритмов настройки весовых коэффициентов ИНС 8, сохраняющейся в базе данных (БД) 14, создаваемой в процессе обучения ИНС 8. Выбор конкретных используемых алгоритмов настройки весовых коэффициентов осуществляется по значению вектора сигналов адаптации P ¯

Figure 00000016
, поступающего на БД 14. Заявляемое устройство использует единожды полученное МВК W ¯
Figure 00000017
, хранящееся в блоке памяти 10 (фиг. 2), что требует меньшего оборудования (количества компонентов) нейроконтроллера 7, чем это необходимо при реализации БД 14 в нейроконтроллере 7 (фиг. 3), содержащей целую библиотеку типовых алгоритмов настройки весовых коэффициентов ИНС 8.The expected technical result follows from a comparison of the claimed invention with a well-known similar adaptive control system for complex DO 6, in which the neuroregulator 7 is included in the feedback circuit shown in FIG. 3. The essence of the known adaptive control method [4] is to create a library of typical algorithms for setting the weight coefficients of ANN 8, stored in a database (DB) 14 created during the training of ANN 8. The selection of specific algorithms for setting weight coefficients is carried out according to the value of the signal vector adaptations P ¯
Figure 00000016
arriving at the database 14. The inventive device uses once received MVK W ¯
Figure 00000017
stored in the memory block 10 (Fig. 2), which requires less equipment (number of components) of the neurocontroller 7 than is necessary when implementing the database 14 in the neurocontroller 7 (Fig. 3), containing a whole library of typical algorithms for setting the weight coefficients of ANN 8.

Фрагмент реализованной структуры нейрорегулятора с основным фрагментом структуры ИНС, предлагаемой архитектуры, для автоматического управления летательным аппаратом в пакете Simulink MATLAB представлен на фиг. 4. Слои нейронов 2 прямого канала и слой нейронов 4 канала параметров реализованы блоками ″dotprod″, производящими скалярное умножение вектора параметров на вектор весовых коэффициентов, хранящихся в блоке памяти 10. Активационные функции всех нейронов реализованы блоками ″tansig″, выполняющими преобразование гиперболического тангенса:A fragment of the implemented structure of the neuroregulator with the main fragment of the ANN structure, the proposed architecture, for automatic control of the aircraft in the Simulink MATLAB package is shown in FIG. 4. The layers of neurons 2 of the direct channel and the layer of neurons of 4 channels of parameters are implemented by ″ dotprod ″ blocks, which scalarly multiply the vector of parameters by the vector of weight coefficients stored in the memory block 10. The activation functions of all neurons are implemented by ″ tansig ″ blocks that perform hyperbolic tangent transformation:

Figure 00000018
Figure 00000018

где F - значение активационной функции (выходной сигнал нейрона);where F is the value of the activation function (output signal of the neuron);

x - результат сложения входных сигналов нейрона, умноженных на соответствующие весовые коэффициенты.x is the result of adding the input signals of the neuron multiplied by the corresponding weights.

Активационные функции всех нейронов являются монотонно возрастающими и проходящими через нулевую точку, т.е. при нулевом значении сигнала на входе - нулевой сигнал на выходе. Необходимое смещение активационных функций входного слоя нейронов 4 канала параметров относительно нулевой точки обеспечивается введением источника обучаемого смещения 15.The activation functions of all neurons are monotonically increasing and passing through the zero point, i.e. if the input signal is zero, the output signal is zero. The necessary shift of the activation functions of the input layer of neurons 4 channel parameters relative to the zero point is provided by the introduction of the source of the trained bias 15.

На фиг. 5 представлен выходной фрагмент реализованной структуры ИНС предложенной архитектуры. С целью устранения статической ошибки управления ДО нейроны последнего скрытого слоя 16 прямого канала выполнены линейными и включают в себя обучаемые пропорционально-интегрирующие звенья, основой которых являются блоки 17 вычисления интегралов сигналов по времени. Источники постоянного смещения 18, введенные параллельно пропорционально-интегрирующим звеньям, выходной слой нейронов 19 прямого канала и блоки 20, реализующие их активационные функции, обеспечивают формирование необходимой области изменения значений вектора выходных сигналов управления y ¯

Figure 00000019
. Источники постоянного смещения 18 могут быть либо обучаемыми, либо с жестко выставляемыми значениям их весов.In FIG. 5 shows the output fragment of the implemented structure of the ANN of the proposed architecture. In order to eliminate the static control error DO, the neurons of the last hidden layer 16 of the direct channel are linear and include trained proportionally integrating links based on blocks 17 for calculating the signal integrals over time. Sources of constant bias 18, introduced in parallel with proportional-integrating links, the output layer of neurons 19 of the direct channel and blocks 20 that implement their activation functions, provide the formation of the necessary region of variation of the values of the vector of output control signals y ¯
Figure 00000019
. Sources of constant bias 18 can be either trained, or with hard-set values of their weights.

На фиг.6 представлена структура системы адаптивного управления сложным ДО 6 при использовании нескольких групп сигналов адаптации, в частности вектора сигналов S V ¯

Figure 00000020
11, получаемых из датчиков параметров состояния ДО 6, и вектора сигналов E C ¯
Figure 00000021
, получаемых из датчиков 12 параметров внешней обстановки. Архитектура варианта предложенной адаптивной ИНС 8 (фиг. 6) с двумя входами векторных сигналов адаптации P ¯ 1
Figure 00000022
и P ¯ 2
Figure 00000023
и с двумя каналами параметров представлена на фиг. 7. При таком варианте исполнения сигналы выходных слоев нейронов 4 разных каналов параметров устанавливают весовые коэффициенты разных слоев связей 5 прямого канала обработки сигналов управления. Предложенное разделение сигналов адаптации (кластеризация) обуславливает ускорения процесса обучения адаптивной ИНС.Figure 6 shows the structure of the adaptive control system for complex TO 6 when using several groups of adaptation signals, in particular a signal vector S V ¯
Figure 00000020
11 obtained from sensors of state parameters DO 6, and the signal vector E C ¯
Figure 00000021
obtained from sensors 12 environmental parameters. The architecture of the variant of the proposed adaptive ANN 8 (Fig. 6) with two inputs of vector adaptation signals P ¯ one
Figure 00000022
and P ¯ 2
Figure 00000023
and with two parameter channels is shown in FIG. 7. With this embodiment, the signals of the output layers of neurons of 4 different parameter channels set the weights of different layers of links 5 of the direct channel for processing control signals. The proposed separation of adaptation signals (clustering) determines the acceleration of the adaptive ANN learning process.

Источники информацииInformation sources

1. Бураков М.В. Мультиагентные нейронные регуляторы.// Нейроинформатика - 2004. Часть 2. Стр.130-138.1. Burakov M.V. Multi-agent neural regulators. // Neuroinformatics - 2004. Part 2. Pages 130-138.

2. Заявка на изобретение №2006116775 РФ, МПК G06N 3/04. Аппаратно-реализованная искусственная нейронная сеть./ Г.А. Сорокин, А.Е. Рогов. - Заявлено 16.05.2006; Опубл. 27.11.2007.2. Application for invention No. 2006116775 of the Russian Federation, IPC G06N 3/04. Hardware-implemented artificial neural network / G.A. Sorokin, A.E. Horns. - Declared May 16, 2006; Publ. 11/27/2007.

3. http://www.osp.ru/os/1997/04/179189/ - Введение в искусственные нейронные сети./ Жианчанг Мао, Энил Дж.// ″Открытые системы″, №04, 1997. Рис.4 - (прототип).3. http://www.osp.ru/os/1997/04/179189/ - Introduction to artificial neural networks. / Zhianchang Mao, Enil J. // ″ Open Systems ″, No. 04, 1997. Fig. 4 - (prototype).

4. Тюкин И.Ю., Терехов В.А. Нейросетевое решение задачи адаптивного управления классом нелинейных динамических объектов с невыпуклой параметризацией// Нейрокомпьютеры: разработка и применение. 2004. №7-8. С.4-16.4. Tyukin I.Yu., Terekhov V.A. Neural network solution to the problem of adaptive control of a class of nonlinear dynamic objects with non-convex parameterization // Neurocomputers: development and application. 2004. No. 7-8. S.4-16.

Claims (4)

1. Искусственная нейронная сеть прямого распространения, содержащая слой входных узлов и не менее двух слоев нейронов, соединенных последовательно в прямом направлении, образующих прямой канал обработки сигналов управления, отличающаяся тем, что введена нейронная подсеть обработки сигналов адаптации, которая образует канал параметров, состоящий из слоя входных узлов для сигналов адаптации и по крайней мере из одного слоя нейронов, выходные сигналы которых устанавливают весовые коэффициенты связей по крайней мере одного слоя нейронов прямого канала обработки сигналов управления.1. An artificial neural network of direct propagation, containing a layer of input nodes and at least two layers of neurons connected in series in the forward direction, forming a direct channel for processing control signals, characterized in that a neural subnet for processing adaptation signals is introduced, which forms a channel of parameters consisting of layer of input nodes for adaptation signals and from at least one neuron layer, the output signals of which establish link weights of at least one neuron layer ryamogo control channel signal processing. 2. Искусственная нейронная сеть по п. 1, отличающаяся тем, что нейроны последнего скрытого слоя прямого канала выполнены линейными и в них введены обучаемые пропорционально-интегрирующие звенья.2. The artificial neural network according to claim 1, characterized in that the neurons of the last hidden layer of the direct channel are linear and trained proportionally integrating links are introduced into them. 3. Искусственная нейронная сеть по п. 1, отличающаяся тем, что активационные функции всех нейронов, кроме линейных нейронов последнего скрытого слоя прямого канала, реализованы одинаковыми и проходящими через нулевую точку, а во входном слое нейронов канала параметров введен источник обучаемого смещения.3. The artificial neural network according to claim 1, characterized in that the activation functions of all neurons, except the linear neurons of the last hidden layer of the direct channel, are implemented identically and passing through the zero point, and a source of trained bias is introduced in the input layer of neurons of the parameter channel. 4. Искусственная нейронная сеть по п. 1, отличающаяся тем, что дополнительно введена по крайней мере вторая нейронная подсеть обработки сигналов адаптации второй группы, которая образует второй канал параметров, также состоящий из слоя входных узлов и по крайней мере из одного слоя нейронов, выходные сигналы которых устанавливают весовые коэффициенты связей другого слоя нейронов прямого канала обработки сигналов управления. 4. The artificial neural network according to claim 1, characterized in that at least a second neural subnet for processing adaptation signals of the second group is additionally introduced, which forms a second channel of parameters, also consisting of a layer of input nodes and at least one layer of neurons, the weekend whose signals establish the weighting coefficients of the connections of another layer of neurons of the direct channel for processing control signals.
RU2014128636/08A 2014-07-11 2014-07-11 Artificial neural network RU2573766C1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2014128636/08A RU2573766C1 (en) 2014-07-11 2014-07-11 Artificial neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2014128636/08A RU2573766C1 (en) 2014-07-11 2014-07-11 Artificial neural network

Publications (1)

Publication Number Publication Date
RU2573766C1 true RU2573766C1 (en) 2016-01-27

Family

ID=55236980

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2014128636/08A RU2573766C1 (en) 2014-07-11 2014-07-11 Artificial neural network

Country Status (1)

Country Link
RU (1) RU2573766C1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU182699U1 (en) * 2018-05-31 2018-08-28 Федеральное государственное бюджетное образовательное учреждение высшего образования "МИРЭА - Российский технологический университет" PULSE BLOCK OF CALCULATION OF ACTIVATION FUNCTION OF AN ARTIFICIAL NEURAL NETWORK

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5438646A (en) * 1992-08-19 1995-08-01 Nec Electronics, Inc. Feed-forward neural network
WO2005024718A1 (en) * 2003-09-09 2005-03-17 Semeion An artificial neural network
RU2266558C2 (en) * 2003-12-31 2005-12-20 Кубанский государственный технологический университет Intellectual controller with neuron network and self-modification rules
RU2300795C2 (en) * 2005-06-14 2007-06-10 Государственное образовательное учреждение высшего профессионального образования Уфимский государственный авиационный технический университет Device and method for monitoring control program of computer
RU115098U1 (en) * 2011-09-29 2012-04-20 Константин Дмитриевич Белов MULTILAYERED NEURAL NETWORK

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5438646A (en) * 1992-08-19 1995-08-01 Nec Electronics, Inc. Feed-forward neural network
WO2005024718A1 (en) * 2003-09-09 2005-03-17 Semeion An artificial neural network
RU2266558C2 (en) * 2003-12-31 2005-12-20 Кубанский государственный технологический университет Intellectual controller with neuron network and self-modification rules
RU2300795C2 (en) * 2005-06-14 2007-06-10 Государственное образовательное учреждение высшего профессионального образования Уфимский государственный авиационный технический университет Device and method for monitoring control program of computer
RU115098U1 (en) * 2011-09-29 2012-04-20 Константин Дмитриевич Белов MULTILAYERED NEURAL NETWORK

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU182699U1 (en) * 2018-05-31 2018-08-28 Федеральное государственное бюджетное образовательное учреждение высшего образования "МИРЭА - Российский технологический университет" PULSE BLOCK OF CALCULATION OF ACTIVATION FUNCTION OF AN ARTIFICIAL NEURAL NETWORK

Similar Documents

Publication Publication Date Title
EP1515270A1 (en) An artificial neural network
Murakawa et al. The grd chip: Genetic reconfiguration of dsps for neural network processing
KR20190018885A (en) Method and device for pruning convolutional neural network
US5592589A (en) Tree-like perceptron and a method for parallel distributed training of such perceptrons
Wang et al. Stability analysis of nonlinear switched systems with sampled-data controllers
CN108629403B (en) Processing signal saturation in impulse neural networks
RU2573766C1 (en) Artificial neural network
Tarkhov et al. Neural network modelling methods for creating digital twins of real objects
Kaur et al. Design of Low Pass FIR Filter Using Artificial NeuralNetwork
Rehman et al. Studying the effect of adaptive momentum in improving the accuracy of gradient descent back propagation algorithm on classification problems
US5170071A (en) Stochastic artifical neuron with multilayer training capability
Balakrishnan et al. Improving convergence of back-propagation by handling flat-spots in the output layer
Fan et al. Quasi-time-dependent H∞ filtering of discrete-time 2-D switched systems with mode-dependent persistent dwell-time
Ninomiya et al. Reaction–diffusion approximation of nonlocal interactions using Jacobi polynomials
Andreev et al. Artificial neural networks of GRNN type in prediction problems
Łuczak et al. The study of neural estimator structure influence on the estimation quality of selected state variables of the complex mechanical part of electrical drive
Mathia et al. Solving nonlinear equations using recurrent neural networks
Kondratieva et al. Artificial neural networks in digital antenna arrays
Bento et al. Nonuniform behavior and stability of Hopfield neural networks with delay
Salerno et al. Spiking neural networks as continuous-time dynamical systems: fundamentals, elementary structures and simple applications
Kostenko Multi-start method with cutting for solving problems of unconditional optimization
Owens et al. Adaptive iterative learning control
US8438123B2 (en) Method and apparatus for configuring a communication channel
Kanwal et al. Survey paper on Advanced Equipment Execution of ANN for FPGA
Gürhanlı et al. Effect of derivative action on back-propagation algorithms