RU2573766C1 - Artificial neural network - Google Patents
Artificial neural network Download PDFInfo
- Publication number
- RU2573766C1 RU2573766C1 RU2014128636/08A RU2014128636A RU2573766C1 RU 2573766 C1 RU2573766 C1 RU 2573766C1 RU 2014128636/08 A RU2014128636/08 A RU 2014128636/08A RU 2014128636 A RU2014128636 A RU 2014128636A RU 2573766 C1 RU2573766 C1 RU 2573766C1
- Authority
- RU
- Russia
- Prior art keywords
- layer
- neurons
- signals
- channel
- adaptation
- Prior art date
Links
Images
Abstract
Description
Изобретение относится к интеллектуальным системам управления и может быть использовано в качества ядра цифровых нейроконтроллеров, нейропроцессоров и нейрорегуляторов.The invention relates to intelligent control systems and can be used as the core of digital neurocontrollers, neuroprocessors and neuroregulators.
Известно, что ядром нейрорегуляторов для сложных динамических объектов (ДО) обычно являются искусственные нейронные сети (ИНС) прямого распространения [1]. Обладая способностью к обобщению, применение ИНС позволяет осуществлять эффективное управление ДО в широком диапазоне изменения фазовых переменных (переменных состояния) последнего. Известны ИНС, содержащие совокупность искусственных нейронов и устройств передачи информации между ними [2] (Заявка на изобретение №2006116775 РФ, МПК G06N 3/04. Аппаратно-реализованная искусственная нейронная сеть./ Г.А. Сорокин, А.Е. Рогов. - Заявлено 16.05.2006; Опубл. 27.11.2007).It is known that the core of neuroregulators for complex dynamic objects (DOs) are usually artificial neural networks (ANNs) of direct distribution [1]. Possessing the ability to generalize, the use of ANN allows effective control of BS in a wide range of changes in phase variables (state variables) of the latter. Known ANNs containing a set of artificial neurons and devices for transmitting information between them [2] (Application for invention No. 2006116775 RF, IPC
Наиболее близким по технической сущности к заявленному устройству является многослойная ИНС прямого распространения, состоящая из слоя входных узлов, скрытых слоев искусственных нейронов и выходного слоя нейронов, соединенных связями, называемыми синаптическими, последовательно в прямом направлении и не содержащих связей между элементами внутри слоя и обратных связей между слоями [3] (http://www.osp.ru/os/1997/04/179189/ - Введение в искусственные нейронные сети./ Жианчанг Мао, Энил Дж.// ″Открытые системы″, №04, 1997. Рис.4). Известное устройство, обладая способностью к обобщению, не обладает адаптивностью к параметрам внешней обстановки ДО и параметрам его состояния. Адаптация может быть реализована перестройкой весовых коэффициентов синаптических связей соответственно библиотеке типовых алгоритмов настройки, что требует дополнительного оборудования (компонентов).The closest in technical essence to the claimed device is a multilayer direct distribution ANN, consisting of a layer of input nodes, hidden layers of artificial neurons and an output layer of neurons, connected by connections called synaptic, sequentially in the forward direction and not containing connections between elements inside the layer and feedbacks between layers [3] (http://www.osp.ru/os/1997/04/179189/ - Introduction to artificial neural networks. / Zhianchang Mao, Enil J. // ″ Open Systems ″, No. 04, 1997. Fig. 4). The known device, having the ability to generalize, does not have adaptability to the parameters of the external environment of DO and the parameters of its state. Adaptation can be implemented by restructuring the weighting coefficients of synaptic connections according to the library of typical tuning algorithms, which requires additional equipment (components).
Задача, на решение которой направлено заявляемое изобретение, заключается в создании эффективной адаптации ИНС к параметрам внешней обстановки, в которой находится объект управления, и к параметрам его состояния (значениям фазовых переменных ДО) без увеличения оборудования (количества компонентов) нейроконтроллера, нейропроцессора или нейрорегулятора.The problem to which the claimed invention is directed is to create an effective adaptation of the ANN to the parameters of the external environment in which the control object is located, and to its state parameters (values of phase variables of DO) without increasing the equipment (number of components) of the neurocontroller, neuroprocessor or neuroregulator.
Ожидаемый технический результат достигается за счет реализации новой архитектуры ИНС прямого распространения, содержащей слой входных узлов и не менее двух слоев нейронов, соединенных последовательно в прямом направлении, образующих прямой канал обработки сигналов управления, за счет введения в ее структуру нейронной подсети обработки сигналов адаптации, которая образует канал параметров, состоящий из слоя входных узлов для сигналов адаптации и, по крайней мере, из одного слоя нейронов, выходные сигналы которых устанавливают весовые коэффициенты связей, по крайней мере, одного слоя нейронов прямого канала обработки сигналов управления, т.е. весовые коэффициенты синаптических связей, по крайней мере, одного слоя нейронов прямого канала обработки сигналов управления равны монотонным функциям от сигналов выходного слоя нейронов канала параметров.The expected technical result is achieved through the implementation of a new direct distribution ANN architecture, containing a layer of input nodes and at least two layers of neurons connected in series in the forward direction, forming a direct channel for processing control signals, by introducing adaptation signal processing neural subnet into its structure, which forms a channel of parameters consisting of a layer of input nodes for adaptation signals and at least one layer of neurons whose output signals establish weight coupling coefficients of at least one neuron layer of the direct channel for processing control signals, i.e. the weighting coefficients of the synaptic connections of at least one neuron layer of the direct control signal processing channel are equal to the monotonic functions of the signals of the output neuron layer of the parameter channel.
Это обеспечивает эффективную адаптивность ИНС при неизменной базовой совокупности значений весовых коэффициентов, полученной в процессе обучения ИНС, а следовательно, и без увеличения количества компонентов (оборудования), поскольку отсутствует библиотека (база данных) типовых алгоритмов настройки весовых коэффициентов, как это реализуется в известных адаптивных нейроконтроллерах [4].This ensures the effective adaptability of the ANN with an unchanged basic set of weight coefficients obtained during the training of the ANN, and therefore without increasing the number of components (equipment), since there is no library (database) of typical algorithms for setting weight coefficients, as is realized in the known adaptive neurocontrollers [4].
Дополнительным техническим результатом является устранение статической ошибки управления ДО за счет выполнения искусственных нейронов последнего скрытого слоя прямого канала линейными, и введение в них обучаемых пропорционально-интегрирующих звеньев.An additional technical result is the elimination of the static error of DO control due to the execution of artificial neurons of the last hidden layer of the direct channel linear, and the introduction of trainee proportionally integrating links into them.
Реализация активационных функций всех искусственных нейронов, кроме линейных нейронов последнего скрытого слоя прямого канала, одинаковыми и проходящими через нулевую точку, обеспечивает унификацию элементов ИНС, позволяющую упростить конструкцию устройства. При этом во входном слое нейронов канала параметров вводится источник обучаемого смещения, что позволяет сдвигать начало отсчета активационных функции, обеспечивая ускорение процесса обучения ИНС.The implementation of the activation functions of all artificial neurons, except for the linear neurons of the last hidden layer of the direct channel, identical and passing through the zero point, provides unification of the ANN elements, which allows to simplify the design of the device. At the same time, the source of the trained bias is introduced in the input layer of neurons of the parameter channel, which allows shifting the reference point of activation functions, providing an acceleration of the ANN learning process.
Другим дополнительным техническим результатом является ускорение процесса обучения адаптивной ИНС за счет кластеризации сигналов адаптации по физической сущности, например, разделение сигналов адаптации ИНС к параметрам внешней обстановки, в которой находится объект управления, и к параметрам его состояния (значениям фазовых переменных ДО), и введение для каждого кластера соответствующей подсети, которая образует свой канал параметров, каждый из которых состоит из слоя входных узлов и по крайней мере из одного слоя нейронов, выходные сигналы которых устанавливают весовые коэффициенты связей разных слоев нейронов прямого канала обработки сигналов управления.Another additional technical result is the acceleration of the learning process of an adaptive ANN due to the clustering of adaptation signals by physical nature, for example, the separation of ANS adaptation signals to the parameters of the external environment in which the control object is located and to its state parameters (values of phase variables of DO), and introduction for each cluster of the corresponding subnet, which forms its own channel of parameters, each of which consists of a layer of input nodes and at least one layer of neurons, the output whose signals establish the weighting coefficients of the connections of different layers of neurons of the direct channel for processing control signals.
На фиг. 1 представлена архитектура предложенной адаптивной ИНС и введены обозначения: 1 - слой входных узлов прямого канала; 2 - слои нейронов прямого канала обработки сигналов управления; 3 - слой входных узлов канала параметров для сигналов адаптации; 4 - слой нейронов канала параметров для обработки сигналов адаптации; 5 - вектор весовых коэффициентов синаптических связей нейронов прямого канала, устанавливаемых обработанными в слое нейронов 4 сигналами адаптации.In FIG. 1 shows the architecture of the proposed adaptive ANN and the notation is introduced: 1 - layer of input nodes of the direct channel; 2 - layers of neurons of the direct channel for processing control signals; 3 - layer of input nodes of the parameter channel for adaptation signals; 4 - layer of neurons of the parameter channel for processing adaptation signals; 5 is a vector of weight coefficients of the synaptic connections of the neurons of the direct channel established by 4 adaptation signals processed in the neuron layer.
На фиг. 2 представлена структура системы адаптивного управления сложным ДО, в которой нейрорегулятор включен в цепь обратной связи; введены обозначения: 6 - ДО; 7 - нейрорегулятор; 8 - ИНС; 9 - блок вычисления производных сигналов по времени; 10 - блок памяти, хранящий множество весовых коэффициентов (МВК) для ИНС 8; 11 - вектор сигналов адаптации
На фиг. 3 представлена структура системы адаптивного управления сложным ДО, в которой нейрорегулятор включен в цепь обратной связи; введены обозначения: 6 - ДО; 7 - нейрорегулятор; 8 - ИНС; 9 - блок вычисления производных сигналов по времени; 11 - вектор сигналов адаптации
На фиг. 4 представлен фрагмент реализованной структуры нейрорегулятора с основным фрагментом структуры ИНС для автоматического управления летательным аппаратом в пакете Simulink MATLAB; введены обозначения: 1 - слой входных узлов прямого канала; 2 - слои нейронов прямого канала обработки сигналов управления; 3 - слой входных узлов канала параметров для сигналов адаптации; 4 - слой нейронов канала параметров для обработки сигналов адаптации; 10 - блок памяти, хранящий МВК; 15 - источник обучаемого смещения (источник с единичным сигналом) для входного слоя нейронов 4 канала параметров.In FIG. 4 presents a fragment of the implemented structure of the neuroregulator with the main fragment of the ANN structure for automatic control of the aircraft in the Simulink MATLAB package; designations are introduced: 1 - layer of input nodes of the direct channel; 2 - layers of neurons of the direct channel for processing control signals; 3 - layer of input nodes of the parameter channel for adaptation signals; 4 - layer of neurons of the parameter channel for processing adaptation signals; 10 - a memory unit that stores MVK; 15 - source of the trained bias (source with a single signal) for the input layer of
На фиг. 5 представлен фрагмент структуры нейрорегулятора, реализованного в пакете Simulink MATLAB, и основной фрагмент структуры ИНС; введены обозначения: 2 - скрытый слой нейронов прямого канала обработки сигналов управления; 16 - линейные нейроны последнего скрытого слоя прямого канала; 17 - блоки вычисления интеграла сигнала по времени; 18 - введенный источник постоянного смещения; 19 - выходной слой нейронов; 20 - блоки, реализующие активационные функции выходного слоя нейронов 19.In FIG. 5 shows a fragment of the structure of the neuroregulator implemented in the Simulink MATLAB package, and the main fragment of the ANN structure; designations introduced: 2 - a hidden layer of neurons of the direct channel for processing control signals; 16 - linear neurons of the last hidden layer of the direct channel; 17 - blocks for calculating the signal integral over time; 18 - input source of constant bias; 19 - output layer of neurons; 20 - blocks that implement the activation functions of the output layer of
На фиг. 6 представлена структура системы адаптивного управления сложным ДО, в которой нейрорегулятор, содержащий вариант исполнения заявляемого устройства, включен в цепь обратной связи; используются обозначения: 6 - ДО; 7 - нейрорегулятор; 8 - ИНС; 9 - блок вычисления производных сигналов по времени; 10 - блок памяти, хранящий множество весовых коэффициентов (МВК) для ИНС 8; 11 - вектор сигналов адаптации
На фиг. 7 представлен вариант архитектуры предложенной адаптивной ИНС и введены обозначения: 1 - слой входных узлов прямого канала; 2 - слои нейронов прямого канала обработки сигналов управления; 3 - слои входных узлов каналов параметров для сигналов адаптации; 4 - слои нейронов каналов параметров для обработки сигналов адаптации; 5 - векторы весовых коэффициентов синаптических связей нейронов прямого канала, устанавливаемых обработанными в слоях нейронов 4 сигналами адаптации.In FIG. 7 shows a variant of the architecture of the proposed adaptive ANN and the notation is introduced: 1 - layer of input nodes of the direct channel; 2 - layers of neurons of the direct channel for processing control signals; 3 - layers of input nodes of parameter channels for adaptation signals; 4 - layers of parameter channel neurons for processing adaptation signals; 5 - vectors of weight coefficients of synaptic connections of neurons of the direct channel established by 4 adaptation signals processed in layers of neurons.
Заявляемое устройство - ИНС прямого распространения - содержит (фиг. 1) слой входных узлов 1 и не менее двух слоев нейронов 2, соединенных последовательно в прямом направлении и не содержащих связей между элементами внутри слоя и обратных связей между слоями. Эти слои нейронов 2 образуют прямой канал обработки сигналов управления. Введенная нейронная подсеть обработки сигналов адаптации образует канал параметров, состоящий из слоя входных узлов 3 для сигналов адаптации и слоя нейронов 4, выходные сигналы которых устанавливают весовые коэффициенты связей 5 нейронов прямого канала обработки сигналов управления, т.е. присваивают значения произвольных монотонных функций от выходных сигналов слоя нейронов 4 вектору весовых коэффициентов
Работа заявляемого устройства демонстрируется на фиг. 2 в системе адаптивного управления сложным ДО 6, в которой нейрорегулятор 7 включен в цепь обратной связи. На вход ИНС 8, предлагаемой архитектуры и являющейся ядром нейрорегулятора 7, поступает вектор сигналов ошибки управления
Ожидаемый технический результат следует из сравнения заявляемого изобретения с известной аналогичной системой адаптивного управления сложным ДО 6, в которой нейрорегулятор 7 включен в цепь обратной связи, представленной на фиг. 3. Сущность известного способа адаптивного управления [4] заключается в создании библиотеки типовых алгоритмов настройки весовых коэффициентов ИНС 8, сохраняющейся в базе данных (БД) 14, создаваемой в процессе обучения ИНС 8. Выбор конкретных используемых алгоритмов настройки весовых коэффициентов осуществляется по значению вектора сигналов адаптации
Фрагмент реализованной структуры нейрорегулятора с основным фрагментом структуры ИНС, предлагаемой архитектуры, для автоматического управления летательным аппаратом в пакете Simulink MATLAB представлен на фиг. 4. Слои нейронов 2 прямого канала и слой нейронов 4 канала параметров реализованы блоками ″dotprod″, производящими скалярное умножение вектора параметров на вектор весовых коэффициентов, хранящихся в блоке памяти 10. Активационные функции всех нейронов реализованы блоками ″tansig″, выполняющими преобразование гиперболического тангенса:A fragment of the implemented structure of the neuroregulator with the main fragment of the ANN structure, the proposed architecture, for automatic control of the aircraft in the Simulink MATLAB package is shown in FIG. 4. The layers of neurons 2 of the direct channel and the layer of neurons of 4 channels of parameters are implemented by ″ dotprod ″ blocks, which scalarly multiply the vector of parameters by the vector of weight coefficients stored in the
где F - значение активационной функции (выходной сигнал нейрона);where F is the value of the activation function (output signal of the neuron);
x - результат сложения входных сигналов нейрона, умноженных на соответствующие весовые коэффициенты.x is the result of adding the input signals of the neuron multiplied by the corresponding weights.
Активационные функции всех нейронов являются монотонно возрастающими и проходящими через нулевую точку, т.е. при нулевом значении сигнала на входе - нулевой сигнал на выходе. Необходимое смещение активационных функций входного слоя нейронов 4 канала параметров относительно нулевой точки обеспечивается введением источника обучаемого смещения 15.The activation functions of all neurons are monotonically increasing and passing through the zero point, i.e. if the input signal is zero, the output signal is zero. The necessary shift of the activation functions of the input layer of
На фиг. 5 представлен выходной фрагмент реализованной структуры ИНС предложенной архитектуры. С целью устранения статической ошибки управления ДО нейроны последнего скрытого слоя 16 прямого канала выполнены линейными и включают в себя обучаемые пропорционально-интегрирующие звенья, основой которых являются блоки 17 вычисления интегралов сигналов по времени. Источники постоянного смещения 18, введенные параллельно пропорционально-интегрирующим звеньям, выходной слой нейронов 19 прямого канала и блоки 20, реализующие их активационные функции, обеспечивают формирование необходимой области изменения значений вектора выходных сигналов управления
На фиг.6 представлена структура системы адаптивного управления сложным ДО 6 при использовании нескольких групп сигналов адаптации, в частности вектора сигналов
Источники информацииInformation sources
1. Бураков М.В. Мультиагентные нейронные регуляторы.// Нейроинформатика - 2004. Часть 2. Стр.130-138.1. Burakov M.V. Multi-agent neural regulators. // Neuroinformatics - 2004. Part 2. Pages 130-138.
2. Заявка на изобретение №2006116775 РФ, МПК G06N 3/04. Аппаратно-реализованная искусственная нейронная сеть./ Г.А. Сорокин, А.Е. Рогов. - Заявлено 16.05.2006; Опубл. 27.11.2007.2. Application for invention No. 2006116775 of the Russian Federation,
3. http://www.osp.ru/os/1997/04/179189/ - Введение в искусственные нейронные сети./ Жианчанг Мао, Энил Дж.// ″Открытые системы″, №04, 1997. Рис.4 - (прототип).3. http://www.osp.ru/os/1997/04/179189/ - Introduction to artificial neural networks. / Zhianchang Mao, Enil J. // ″ Open Systems ″, No. 04, 1997. Fig. 4 - (prototype).
4. Тюкин И.Ю., Терехов В.А. Нейросетевое решение задачи адаптивного управления классом нелинейных динамических объектов с невыпуклой параметризацией// Нейрокомпьютеры: разработка и применение. 2004. №7-8. С.4-16.4. Tyukin I.Yu., Terekhov V.A. Neural network solution to the problem of adaptive control of a class of nonlinear dynamic objects with non-convex parameterization // Neurocomputers: development and application. 2004. No. 7-8. S.4-16.
Claims (4)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2014128636/08A RU2573766C1 (en) | 2014-07-11 | 2014-07-11 | Artificial neural network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2014128636/08A RU2573766C1 (en) | 2014-07-11 | 2014-07-11 | Artificial neural network |
Publications (1)
Publication Number | Publication Date |
---|---|
RU2573766C1 true RU2573766C1 (en) | 2016-01-27 |
Family
ID=55236980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2014128636/08A RU2573766C1 (en) | 2014-07-11 | 2014-07-11 | Artificial neural network |
Country Status (1)
Country | Link |
---|---|
RU (1) | RU2573766C1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU182699U1 (en) * | 2018-05-31 | 2018-08-28 | Федеральное государственное бюджетное образовательное учреждение высшего образования "МИРЭА - Российский технологический университет" | PULSE BLOCK OF CALCULATION OF ACTIVATION FUNCTION OF AN ARTIFICIAL NEURAL NETWORK |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5438646A (en) * | 1992-08-19 | 1995-08-01 | Nec Electronics, Inc. | Feed-forward neural network |
WO2005024718A1 (en) * | 2003-09-09 | 2005-03-17 | Semeion | An artificial neural network |
RU2266558C2 (en) * | 2003-12-31 | 2005-12-20 | Кубанский государственный технологический университет | Intellectual controller with neuron network and self-modification rules |
RU2300795C2 (en) * | 2005-06-14 | 2007-06-10 | Государственное образовательное учреждение высшего профессионального образования Уфимский государственный авиационный технический университет | Device and method for monitoring control program of computer |
RU115098U1 (en) * | 2011-09-29 | 2012-04-20 | Константин Дмитриевич Белов | MULTILAYERED NEURAL NETWORK |
-
2014
- 2014-07-11 RU RU2014128636/08A patent/RU2573766C1/en active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5438646A (en) * | 1992-08-19 | 1995-08-01 | Nec Electronics, Inc. | Feed-forward neural network |
WO2005024718A1 (en) * | 2003-09-09 | 2005-03-17 | Semeion | An artificial neural network |
RU2266558C2 (en) * | 2003-12-31 | 2005-12-20 | Кубанский государственный технологический университет | Intellectual controller with neuron network and self-modification rules |
RU2300795C2 (en) * | 2005-06-14 | 2007-06-10 | Государственное образовательное учреждение высшего профессионального образования Уфимский государственный авиационный технический университет | Device and method for monitoring control program of computer |
RU115098U1 (en) * | 2011-09-29 | 2012-04-20 | Константин Дмитриевич Белов | MULTILAYERED NEURAL NETWORK |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU182699U1 (en) * | 2018-05-31 | 2018-08-28 | Федеральное государственное бюджетное образовательное учреждение высшего образования "МИРЭА - Российский технологический университет" | PULSE BLOCK OF CALCULATION OF ACTIVATION FUNCTION OF AN ARTIFICIAL NEURAL NETWORK |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1515270A1 (en) | An artificial neural network | |
Murakawa et al. | The grd chip: Genetic reconfiguration of dsps for neural network processing | |
KR20190018885A (en) | Method and device for pruning convolutional neural network | |
US5592589A (en) | Tree-like perceptron and a method for parallel distributed training of such perceptrons | |
Wang et al. | Stability analysis of nonlinear switched systems with sampled-data controllers | |
CN108629403B (en) | Processing signal saturation in impulse neural networks | |
RU2573766C1 (en) | Artificial neural network | |
Tarkhov et al. | Neural network modelling methods for creating digital twins of real objects | |
Kaur et al. | Design of Low Pass FIR Filter Using Artificial NeuralNetwork | |
Rehman et al. | Studying the effect of adaptive momentum in improving the accuracy of gradient descent back propagation algorithm on classification problems | |
US5170071A (en) | Stochastic artifical neuron with multilayer training capability | |
Balakrishnan et al. | Improving convergence of back-propagation by handling flat-spots in the output layer | |
Fan et al. | Quasi-time-dependent H∞ filtering of discrete-time 2-D switched systems with mode-dependent persistent dwell-time | |
Ninomiya et al. | Reaction–diffusion approximation of nonlocal interactions using Jacobi polynomials | |
Andreev et al. | Artificial neural networks of GRNN type in prediction problems | |
Łuczak et al. | The study of neural estimator structure influence on the estimation quality of selected state variables of the complex mechanical part of electrical drive | |
Mathia et al. | Solving nonlinear equations using recurrent neural networks | |
Kondratieva et al. | Artificial neural networks in digital antenna arrays | |
Bento et al. | Nonuniform behavior and stability of Hopfield neural networks with delay | |
Salerno et al. | Spiking neural networks as continuous-time dynamical systems: fundamentals, elementary structures and simple applications | |
Kostenko | Multi-start method with cutting for solving problems of unconditional optimization | |
Owens et al. | Adaptive iterative learning control | |
US8438123B2 (en) | Method and apparatus for configuring a communication channel | |
Kanwal et al. | Survey paper on Advanced Equipment Execution of ANN for FPGA | |
Gürhanlı et al. | Effect of derivative action on back-propagation algorithms |