RU2446463C1 - Method and apparatus for intelligent information processing in neural network - Google Patents

Method and apparatus for intelligent information processing in neural network Download PDF

Info

Publication number
RU2446463C1
RU2446463C1 RU2011104528/08A RU2011104528A RU2446463C1 RU 2446463 C1 RU2446463 C1 RU 2446463C1 RU 2011104528/08 A RU2011104528/08 A RU 2011104528/08A RU 2011104528 A RU2011104528 A RU 2011104528A RU 2446463 C1 RU2446463 C1 RU 2446463C1
Authority
RU
Russia
Prior art keywords
input
output
layer
block
network
Prior art date
Application number
RU2011104528/08A
Other languages
Russian (ru)
Inventor
Василий Юрьевич Осипов (RU)
Василий Юрьевич Осипов
Original Assignee
Василий Юрьевич Осипов
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Василий Юрьевич Осипов filed Critical Василий Юрьевич Осипов
Priority to RU2011104528/08A priority Critical patent/RU2446463C1/en
Application granted granted Critical
Publication of RU2446463C1 publication Critical patent/RU2446463C1/en

Links

Images

Abstract

FIELD: information technology.
SUBSTANCE: when processing a signal in a recurrent multilayer network with feedback, which closes the loop with unit character delay time less than the nonsusceptibility time of neurons in the network after excitation thereof, with shift of sets of unit characters along layers when transmitting sets of unit characters from layer to layer, said sets are delayed based on the current state of the layers.
EFFECT: broader functional capabilities of intelligent information processing in a neural network.
2 cl, 3 dwg

Description

Изобретение относится к бионике, моделированию функциональных аспектов человека.The invention relates to bionics, modeling the functional aspects of man.

В настоящее время известны многие способы и устройства интеллектуальной обработки информации в нейронной сети, применяемые для аппроксимации, классификации, распознавания образов, обработки речи, прогнозирования, идентификации, оценивания производственных процессов, ассоциативного управления и для решения других творческих задач (Хайкин С. Нейронные сети: полный курс, 2-е издание. Пер. с англ. М.: Издательский дом «Вильямс», 2006. - 1104 с.; Галушкин А.И. Теория нейронных сетей. Кн. 1: Учебное пособие для вузов / Общая ред. А.И.Галушкина. - М.: ИПРЖР, 2000. - 416 с.).Currently, many methods and devices for intelligent information processing in a neural network are known, used for approximation, classification, pattern recognition, speech processing, forecasting, identification, estimation of production processes, associative control and for solving other creative tasks (Khaikin S. Neural networks: full course, 2nd edition, translated from English M .: Williams Publishing House, 2006. - 1104 p .; AI Galushkin, Theory of Neural Networks, Book 1: Textbook for universities / General ed. A.I. Galushkina. - M .: IPRZHR, 200 0. - 416 p.).

Однако всем им характерны узкие возможности по запоминанию структурно-сложных изменяющихся во времени сигналов, их распознаванию, ассоциированию с другими сигналами, извлечению из памяти сети и воспроизведению в исходной форме. Эти известные способы и устройства не позволяют при обработке информации решать широкий спектр задач одной и той же нейронной сетью. Они не обеспечивают возможностей наделения машин осознанным восприятием внешнего мира и осознанного активного взаимодействия с ним. В целом известным способам и устройствам свойственны узкие функциональные возможности по интеллектуальной обработке информации в нейронной сети.However, all of them are characterized by narrow capabilities for storing structurally complex time-varying signals, their recognition, association with other signals, retrieving from the network memory and reproducing in its original form. These known methods and devices do not allow, when processing information, to solve a wide range of problems with the same neural network. They do not provide the possibility of endowing machines with a conscious perception of the outside world and conscious active interaction with it. In general, known methods and devices are characterized by narrow functional capabilities for the intellectual processing of information in a neural network.

Наиболее близким аналогом изобретения является способ интеллектуальной обработки информации в многослойной рекуррентной нейронной сети с обратными связями, замыкающими контура с временем задержки единичных образов меньше времени невосприимчивости нейронов сети после их возбуждения. Согласно этому способу сигнал подают в сеть после разложения на составляющие в базисе, согласованном с входным слоем сети, с каждой составляющей, преобразованной в последовательность единичных образов с частотой повторения как предварительно заданной функцией от амплитуды составляющей. Представляют сигнал в сети в виде последовательных совокупностей единичных образов в соответствии с предварительно заданными правилами его распознавания с учетом обратных результатов распознавания. При передаче совокупностей единичных образов от слоя к слою сдвигают их вдоль слоев с учетом текущих состояний слоев. Запоминают результаты распознавания на элементах сети. Используют в качестве результатов обработки последовательные совокупности единичных образов на выходном слое сети после обратного преобразования в соответствующие им исходные сигналы (Осипов В.Ю. Ассоциативная интеллектуальная машина / Информационные технологии и вычислительные системы. 2010, №2, с.59-67).The closest analogue of the invention is a method of intelligent information processing in a multilayer recurrent neural network with feedbacks closing the circuit with the delay time of individual images less than the immunity time of network neurons after their excitation. According to this method, the signal is supplied to the network after decomposition into components in a basis consistent with the input layer of the network, with each component converted into a sequence of single images with a repetition rate as a predetermined function of the amplitude of the component. Represent a signal in the network in the form of consecutive sets of single images in accordance with predefined rules for its recognition, taking into account the inverse recognition results. When transferring sets of single images from layer to layer, they are shifted along the layers, taking into account the current state of the layers. Recognize the recognition results on network elements. Use as a result of processing sequential sets of single images on the output layer of the network after the reverse conversion to the corresponding source signals (Osipov V.Yu. Associative Intelligent Machine / Information Technologies and Computing Systems. 2010, No. 2, pp. 59-67).

Этому способу характерны следующие недостатки. Согласно ему все сигналы обрабатываются в сети в одном и том же масштабе времени. При такой обработке сжатый или растянутый во времени входной сигнал воспринимается сетью как новый относительно ранее воспринятого того же самого сигнала в неизмененном временном масштабе. Это существенно ограничивает возможности способа по распознаванию, например, быстрой и медленной речи, одних и тех же замедленных и ускоренных процессов. Отсутствие возможности замедлять или ускорять ассоциирование сигналов друг с другом в сети, изменять их временной масштаб и скорость продвижения в ней не позволяет переходить к модельному времени, отличающемуся от реального. Это существенно ограничивает функциональные возможности способа по интеллектуальной обработке информации.This method is characterized by the following disadvantages. According to it, all signals are processed on the network in the same time scale. With this processing, a compressed or time-stretched input signal is perceived by the network as new relative to the previously received same signal on an unchanged time scale. This significantly limits the ability of the method to recognize, for example, fast and slow speech, the same slow and accelerated processes. The inability to slow down or accelerate the association of signals with each other in the network, to change their time scale and the speed of advancement in it does not allow us to switch to a model time that differs from the real one. This significantly limits the functionality of the method for intellectual information processing.

Наиболее близким аналогом изобретения среди устройств выступает устройство, содержащее два слоя нейронов, два блока динамических синапсов, два блока задержек и блок управления. Первый вход первого слоя нейронов является входом устройства. Второй вход этого слоя соединен с выходом второго блока динамических синапсов, выход слоя - с входом первого блока задержек. Вход второго слоя нейронов соединен с выходом первого блока динамических синапсов, выход - с входом второго блока задержек. Первый вход блока управления соединен с выходом первого слоя, являющимся выходом устройства, второй вход этого блока - с выходом второго слоя, первый выход - с вторым входом второго блока динамических синапсов, второй выход - с вторым входом первого блока динамических синапсов. При этом первый вход первого блока динамических синапсов соединен с выходом первого блока задержек, а первый вход второго блока динамических синапсов соединен с выходом второго блока задержек (Осипов В.Ю. Ассоциативная интеллектуальная машина / Информационные технологии и вычислительные системы. 2010, №2, с.59-67).The closest analogue of the invention among the devices is a device containing two layers of neurons, two blocks of dynamic synapses, two blocks of delays and a control unit. The first input of the first layer of neurons is the input of the device. The second input of this layer is connected to the output of the second block of dynamic synapses, the output of the layer is connected to the input of the first block of delays. The input of the second layer of neurons is connected to the output of the first block of dynamic synapses, the output to the input of the second block of delays. The first input of the control unit is connected to the output of the first layer, which is the output of the device, the second input of this block to the output of the second layer, the first output to the second input of the second block of dynamic synapses, the second output to the second input of the first block of dynamic synapses. The first input of the first block of dynamic synapses is connected to the output of the first block of delays, and the first input of the second block of dynamic synapses is connected to the output of the second block of delays (Osipov V.Yu. Associative Intelligent Machine / Information Technologies and Computing Systems. 2010, No. 2, p. .59-67).

К недостаткам этого устройства относятся ограниченные возможности по распознаванию сигналов с различными уровнями временного сжатия и растяжения, прогнозированию и восстановлению событий.The disadvantages of this device include the limited ability to recognize signals with different levels of temporary compression and extension, predicting and recovering events.

Задачей изобретения является расширение функциональных возможностей по интеллектуальной обработке информации в нейронной сети.The objective of the invention is to expand the functionality of intelligent information processing in a neural network.

Технический результат от использования изобретения заключается в улучшении распознавания и восстановления сигналов, в расширении возможностей по прогнозированию событий.The technical result from the use of the invention is to improve the recognition and restoration of signals, to expand the capabilities for predicting events.

Поставленная задача решается тем, что в известном способе интеллектуальной обработки информации в нейронной сети, заключающемся в подаче в многослойную рекуррентную сеть с обратными связями, замыкающими контура с временем задержки единичных образов меньше времени невосприимчивости нейронов сети после их возбуждения, сигнала, разложенного на составляющие в базисе, согласованном с входным слоем сети, с каждой составляющей, преобразованной в последовательность единичных образов с частотой повторения как предварительно заданной функцией от амплитуды составляющей, представлении сигнала в виде последовательных совокупностей единичных образов в соответствии с предварительно заданными правилами его распознавания с учетом обратных результатов распознавания, сдвигах совокупностей единичных образов вдоль слоев с учетом текущих состояний слоев, запоминании результатов распознавания на элементах сети, использовании в качестве результатов обработки последовательных совокупностей единичных образов на выходном слое сети после обратного преобразования в соответствующие им исходные сигналы, согласно изобретению при передаче совокупностей единичных образов от слоя к слою их задерживают с учетом текущих состояний слоев.The problem is solved in that in the known method of intelligent processing of information in a neural network, which consists in supplying a multilayer recurrent network with feedbacks that close the circuit with the delay time of individual images less than the immunity time of the network neurons after their excitation, a signal decomposed into components in the basis matched with the input network layer, with each component converted into a sequence of single images with a repetition rate as a predefined function to it from the amplitude of the component, representing the signal in the form of successive sets of single images in accordance with predefined recognition rules taking into account the inverse recognition results, shifts of sets of single images along the layers taking into account the current state of the layers, storing recognition results on network elements, using as results processing consecutive sets of single images on the output layer of the network after the inverse transformation to the corresponding them to baseband signals, according to the invention the transmission of individual sets of images from one layer to retain their current states based layers.

Описанный способ реализуется устройством интеллектуальной обработки информации в нейронной сети, содержащим первый слой нейронов, первый вход которого является входом устройства, второй вход соединен с выходом второго блока динамических синапсов, выход - с входом первого блока задержек, второй слой нейронов, первый вход которого соединен с выходом первого блока динамических синапсов, выход - с входом второго блока задержек, блок управления, первый вход которого соединен с выходом первого слоя, являющимся выходом устройства, второй вход - с выходом второго слоя, первый выход - с вторым входом второго блока динамических синапсов, второй выход - с вторым входом первого блока динамических синапсов, первый вход первого блока динамических синапсов соединен с выходом первого блока задержек, первый вход второго блока динамических синапсов соединен с выходом второго блока задержек, согласно изобретению, в которое дополнительно вводят связь третьего выхода блока управления с третьим входом первого слоя нейронов и связь четвертого выхода этого блока со вторым входом второго слоя нейронов.The described method is implemented by an intelligent information processing device in a neural network containing the first layer of neurons, the first input of which is the input of the device, the second input is connected to the output of the second block of dynamic synapses, the output is connected to the input of the first block of delays, the second layer of neurons, the first input of which is connected to the output of the first block of dynamic synapses, the output with the input of the second block of delays, the control unit, the first input of which is connected to the output of the first layer, which is the output of the device, the second input - with the output of the second layer, the first output with the second input of the second block of dynamic synapses, the second output with the second input of the first block of dynamic synapses, the first input of the first block of dynamic synapses is connected to the output of the first block of delays, the first input of the second block of dynamic synapses is connected to the output the second block of delays, according to the invention, which additionally enter the connection of the third output of the control unit with the third input of the first layer of neurons and the connection of the fourth output of this block with the second input of the second layer neurons.

Для расширения функциональных возможностей по интеллектуальной обработке информации в нейронной сети автор изобретения предлагает при передаче совокупностей единичных образов от слоя к слою их задерживать с учетом текущих состояний слоев, что является новым существенным признаком изобретения.To expand the functionality of intellectual information processing in a neural network, the author of the invention proposes to delay them while transmitting sets of single images from layer to layer, taking into account the current state of the layers, which is a new significant feature of the invention.

Новым существенным признаком изобретения в части устройства выступает дополнительное введение связи третьего выхода блока управления с третьим входом первого слоя нейронов и связи четвертого выхода этого блока со вторым входом второго слоя нейронов.A new significant feature of the invention in terms of the device is the additional introduction of the connection of the third output of the control unit with the third input of the first layer of neurons and the connection of the fourth output of this block with the second input of the second layer of neurons.

Сущность изобретения поясняется фиг.1-3.The invention is illustrated figure 1-3.

На фиг.1 приведена структурная схема устройства интеллектуальной обработки информации в двухслойной нейронной сети, реализующего предложенный способ, где 1, 5 - первый, второй слои нейронов; 2, 6 - первый, второй блоки задержек; 3, 4 - первый, второй блоки динамических синапсов; 7 - блок управления.Figure 1 shows a structural diagram of a device for intelligent information processing in a two-layer neural network that implements the proposed method, where 1, 5 - the first, second layers of neurons; 2, 6 - the first, second blocks of delays; 3, 4 - the first, second blocks of dynamic synapses; 7 - control unit.

На фиг.2 представлена схема, поясняющая особенности управления временными задержками совокупностей единичных образов в предложенном устройстве (фиг.1), где 1.1÷1.n, 5.1÷5.n - нейроны, соответственно, первого и второго слоя; 2.1÷2.n, 6.1÷6.n - элементы задержек, соответственно, первого и второго блоков задержек; 3.1÷3.m, 4.1÷4.m - динамические синапсы, соответственно, первого и второго блоков динамических синапсов; 7 - блок управления.Figure 2 presents a diagram explaining the features of controlling the time delays of the sets of single images in the proposed device (figure 1), where 1.1 ÷ 1.n, 5.1 ÷ 5.n are neurons, respectively, of the first and second layer; 2.1 ÷ 2.n, 6.1 ÷ 6.n - delay elements, respectively, of the first and second delay blocks; 3.1 ÷ 3.m, 4.1 ÷ 4.m - dynamic synapses, respectively, of the first and second blocks of dynamic synapses; 7 - control unit.

На фиг.3,а, б, в представлены примеры линейной схемы продвижения совокупностей единичных образов вдоль слоев в двухслойной рекуррентной сети, поясняющие возможности изменения скорости прохождения сигналов по сети, их временного сжатия и растяжения, где 1.1÷1.10 и 2.1÷2.10 - логические поля, на которые разбиваются, соответственно, первый и второй слои сети за счет сдвигов совокупностей единичных образов вдоль них.Figure 3, a, b, c shows examples of a linear scheme for advancing sets of single images along layers in a two-layer recurrent network, explaining the possibility of changing the speed of signals passing through the network, their temporary compression and stretching, where 1.1 ÷ 1.10 and 2.1 ÷ 2.10 are logical the fields into which the first and second layers of the network are divided, respectively, due to shifts of sets of individual images along them.

Способ осуществляется следующим образом.The method is as follows.

Рассмотрим его на примере предложенного устройства интеллектуальной обработки информации в нейронной сети, структурная схема которого представлена на фиг.1.Consider it as an example of the proposed device for intelligent processing of information in a neural network, the structural diagram of which is presented in figure 1.

Входной сигнал, разложенный на составляющие в базисе, согласованном с первым слоем 1 сети, при этом каждая его составляющая преобразована в последовательность единичных образов с частотой повторения как предварительно заданной функцией от амплитуды составляющей, подают на этот слой. За каждым номером последовательности закрепляется в общем случае частотная и пространственная составляющая, соответствующая исходному сигналу. Детали такого преобразования известны (Осипов В.Ю. Прямое и обратное преобразование сигналов в ассоциативных интеллектуальных машинах / Мехатроника, автоматизация, управление. 2010, №7, с.27-32).An input signal, decomposed into components in a basis consistent with the first layer 1 of the network, with each component converted to a sequence of single images with a repetition rate as a predetermined function of the amplitude of the component, is fed to this layer. Each sequence number is assigned in the general case, the frequency and spatial component corresponding to the original signal. The details of such a conversion are known (V. Osipov, Direct and inverse signal conversion in associative intelligent machines / Mechatronics, automation, control. 2010, No. 7, p. 27-32).

После подачи на первый вход первого слоя нейронов такого сигнала на его выходе имеют место последовательные совокупности единичных образов, несущие всю информацию о входном сигнале. Информация о фазе передается через относительные задержки единичных образов. Длительности единичных образов, составляющие одну совокупность на выходе слоя, всегда одинаковы. Однако значение этих длительностей зависит от управляющих воздействий со стороны блока управления 7.After applying to the first input of the first layer of neurons of such a signal at its output there are successive sets of single images that carry all the information about the input signal. Information about the phase is transmitted through the relative delays of individual images. The durations of single images that make up one set at the output of the layer are always the same. However, the value of these durations depends on the control actions from the control unit 7.

После задержки в первом блоке задержек 2 последовательные совокупности единичных образов поступают на первый блок динамических синапсов 3. Все единичные образы, принадлежащие одной и той же совокупности, задерживаются на элементах блока задержек 2 (фиг.2) на одинаковое время. Время задержки каждой совокупности в блоке задержек 2 зависит только от длительности единичных образов в совокупности, поступающей на этот блок. При этом во всех случаях на выходе блока задержек 2 все задержанные совокупности состоят из единичных образов одинаковой длительности.After a delay in the first block of delays 2, consecutive sets of single images arrive at the first block of dynamic synapses 3. All single images belonging to the same set are delayed by the elements of the block of delays 2 (Fig. 2) for the same time. The delay time of each population in the delay block 2 depends only on the duration of the single images in the population arriving at this block. Moreover, in all cases, at the output of the delay unit 2, all delayed populations consist of single images of the same duration.

Каждый единичный образ из текущей совокупности подается одновременно в первом блоке динамических синапсов 3 на совокупность своих динамических синапсов, обеспечивающих связь каждого нейрона, породившего единичный образ в общем случае, со всеми нейронами второго слоя нейронов 5 (фиг.2).Each single image from the current population is fed simultaneously in the first block of dynamic synapses 3 to the set of its dynamic synapses, which provide a link for each neuron that generated a single image in the general case, with all the neurons of the second layer of neurons 5 (Fig. 2).

Амплитуда единичного образа на выходе каждого синапса равна амплитуде входного единичного образа, умноженной на вес wij(t) синапса. Веса wij(t) синапсов определяются через произведение их весовых коэффициентов kij(t) и функций ослабления β(rij(t)),The amplitude of a single image at the output of each synapse is equal to the amplitude of the input single image, multiplied by the weight w ij (t) of the synapse. The weights w ij (t) of the synapses are determined through the product of their weights k ij (t) and the attenuation functions β (r ij (t)),

Figure 00000001
Figure 00000001

Весовые коэффициенты, kij(t), изменяются в зависимости от воздействий на синапсы единичных образов и выступают в качестве элементов долговременной памяти сети. При прохождении единичных образов через синапсы они снимают с них информацию о предыдущих воздействиях и оставляют информацию о своем появлении через изменения весовых коэффициентов. Для каждого динамического синапса, связывающего i-й нейрон с j-м нейроном, весовой коэффициент kij(t) на момент времени t поступления на синапс очередного единичного образа может определяться согласно правилам:Weighting factors, k ij (t), vary depending on the effects on the synapses of a single image and act as elements of a long-term network memory. When single images pass through synapses, they remove information about previous effects from them and leave information about their appearance through changes in weight coefficients. For each dynamic synapse connecting the ith neuron with the jth neuron, the weight coefficient k ij (t) at the time t of the arrival of the next single image at the synapse can be determined according to the rules:

Figure 00000002
Figure 00000002

Figure 00000003
Figure 00000003

где gij(t) - число запомненных синапсом единичных образов на момент t; bt+1(xi(t), yj(t), yj(t+1)) - эффект от единичного взаимодействия нейронов на t+1 момент времени; xi(t), yj(t) - состояния, соответственно, i-го и с j-го нейронов на момент t; yj(t+1) - состояние j-го нейрона на t+1; γ - положительный коэффициент. В частном случае γ=0,5.where g ij (t) is the number of single images memorized by the synapse at time t; b t + 1 (x i (t), y j (t), y j (t + 1)) - the effect of a single interaction of neurons at t + 1 point in time; x i (t), y j (t) - state, respectively, of the i-th and from the j-th neurons at the moment t; y j (t + 1) is the state of the jth neuron at t + 1; γ is a positive coefficient. In the particular case, γ = 0.5.

В случае если активизированный i-й нейрон возбуждает j-й нейрон, то bt+1(xi(t), yj(t), yj(t+1))=1. Когда i-й нейрон не может активизировать j-й нейрон из-за нахождения его уже в невосприимчивом состоянии, bt+1(xi(t), yj(t), yj(t+1))=-1. При условии что j-й нейрон возбуждается за счет других нейронов сети, i-й нейрон в этом процессе не участвует, bt+1(xi(t), yj(t), yj(t+1))=-λ. Величина λ может принимать значения, например, от 0,2 до 0,5. Во всех других случаях bt+1(xi(t), yj(t), yj(t+1))=0.If the activated i-th neuron excites the j-th neuron, then b t + 1 (x i (t), y j (t), y j (t + 1)) = 1. When the i-th neuron cannot activate the j-th neuron because it is already in an unresponsive state, b t + 1 (x i (t), y j (t), y j (t + 1)) = - 1 . Provided that the jth neuron is excited by other neurons in the network, the i-th neuron is not involved in this process, b t + 1 (x i (t), y j (t), y j (t + 1)) = -λ. The value of λ can take values, for example, from 0.2 to 0.5. In all other cases, b t + 1 (x i (t), y j (t), y j (t + 1)) = 0.

Функции β(rij(t)) ослабления единичных образов в (1) зависят от rij(t) - условной удаленности связываемых через синапсы нейронов (условных расстояний между ними) на текущий момент времени.The functions β (r ij (t)) of attenuation of single images in (1) depend on r ij (t) - the conditional distance of neurons connected via synapses (conditional distances between them) at the current time.

Для расчета β(rij(t)) применима формула:To calculate β (r ij (t)), the formula is applicable:

Figure 00000004
Figure 00000004

где h - степень корня. Чем она выше, тем шире ассоциативное взаимодействие в сети;where h is the degree of root. The higher it is, the wider the associative interaction in the network;

α - положительный постоянный коэффициент. Например, при h=2 величина α может быть равной 9,0.α is a positive constant coefficient. For example, with h = 2, the value of α can be equal to 9.0.

Определение rij(t) для каждого динамического синапса при отсутствии управления со стороны блока управления, полагая, что расстояние между слоями пренебрежимо мало, сводится к расчету расстояния между нейронами в плоскости X, Y слоев через проекции Δyij, Δxij.The determination of r ij (t) for each dynamic synapse in the absence of control from the side of the control unit, assuming that the distance between the layers is negligible, is reduced to calculating the distance between neurons in the X, Y plane of the layers through the projections Δy ij , Δx ij .

Значения Δyij, Δxij для синапсов, при отсутствии управления ими, можно рассчитать в единицах нейронов через порядковые номера связываемых нейронов во взаимодействующих слоях при заданных длинах их строк и столбцов.The values Δy ij , Δx ij for synapses, if they are not controlled, can be calculated in units of neurons through the serial numbers of the connected neurons in the interacting layers at given lengths of their rows and columns.

Управление такими синапсами с блока управления 7 для смещения совокупностей единичных образов вдоль слоев осуществляется путем изменения соответствующих условных расстояний rij(t) между нейронами первого и второго слоев. Так, путем одновременного изменения, например, Δxij(t) для всех синапсов второго слоя на некоторую величину d реализуется сдвиг текущей совокупности единичных образов вдоль этого слоя, что эквивалентно сдвигу второго слоя относительно первого слоя. При сдвигах за пределы слоя по координате Х возможны сдвиги на начало слоя со смещением, например, вниз по координате Y на заданную величину.Such synapses are controlled from the control unit 7 to shift sets of single images along the layers by changing the corresponding conditional distances r ij (t) between the neurons of the first and second layers. So, by simultaneously changing, for example, Δx ij (t) for all synapses of the second layer by a certain value d, a shift of the current set of unit images along this layer is realized, which is equivalent to a shift of the second layer relative to the first layer. When shifts outside the layer along the X coordinate, shifts to the beginning of the layer with a shift, for example, downward along the Y coordinate by a given value, are possible.

Для принятия решения в блоке управления о сдвиге очередной совокупности единичных образов в нем сначала анализируются состояния первого и второго слоя. В случае когда на выходе первого слоя имеет место совокупность единичных образов, которую нельзя передать на второй слой по коротким связям (синапсам с минимальными функциями β(rij(0)) ослабления единичных образов) из-за нахождения соответствующих нейронов второго слоя в состояниях невосприимчивости, осуществляют сдвиг этой совокупности. В случае когда нет препятствий для передачи совокупности единичных образов по коротким связям, сдвиг ее не осуществляют.To make a decision in the control unit about the shift of the next set of single images, the states of the first and second layer are first analyzed in it. In the case where at the output of the first layer there is a set of single images that cannot be transferred to the second layer via short connections (synapses with minimal functions β (r ij (0)) of attenuation of single images) due to the presence of the corresponding neurons of the second layer in immunity states carry out the shift of this aggregate. In the case where there are no obstacles to transmitting the totality of single images through short connections, it is not shifted.

В общем случае смещенные совокупности единичных образов с выхода первого блока динамических синапсов 3 поступают на первый вход второго слоя нейронов 5.In the general case, the displaced aggregates of single images from the output of the first block of dynamic synapses 3 go to the first input of the second layer of neurons 5.

Заметим, что все единичные образы, поступившие на один и тот же нейрон по различным синапсам, суммируются. При превышении этой суммы заданного порога возбуждения нейрона он возбуждается и на его выходе формируется единичный образ, длительность которого зависит от управляющего воздействия со стороны блока управления 7. Затем имеющаяся сумма обнуляется, а сам нейрон затем переходит в состояние невосприимчивости входных сигналов. В нем он находится некоторое время, значение которого также зависит от управляющего воздействия на нейрон со стороны блока управления 7. Это время всегда должно быть больше, чем время задержки единичных образов в блоках 1, 2, 3, 5, 6, 4, входящих в двухслойный многопучковый контур нейронной сети. Это условие легко обеспечивать, так как для нейронов с увеличением длительности формируемых единичных образов возрастает также время их невосприимчивости после возбуждения.Note that all single images received on the same neuron at different synapses are summed up. If this sum exceeds a predetermined threshold for the excitation of a neuron, it is excited and a single image is formed at its output, the duration of which depends on the control action from the control unit 7. Then, the existing amount is zeroed, and the neuron then goes into the immunity state of the input signals. It is in it for some time, the value of which also depends on the control action on the neuron from the side of the control unit 7. This time should always be longer than the delay time of single images in blocks 1, 2, 3, 5, 6, 4 included in two-layer multi-beam circuit of the neural network. This condition is easy to provide, since for neurons with increasing duration of the formed single images, the time of their immunity after excitation also increases.

Последовательные совокупности единичных образов с выхода второго слоя 5, после задержки в блоке 6, поступают на второй блок динамических синапсов 4. В этих блоках они аналогичным образом, как и в блоках 1, 2, 3, обрабатываются и, сдвинутые вдоль первого слоя в зависимости от состояний первого и второго слоев, поступают на второй вход первого слоя нейронов 1.Successive sets of single images from the output of the second layer 5, after a delay in block 6, go to the second block of dynamic synapses 4. In these blocks they are processed in the same way as in blocks 1, 2, 3 and shifted along the first layer depending from the states of the first and second layers, enter the second input of the first layer of neurons 1.

С учетом этого поступающие на первый слой нейронов 1 прямые и обратные совокупности единичных образов в нем корректно связываются, распознаются и порождают на его выходе новые совокупности единичных образов, несущие в себе информацию как о текущих, так и ранее запомненных сетью сигналах, связанных с первыми. При этом за счет соответствующих сдвигов совокупностей единичных образов вдоль слоев исключается наложение обратных результатов распознавания на прямые совокупности.With this in mind, the direct and inverse aggregates of single images arriving at the first layer of neurons 1 are correctly connected, recognized and generate at its output new collections of single images that carry information about both current and previously memorized signals associated with the first ones. At the same time, due to the corresponding shifts of the sets of single images along the layers, the overlapping of inverse recognition results on direct sets is excluded.

Согласно правилам (1)-(4) между входом и выходом устройства, реализующего предлагаемый способ интеллектуальной обработки информации в нейронной сети, легко устанавливается однозначное соответствие между составляющими входных и выходных сигналов. Заметим, что в качестве выхода также можно успешно использовать выход второго слоя.According to the rules (1) - (4) between the input and output of the device that implements the proposed method of intelligent information processing in a neural network, it is easy to establish an unambiguous correspondence between the components of the input and output signals. Note that the output of the second layer can also be used successfully as an output.

С учетом этого соответствия по номерам нейронов, формирующих последовательности единичных образов на выходе устройства, определяют частотные и пространственные характеристики составляющих исходного сигнала. По частотам следования и относительным задержкам единичных образов, соответственно, устанавливают амплитуды и фазы составляющих исходного сигнала. Затем воспроизводят составляющие исходных сигналов и путем их сложения восстанавливают исходные, например речевые, зрительные и другие, сигналы. Для определения амплитуд составляющих исходного сигнала определяют текущее число единичных образов, попадающих в предварительно заданный интервал времени. Для воспроизведения составляющих исходных сигналов применим, например, их цифровой синтез по известным параметрам.Given this correspondence, the frequency and spatial characteristics of the components of the original signal are determined by the numbers of neurons that form the sequence of single images at the output of the device. According to the repetition frequencies and relative delays of individual images, respectively, the amplitudes and phases of the components of the original signal are set. Then reproduce the components of the original signals and by adding them restore the original, for example, speech, visual and other signals. To determine the amplitudes of the components of the source signal, the current number of unit images falling into a predetermined time interval is determined. To reproduce the components of the source signals, for example, their digital synthesis according to known parameters is applicable.

За счет реализуемых пространственных сдвигов совокупностей единичных образов в нейронной сети ее слои логически разбиваются на поля с размерами этих сдвигов. На фиг.3,а, б, в представлены примеры линейной схемы продвижения совокупностей единичных образов вдоль слоев при сдвигах совокупностей только по одной координате на заданную величину. В рассматриваемых примерах каждый слой сети за счет сдвигов разбивается на 10 одинаковых полей. Согласно фиг.3,а, б, в последовательные совокупности единичных образов подают на первое поле первого слоя сети. При прохождении по сети они из последовательных совокупностей преобразуются в параллельные, которые продвигаются вдоль слоев. Результаты обработки снимаются с последнего поля первого или второго слоя. В соответствии с фиг.3,а сдвиг совокупностей единичных образов осуществляется только при передаче их со второго слоя на первый. На фиг.3,б приведено одно из состояний первого слоя при вводе в сеть последовательно через равные промежутки времени совокупностей единичных образов «С», «Е», «Т», «Ь». На фиг.3,в отражено состояние первого слоя сети при вводе в нее этой же последовательности совокупностей единичных образов, но растянутой во времени. Стрелками показано направление продвижения совокупностей вдоль слоев сети.Due to the realized spatial shifts of the aggregates of single images in a neural network, its layers are logically divided into fields with the sizes of these shifts. Figure 3, a, b, c shows examples of a linear scheme for advancing sets of single images along layers with displacements of sets in only one coordinate by a given value. In the considered examples, each layer of the network is divided into 10 identical fields due to shifts. According to figure 3, a, b, in successive sets of single images served on the first field of the first network layer. When passing through the network, they are converted from consecutive sets into parallel ones that move along the layers. Processing results are taken from the last field of the first or second layer. In accordance with figure 3, and the shift of the sets of single images is carried out only when transferring them from the second layer to the first. Figure 3, b shows one of the states of the first layer when entering into the network sequentially at equal intervals of time the sets of single images "C", "E", "T", "b". Figure 3, in the reflected state of the first layer of the network when you enter into it the same sequence of sets of single images, but stretched in time. The arrows show the direction of the progress of the aggregates along the network layers.

Преобразование последовательных совокупностей в параллельные обеспечивает возможность широких ассоциаций между разнесенными во времени сигналами. От задержек совокупностей при передаче от слоя к слою зависят скорость их продвижения вдоль слоев и формируемые в плоскостях слоев сети пространственные структуры из отдельных совокупностей. Заметим, что изменение задержек совокупностей единичных образов предусматривает одинаковое изменение параметров нейронов для каждого поля слоев сети.Converting consecutive sets to parallel allows for wide associations between time-spaced signals. From the delays of the aggregates during transmission from layer to layer, the speed of their advancement along the layers and the spatial structures formed in the planes of the network layers from the individual aggregates depend. Note that a change in the delays of the aggregates of single images provides for an identical change in the parameters of neurons for each field of the network layers.

Для одного и того же сигнала с различным уровнем сжатия или растяжения во времени, поступающего в сеть, будут характерны свои пространственные структуры в сети (фиг.3,б, в). Возможности нейронной сети по распознаванию сигналов и вызову связанной информации из сети тем выше, чем больше степень совпадения ранее запомненных и обрабатываемых таких пространственных структур. Если нейронная сеть обучалась на одних сигналах, а ей необходимо распознать и восстановить те же самые сигналы, но сжатые или растянутые во времени, возникают трудности, так как существенно не совпадают их пространственные структуры в плоскостях слоев сети и, соответственно, схемы ассоциативных связей.For the same signal with a different level of compression or extension in time entering the network, its spatial structures in the network will be characteristic (Fig. 3, b, c). The capabilities of a neural network to recognize signals and call related information from the network the higher, the greater the degree of coincidence of previously stored and processed such spatial structures. If the neural network was trained on the same signals, and it needs to recognize and restore the same signals, but compressed or stretched in time, difficulties arise, since their spatial structures in the planes of the network layers and, accordingly, the patterns of associative connections do not coincide significantly.

Для того чтобы в наибольшей мере обеспечить такое совпадение, а также наделить сеть возможностью опережающего и отстающего во времени вызова сигналов из ее памяти, управления скоростью процессов на ее выходе, согласно изобретению предлагается при передаче совокупностей единичных образов от слоя к слою их задерживать с учетом текущих состояний слоев. Увеличение или уменьшение задержек совокупностей единичных образов позволяет изменять пространственную структуру сигналов в плоскостях слоев сети и настраивать сеть на наилучшее распознавание. Наилучшему распознаванию свойственно наибольшее число ассоциативно вызываемых из памяти сети недостающих единичных образов и наибольшее число стираемых ошибочных образов. В частном случае можно использовать только критерий наибольшего числа ассоциативно вызываемых из памяти единичных образов. Определение их числа осуществимо путем текущего сравнения состояний полей первого и второго слоев сети. Так, сравнивая передаваемые с первого слоя на второй совокупности с совокупностями, которые они порождают на выходе второго слоя, можно определить как число новых вызванных единичных образов, так и число подавленных ошибочных образов. Изменяя периодически вправо и влево на незначительную величину все задержки совокупностей единичных образов и оценивая прирост принятого показателя в блоке управления 7, можно сначала определить направление изменения задержек для наилучшего распознавания сигналов, а затем установить значения задержек, обеспечивающих максимум принятого показателя. Например, если своевременно увеличить задержки в сети (фиг.3,а), то растянутую во времени последовательность совокупностей «С», «Е», «Т», «Ь», поступающую в нее, можно привести в сети к виду на фиг.3,б вместо вида на фиг.3,в. За счет этого достигается согласование масштаба времени обрабатываемых сигналов с масштабом времени сигналов, на которых обучалась сеть, и улучшается распознавание первых. Заметим, что изменение задержек по отношению к сигналам, уже находящимся в сети, приводит к их временному сжатию или растяжению. Ускоряются или замедляются процессы в сети и на ее выходе. В случае ускорения процессов из памяти сети вызываются также сжатые сигналы, отражающие события, опережающие реальное время. Иначе говоря, сеть начинает прогнозировать события. При замедлении процессов вызываются растянутые сигналы с опозданием. Замедление процессов дает возможность расширить число одновременно обрабатываемых сигналов в сети и улучшить за счет этого их запоминание и восстановление. Во всех случаях блок управления 7 (фиг.1) вырабатывает команды для первого и второго слоев нейронов исходя из достижения максимума принятого показателя эффективности ассоциативного вызова единичных образов из памяти сети.In order to maximize such a coincidence, as well as to empower the network with the ability to call signals from its memory ahead of time and lagging behind it, to control the speed of processes at its output, according to the invention, it is proposed to delay the collection of individual images from layer to layer taking into account current layer states. Increasing or decreasing the delays of sets of single images allows you to change the spatial structure of the signals in the planes of the network layers and configure the network for the best recognition. The best recognition is characterized by the largest number of associatively missing missing images from the network memory and the largest number of erased erroneous images. In the particular case, it is possible to use only the criterion of the largest number of individual images associatively recalled from memory. The determination of their number is feasible by current comparison of the state of the fields of the first and second layers of the network. So, comparing the data transmitted from the first layer to the second aggregate with the aggregates that they generate at the output of the second layer, one can determine both the number of newly called single images and the number of suppressed error images. Changing periodically to the right and left by an insignificant amount all the delays of the sets of single images and evaluating the increase in the received indicator in the control unit 7, you can first determine the direction of the delay for the best signal recognition, and then set the delay values that ensure the maximum of the received indicator. For example, if the delays in the network are increased in a timely manner (Fig. 3, a), then the sequence of sets “C”, “E”, “T”, “b” extended into it can be brought to the network in FIG. .3, b instead of the view in Fig. 3, c. Due to this, the time scale of the processed signals is matched with the time scale of the signals on which the network was trained, and the recognition of the former is improved. Note that a change in the delays with respect to signals already on the network leads to their temporary compression or extension. Accelerate or slow down the processes in the network and at its output. In the case of acceleration of processes, compressed signals are also called up from the network memory, which reflect events that are ahead of real time. In other words, the network begins to predict events. When processes slow down, extended signals are called late. Slowing down the processes makes it possible to expand the number of simultaneously processed signals in the network and to improve their storage and restoration due to this. In all cases, the control unit 7 (Fig. 1) generates commands for the first and second layers of neurons based on reaching the maximum of the accepted indicator of the effectiveness of the associative call of single images from the network memory.

Таким образом, задержка совокупностей единичных образов с учетом текущих состояний слоев позволяет существенно расширить функциональные возможности по интеллектуальной обработке информации в нейронной сети, наделить сеть новыми свойствами.Thus, the delay in the collections of single images, taking into account the current state of the layers, can significantly expand the functionality for the intellectual processing of information in a neural network, and endow the network with new properties.

Способ и устройство интеллектуальной обработки информации в нейронной сети могут быть реализованы с использованием известной элементной базы. В качестве нейронов слоев применимы ждущие мультивибраторы с перестраиваемыми или переключаемыми емкостями или резисторами. В качестве элементов задержек в блоках задержек могут использоваться не перестраиваемые ждущие мультивибраторы, запускающиеся не по переднему, а по заднему фронту входного импульса.The method and apparatus of intelligent information processing in a neural network can be implemented using a well-known element base. As layer neurons, standby multivibrators with tunable or switchable capacities or resistors are applicable. As delay elements in delay blocks, non-tunable waiting multivibrators that start not along the leading, but on the falling edge of the input pulse can be used.

Блоки динамических синапсов и блок управления могут быть реализованы специализированными процессорами, программируемыми интегральными схемами, функционирующими в соответствии с рассмотренными выше правилами.The blocks of dynamic synapses and the control unit can be implemented by specialized processors, programmable integrated circuits, operating in accordance with the above rules.

Результаты математического моделирования работы этого устройства, реализующего предлагаемый способ, в среде MatLab, при числе нейронов в каждом слое, равном 900, полностью подтвердили описанные выше возможности, которые существенно шире возможностей известных технических решений по интеллектуальной обработке информации в нейронной сети.The results of mathematical modeling of the operation of this device that implements the proposed method in the MatLab environment, with the number of neurons in each layer equal to 900, fully confirmed the capabilities described above, which are significantly wider than the capabilities of known technical solutions for the intelligent processing of information in a neural network.

Claims (2)

1. Способ интеллектуальной обработки информации в нейронной сети, заключающийся в подаче в многослойную рекуррентную сеть с обратными связями, замыкающими контура с временем задержки единичных образов меньше времени невосприимчивости нейронов сети после их возбуждения, сигнала, разложенного на составляющие в базисе, согласованном с входным слоем сети, с каждой составляющей, преобразованной в последовательность единичных образов с частотой повторения как предварительно заданной функцией от амплитуды составляющей, представлении сигнала в виде последовательных совокупностей единичных образов в соответствии с предварительно заданными правилами его распознавания с учетом обратных результатов распознавания, сдвигах совокупностей единичных образов вдоль слоев с учетом текущих состояний слоев, запоминании результатов распознавания на элементах сети, использовании в качестве результатов обработки последовательных совокупностей единичных образов на выходном слое сети после обратного преобразования в соответствующие им исходные сигналы, отличающийся тем, что при передаче совокупностей единичных образов от слоя к слою их задерживают с учетом текущих состояний слоев.1. A method of intelligent processing of information in a neural network, which consists in feeding a multilayer recurrent network with feedbacks closing the circuits with a delay time of single images less than the immunity time of the network neurons after their excitation, a signal decomposed into components in a basis matched to the input network layer , with each component converted into a sequence of single images with a repetition rate as a predetermined function of the component amplitude, signal representation In the form of sequential sets of single images in accordance with predefined rules for its recognition, taking into account the inverse recognition results, shifts of sets of single images along the layers taking into account the current state of the layers, storing recognition results on network elements, using sequential sets of single images as processing results the output layer of the network after the reverse conversion into the corresponding source signals, characterized in that when The transmission of sets of single images from layer to layer is delayed by taking into account the current state of the layers. 2. Устройство интеллектуальной обработки информации в нейронной сети, содержащее первый слой нейронов, первый вход которого является входом устройства, второй вход соединен с выходом второго блока динамических синапсов, выход - с входом первого блока задержек, второй слой нейронов, первый вход которого соединен с выходом первого блока динамических синапсов, выход - с входом второго блока задержек, блок управления, первый вход которого соединен с выходом первого слоя, являющимся выходом устройства, второй вход - с выходом второго слоя, первый выход - с вторым входом второго блока динамических синапсов, второй выход - с вторым входом первого блока динамических синапсов, первый вход первого блока динамических синапсов соединен с выходом первого блока задержек, первый вход второго блока динамических синапсов соединен с выходом второго блока задержек, отличающееся тем, что дополнительно введена связь третьего выхода блока управления с третьим входом первого слоя нейронов и связь четвертого выхода этого блока со вторым входом второго слоя нейронов. 2. A device for intelligent information processing in a neural network containing the first layer of neurons, the first input of which is the input of the device, the second input is connected to the output of the second block of dynamic synapses, the output is connected to the input of the first block of delays, the second layer of neurons, the first input of which is connected to the output the first block of dynamic synapses, the output is with the input of the second block of delays, the control unit, the first input of which is connected to the output of the first layer, which is the output of the device, the second input to the output of the second layer, the first the first output is with the second input of the second block of dynamic synapses, the second output is with the second input of the first block of dynamic synapses, the first input of the first block of dynamic synapses is connected to the output of the first block of delays, the first input of the second block of dynamic synapses is connected to the output of the second block of delays, characterized in that the connection of the third output of the control unit with the third input of the first layer of neurons and the connection of the fourth output of this block with the second input of the second layer of neurons is additionally introduced.
RU2011104528/08A 2011-02-08 2011-02-08 Method and apparatus for intelligent information processing in neural network RU2446463C1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2011104528/08A RU2446463C1 (en) 2011-02-08 2011-02-08 Method and apparatus for intelligent information processing in neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2011104528/08A RU2446463C1 (en) 2011-02-08 2011-02-08 Method and apparatus for intelligent information processing in neural network

Publications (1)

Publication Number Publication Date
RU2446463C1 true RU2446463C1 (en) 2012-03-27

Family

ID=46030978

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2011104528/08A RU2446463C1 (en) 2011-02-08 2011-02-08 Method and apparatus for intelligent information processing in neural network

Country Status (1)

Country Link
RU (1) RU2446463C1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2502133C1 (en) * 2012-07-27 2013-12-20 Федеральное государственное бюджетное учреждение науки Санкт-Петербургский институт информатики и автоматизации Российской академии наук Method for intelligent information processing in neural network
RU2514931C1 (en) * 2013-01-14 2014-05-10 Василий Юрьевич Осипов Method for intelligent information processing in neural network
RU2553074C1 (en) * 2014-01-17 2015-06-10 Закрытое акционерное общество "СПИИРАН-Научно-техническое бюро высоких технологий" Method for intelligent information processing in neural network
RU2567038C1 (en) * 2014-06-24 2015-10-27 Государственное бюджетное образовательное учреждение высшего профессионального образования "Смоленский государственный медицинский университет" Министерства здравоохранения Российской Федерации (ГБОУ ВПО СГМУ Минздрава России) Method for prediction of clinical course of early postoperative period in patients with complicated rectal cancer and aid for implementing it
RU2737227C1 (en) * 2020-04-20 2020-11-26 Федеральное государственное бюджетное учреждение науки "Санкт-Петербургский Федеральный исследовательский центр Российской академии наук" Method for intelligent multi-level information processing in neural network

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2006067C1 (en) * 1991-05-20 1994-01-15 Каримов Александр Рашатович Method of processing information in neuron networks
US5666518A (en) * 1995-06-26 1997-09-09 The United States Of America As Represented By The Secretary Of The Air Force Pattern recognition by simulated neural-like networks

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2006067C1 (en) * 1991-05-20 1994-01-15 Каримов Александр Рашатович Method of processing information in neuron networks
US5666518A (en) * 1995-06-26 1997-09-09 The United States Of America As Represented By The Secretary Of The Air Force Pattern recognition by simulated neural-like networks

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Alexander Waibel, Phoneme Recognition Using Time-Delay Neural Networks, IEEE Transactions on acoustics, speech, and signal processing, vol.37, no.3, 1989. *
Осипов В.Ю. Ассоциативная интеллектуальная машина, Информационные технологии и вычислительные системы, №2, 2010. *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2502133C1 (en) * 2012-07-27 2013-12-20 Федеральное государственное бюджетное учреждение науки Санкт-Петербургский институт информатики и автоматизации Российской академии наук Method for intelligent information processing in neural network
RU2514931C1 (en) * 2013-01-14 2014-05-10 Василий Юрьевич Осипов Method for intelligent information processing in neural network
RU2553074C1 (en) * 2014-01-17 2015-06-10 Закрытое акционерное общество "СПИИРАН-Научно-техническое бюро высоких технологий" Method for intelligent information processing in neural network
RU2567038C1 (en) * 2014-06-24 2015-10-27 Государственное бюджетное образовательное учреждение высшего профессионального образования "Смоленский государственный медицинский университет" Министерства здравоохранения Российской Федерации (ГБОУ ВПО СГМУ Минздрава России) Method for prediction of clinical course of early postoperative period in patients with complicated rectal cancer and aid for implementing it
RU2737227C1 (en) * 2020-04-20 2020-11-26 Федеральное государственное бюджетное учреждение науки "Санкт-Петербургский Федеральный исследовательский центр Российской академии наук" Method for intelligent multi-level information processing in neural network

Similar Documents

Publication Publication Date Title
Williams et al. Gradient-based learning algorithms for recurrent networks and their computational complexity
RU2446463C1 (en) Method and apparatus for intelligent information processing in neural network
RU2406105C2 (en) Method of processing information in neural networks
CN113287122A (en) Impulse neural network
JP2017515205A (en) Cold neuron spike timing back propagation
WO2015112643A1 (en) Monitoring neural networks with shadow networks
Thibault et al. Neural networks in process control-a survey
RU2413304C1 (en) Method and device of intellectual processing of information in neural network
WO2014081671A1 (en) Dynamical event neuron and synapse models for learning spiking neural networks
CN114565079A (en) Space-time domain pulse neural network training method, chip and electronic product
Balasubramaniam et al. Delay-range dependent stability criteria for neural networks with Markovian jumping parameters
RU2427914C1 (en) Method of intellectual information processing in neuron network
Feofilov et al. Synthesis of neural network controllers for objects with non-linearity of the constraint type
Ying et al. Artificial neural network prediction for seismic response of bridge structure
Zhao et al. Finite-time synchronization of fractional-order fuzzy Cohen-Grossberg neural networks with time delay
RU2483356C1 (en) Method for intelligent information processing in neural network
WO2020077215A1 (en) Temporal coding in leaky spiking neural networks
RU2514931C1 (en) Method for intelligent information processing in neural network
US5485548A (en) Signal processing apparatus using a hierarchical neural network
Hu et al. Time series prediction with a weighted bidirectional multi-stream extended Kalman filter
RU2502133C1 (en) Method for intelligent information processing in neural network
Benderskaya Nonlinear dynamics as a part of soft computing systems: Novel approach to design of data mining systems
Drago et al. An adaptive momentum back propagation (AMBP)
RU2553074C1 (en) Method for intelligent information processing in neural network
KR20210146002A (en) Method and apparatus for training multi-layer spiking neural network

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20160209