RU2483356C1 - Способ интеллектуальной обработки информации в нейронной сети - Google Patents

Способ интеллектуальной обработки информации в нейронной сети Download PDF

Info

Publication number
RU2483356C1
RU2483356C1 RU2011149675/08A RU2011149675A RU2483356C1 RU 2483356 C1 RU2483356 C1 RU 2483356C1 RU 2011149675/08 A RU2011149675/08 A RU 2011149675/08A RU 2011149675 A RU2011149675 A RU 2011149675A RU 2483356 C1 RU2483356 C1 RU 2483356C1
Authority
RU
Russia
Prior art keywords
network
layer
single images
sets
synapses
Prior art date
Application number
RU2011149675/08A
Other languages
English (en)
Inventor
Василий Юрьевич Осипов
Original Assignee
Василий Юрьевич Осипов
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Василий Юрьевич Осипов filed Critical Василий Юрьевич Осипов
Priority to RU2011149675/08A priority Critical patent/RU2483356C1/ru
Application granted granted Critical
Publication of RU2483356C1 publication Critical patent/RU2483356C1/ru

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

Изобретение относится к бионике, моделированию функциональных аспектов человека и может найти применение в вычислительной технике при построении интеллектуальных машин и систем. Техническим результатом является повышение интеллектуальности и устойчивости обработки информации. Сущность способа заключается в том, что при обработке сигнала в многослойной рекуррентной сети с обратными связями, замыкающими контура с временем задержки единичных образов меньше времени невосприимчивости нейронов сети после их возбуждения, со сдвигами совокупностей единичных образов вдоль слоев, при передаче совокупностей единичных образов от слоя к слою их частично отражают от принимающего слоя к передающему слою и частично стирают с элементов сети этими частично отраженными совокупностями единичных образов запомненные результаты распознавания. 4 ил.

Description

Изобретение относится к бионике, моделированию функциональных аспектов человека и может найти применение в вычислительной технике при построении интеллектуальных машин и систем.
Известны многие способы интеллектуальной обработки информации в нейронной сети, применяемые для аппроксимации, классификации, распознавания образов, обработки речи, прогнозирования, идентификации, оценивания производственных процессов, ассоциативного управления и для решения других творческих задач (Хайкин С. Нейронные сети: полный курс, 2-е издание.: Пер. с англ. - М.: Издательский дом «Вильяме», 2006. - 1104 с.; Галушкин А.И. Теория нейронных сетей. Кн. 1: Учебное пособие для вузов / Общая ред. А.И.Галушкина. - М.: ИПРЖР, 2000. - 416 с.).
Однако всем им характерны узкие возможности по запоминанию структурно-сложных изменяющихся во времени сигналов, их распознаванию, ассоциированию с другими сигналами, извлечению из памяти сети и воспроизведению в исходной форме. Эти известные способы не позволяют при обработке информации решать широкий спектр задач одной и той же нейронной сетью. Они также обладают низкой устойчивостью.
Наиболее близким аналогом изобретения является способ интеллектуальной обработки информации в многослойной рекуррентной нейронной сети с обратными связями, замыкающими контура с временем задержки единичных образов меньше времени невосприимчивости нейронов сети после их возбуждения. Согласно ему сигнал подают в сеть после разложения на составляющие в базисе, согласованном с входным слоем сети. При этом каждую составляющую перед подачей в сеть преобразуют в последовательность единичных образов с частотой повторения как предварительно заданной функцией от амплитуды составляющей. Сигнал представляют в сети в виде последовательных совокупностей единичных образов в соответствии с предварительно заданными правилами его распознавания с учетом обратных результатов распознавания. При передаче совокупностей единичных образов от слоя к слою их сдвигают вдоль слоев с учетом текущих состояний последних. Результаты распознавания запоминают на элементах сети. В качестве результатов обработки используют последовательные совокупности единичных образов на выходном слое сети после обратного преобразования в соответствующие им исходные сигналы (Осипов В.Ю. Ассоциативная интеллектуальная машина / Информационные технологии и вычислительные системы. №2, 2010, с.59-67).
Недостаток этого способа - это не высокая устойчивость обработки непрерывного потока сигналов, возможность перегрузки сети информацией с потерей всех запомненных результатов распознавания. Это ограничивает функциональные возможности способа по интеллектуальной обработке информации.
Задачей изобретения является расширение функциональных возможностей по интеллектуальной обработке информации в нейронной сети.
Технический результат от использования изобретения заключается в повышении интеллектуальности и устойчивости обработки информации в нейронной сети.
Поставленная задача решается тем, что в известном способе интеллектуальной обработки информации в нейронной сети, заключающемся в подаче в многослойную рекуррентную сеть с обратными связями, замыкающими контура с временем задержки единичных образов меньше времени невосприимчивости нейронов сети после их возбуждения, сигнала, разложенного на составляющие в базисе, согласованном с входным слоем сети, с каждой составляющей, преобразованной в последовательность единичных образов с частотой повторения как предварительно заданной функцией от амплитуды составляющей, представлении сигнала в виде последовательных совокупностей единичных образов в соответствии с предварительно заданными правилами его распознавания с учетом обратных результатов распознавания, сдвигах совокупностей единичных образов вдоль слоев с учетом текущих состояний слоев, запоминании результатов распознавания на элементах сети, использовании в качестве результатов обработки последовательных совокупностей единичных образов на выходном слое сети после обратного преобразования в соответствующие им исходные сигналы, согласно изобретению при передаче совокупностей единичных образов от слоя к слою их частично отражают от принимающего слоя к передающему слою и частично стирают с элементов сети этими частично отраженными совокупностями единичных образов запомненные результаты распознавания.
Для расширения функциональных возможностей по интеллектуальной обработке информации в нейронной сети автор изобретения предлагает при передаче совокупностей единичных образов от слоя к слою их частично отражать от принимающего слоя к передающему слою и частично стирать с элементов сети этими частично отраженными совокупностями единичных образов запомненные результаты распознавания, что является новым существенным признаком изобретения.
Сущность изобретения поясняется фиг.1÷4.
На фиг.1 приведена структурная схема двухслойной рекуррентной нейронной сети, реализующей предложенный способ, где 1, 5 - первый, второй слои нейронов; 2, 6 - первый, второй блоки единичных задержек; 3, 4 - первый, второй блоки динамических синапсов; 7 - блок управления синапсами.
На фиг.2 приведен рисунок, раскрывающий структурные особенности блоков нейронной сети (фиг.1), где 3.1÷3.m - динамические синапсы первого блока 3 динамических синапсов.
На фиг.3 приведена логическая структура первого слоя сети (разбитого на 50 логических полей по 25 в каждой строке) при обработке информации предлагаемым способом. Стрелками показаны направления продвижения совокупностей единичных образов вдоль слоя.
На фиг.4а для случая отсутствия частичного стирания запомненных результатов распознавания с элементов сети показаны зависимости суммарного веса WΣ(t) синапсов от текущего времени t при условии, что через каждые четыре такта в сеть вводится очередная совокупность единичных образов из заданной последовательности, где 1 - для t=300÷600; 2 - для t=0÷300.
На фиг.46 показаны зависимости суммарного веса WΣ(t) синапсов сети при таком же входном потоке, как и в предыдущем случае, но при частичном стирании с элементов сети запомненных результатов распознавания, где 1 - для t=300÷600; 2 - для t=0÷300.
Способ осуществляется следующим образом. Рассмотрим его на примере нейронной сети, структурная схема которой представлена на фиг.1.
Входной сигнал, разложенный на составляющие в базисе, согласованном с первым слоем 1 сети, при этом каждая его составляющая преобразована в последовательность единичных образов с частотой повторения, как предварительно заданной функцией от амплитуды составляющей, подают на этот слой.
После подачи на первый вход первого слоя нейронов такого сигнала на его выходе имеют место последовательные совокупности единичных образов, несущие всю информацию о входном сигнале.
После задержки в первом блоке единичных задержек 2 последовательные совокупности единичных образов поступают на первый блок динамических синапсов 3.
Каждый единичный образ из текущей совокупности подается одновременно в первом блоке динамических синапсов 3 на совокупность своих динамических синапсов, обеспечивающих связь каждого нейрона, породившего единичный образ, в общем случае со всеми нейронами второго слоя нейронов 5. При прохождении единичных образов через эти синапсы в прямом направлении они снимают с них информацию о предыдущих воздействиях и оставляют информацию о своем появлении через увеличение весов синапсов.
С выходов синапсов единичные образы подаются на входы нейронов второго слоя. Структурные особенности блоков нейронной сети (фиг.1) показаны на фиг.2.
Поступившие совокупности единичных образов на входы нейронов второго слоя 5 согласно изобретению частично отражаются от них. Это происходит за счет заряда и разряда конденсаторов С5.1÷С5.n (фиг.2). Эти частично отраженные совокупности поступают встречно на синапсы первого блока динамических синапсов и согласно изобретению частично стирают с них запомненные результаты распознавания, что проявляется в уменьшении весов синапсов. Не отраженные части совокупностей единичных образов непосредственно воздействуют на нейроны второго слоя и возбуждают их, если выполняются условия возбуждения.
Допустим, что количество заряда Q, переносимого от каждого элемента единичной задержки 2.1÷2.n (фиг.2), на которые поступают единичные образы (импульсы), к первому блоку динамических синапсов 3 постоянно, не зависит от того, как изменяются веса (проводимости) синапсов.
Тогда можно оперировать некоторой средней амплитудой тока
Figure 00000001
, переносящего заряд Q за некоторый средний промежуток времени
Figure 00000002
,
Figure 00000003
С учетом этого амплитуду импульсного тока, проходящего в прямом направлении через каждый синапс первого блока динамических синапсов 3 относительно момента времени t, можно определить как
Figure 00000004
где wij(t) - прямые веса (проводимости) синапсов, связывающих i-е нейроны первого слоя с j-ми нейронами второго слоя; δi(t) - функция принимающая значение 1, когда i-й нейрон возбужден, и 0 - в других случаях; n - число нейронов в каждом слое.
На вход каждого j-го нейрона второго слоя нейронов 5 от возбужденных нейронов первого слоя 1 поступает суммарный импульсный ток
Figure 00000005
Поступающие на входы j-x нейронов единичные образы (импульсы) частично воспринимаются этими нейронами, имеющими входную проводимость wвх, и частично отражаются к передающему слою с коэффициентом отражения
Figure 00000006
где
Figure 00000007
- суммарный ток отражения единичных образов от j-го нейрона; z - комплексное входное сопротивление нейрона. В частном случае оно может быть равно активному сопротивлению Rвх; zjc(t) - волновое сопротивление цепи, связывающей входное сопротивление j-го нейрона с нейронами передающего слоя. В общем виде оно равно
Figure 00000008
где R(t) - суммарное сопротивление синапсов цепи, связывающей входное сопротивление Rвх j-го нейрона с нейронами передающего слоя,
Figure 00000009
Figure 00000010
- обратные веса (проводимости) синапсов; G - суммарная проводимость, характерная этой цепи, как длинной линии; L, C - емкость и индуктивность этой цепи, как длинной линии; f - частота колебаний.
В частном случае при G=0 и L=0,
Figure 00000011
τu - длительность единичного образа (импульса).
С учетом этого коэффициент отражения по току может быть равен
Figure 00000012
где
Figure 00000013
Из (5) видно, что изменение Kj(t) времени зависит только от изменения
Figure 00000014
Зная Kj(t) и I(t), можно найти суммарный ток
Figure 00000015
отражения единичных образов от j-го нейрона,
Figure 00000016
Соответственно ток, протекающий через входное сопротивление j-го нейрона, равен
Figure 00000017
Токи, протекающие встречно через отдельные синапсы, можно определить как
Figure 00000018
При протекании тока
Figure 00000019
через синапсы в обратном направлении частично стираются запомненные на них результаты распознавания. Назовем
Figure 00000020
током стирания.
Особенность динамических синапсов сети в следующем. Веса (с электрической точки зрения проводимости) wij(t) синапсов определяются через произведение их весовых коэффициентов kij(t) и функций ослабления β(rij(t)). При этом различаются прямые
Figure 00000021
и обратные веса
Figure 00000022
синапсов.
Каждая из связей (синапсов) имеет свое значение функции ослабления βij(rij) единичных образов, зависящее от rij - удаленности связываемых через синапсы нейронов (расстояний между ними на плоскости одного из слоев. Полагается, что расстояние между взаимодействующими слоями нейронной сети стремится к нулю.
Функция β(rij) может определяться как:
Figure 00000023
где h - степень корня, чем она выше, тем шире ассоциативное пространственное взаимодействие в сети; α - положительный коэффициент; N- число нейронов в каждом слое сети.
Входящую в (9) величину rij в единицах нейронов с учетом возможных пространственных сдвигов совокупностей единичных образов вдоль слоев сети можно выразить в виде:
Figure 00000024
nij=±0, 1, …, L-1; mij=±0, 1, …, M/-1;
Δxij, Δyij - проекции связи j-го нейрона с i-м на оси X, Y без учета пространственных сдвигов; d, q - величины единичных сдвигов, соответственно, по координатам X, Y; L, M - число, соответственно, столбцов и строк, на которые разбивается каждый слой нейронной сети за счет сдвигов.
Изменяя Δxij, Δyij на соответствующие значения nij·d и mij·q можно менять rij и направление потока совокупностей единичных образов вдоль слоев сети, осуществлять пространственные сдвиги этих совокупностей вдоль слоев.
Такие сдвиги совокупностей единичных образов вдоль слоев реализуются через управление динамическими синапсами с блока управления синапсами 7 с учетом текущих состояний слоев. Нейроны слоев могут находиться в состояниях ожидания, возбуждения и невосприимчивости после возбуждения. При передаче совокупностей единичных образов от передающего слоя к принимающему слою их пространственные сдвиги осуществляют тогда, когда возникает конфликт между имеющими одни и те же порядковые номера нейронами взаимодействующих слоев. Конфликт возникает, когда единичные образы от возбужденных нейронов подаются на входы нейронов, находящихся в состоянии невосприимчивости после возбуждения.
Весовые коэффициенты kij(t) и
Figure 00000025
в (7) и (8) изменяются в зависимости от воздействий на синапсы единичных образов и выступают в качестве элементов долговременной памяти сети. Для прямого веса (прямой проводимости) wij(t) каждого синапса весовой коэффициент можно определить как
Figure 00000026
а для обратного веса (обратной проводимости)
Figure 00000027
, для случая gij(t)≥g0, в виде:
Figure 00000028
где у - постоянный коэффициент, a g0=const.
В других случаях при gij(t)<g0 обратный вес (проводимость)
Figure 00000029
Величину gij(t) в (11) и (12) можно трактовать, как число запомненных на синапсе единичных образов на момент времени t, а (gij(t)-g0) - как число запомненных единичных образов, которые могут быть стерты с синапса.
С учетом (11) и (12) прямые и обратные веса (проводимости) синапсов могут быть определены по формулам:
Figure 00000030
Figure 00000031
Эти веса однозначно связаны друг с другом:
Figure 00000032
По значению wij(t)можно определить
Figure 00000033
и, наоборот, по
Figure 00000034
найти wij(t).
При протекании тока от возбужденных нейронов через одни синапсы в прямом направлении на них запоминаются текущие результаты распознавания. Такому запоминанию соответствует увеличение прямой и обратной проводимости этих синапсов. В этом случае величину gij(t), входящую в (13), (14), можно рассчитать как
Figure 00000035
где Iij(t) - ток, протекающий через синапс в прямом направлении, определяемый согласно (1).
При прохождении тока встречно через другие синапсы уменьшаются их прямые и обратные веса (обратные и прямые проводимости). Величину gij(t), входящую в (13), (14), в зависимости от этого тока
Figure 00000036
стирания (6), при условии, что
Figure 00000037
, можно рассчитать как
Figure 00000038
иначе gij(t)=gij(t-Δt).
В частном случае B(Iij(t)) и
Figure 00000039
можно определять как B(Iij(t))=A·Iij(t) и
Figure 00000040
, где A, D - константы, причем D должно быть больше A.
Чем больше ток от возбужденных нейронов через одни синапсы в прямом направлении, тем выше уровень частичного стирания ранее запомненных результатов распознавания с других синапсов частично отраженными токами, протекающими через них в обратном направлении. Уровень частичного стирания результатов распознавания зависит также от входной проводимости wвх=1/Rвх возбуждаемых нейронов.
В случаях, когда ток Ij вх(t), протекающий через входное сопротивление j-го нейрона второго слоя 5, больше порогового значения Iпор, то нейрон возбуждается. На его выходе формируется единичный образ (импульс) и нейрон переходит в состояние невосприимчивости. В состоянии невосприимчивости каждый нейрон находится одинаковое время, которое больше, чем время задержки единичных образов в двухслойных контурах сети, структурная схема которой приведена на фиг.1.
Все эти положения справедливы и для передачи совокупностей единичных образов от второго слоя к первому. Последовательные совокупности единичных образов с выхода второго слоя 5, после задержки в блоке 6, поступают на второй блок динамических синапсов 4. В блоке 4 они аналогичным образом, как и в блоке 3, обрабатываются и, сдвинутые вдоль первого слоя в зависимости от состояний первого и второго слоев, поступают на второй вход первого слоя нейронов 1. Они, как и в случае со вторым слоем, частично отражаются от первого слоя. Эти частично отраженные совокупности частично стирают с синапсов второго блока динамических синапсов 4 запомненные на них результаты распознавания.
С учетом этого поступающие на первый слой нейронов 1 прямые и обратные совокупности единичных образов в нем корректно связываются, распознаются и порождают на его выходе новые совокупности единичных образов, несущие в себе информацию, как о текущих, так и ранее запомненных сетью сигналах, связанных с первыми. При этом за счет соответствующих сдвигов совокупностей единичных образов вдоль слоев исключается наложение обратных результатов распознавания на прямые совокупности и совокупности продвигаются вдоль слоев в предварительно заданном направлении.
Заметим, что при обработке сигналов в сети постоянно осуществляется смена одних возбужденных нейронов на другие и соответственно происходит смена запоминания на частичное стирание с синапсов сети результатов распознавания.
При непрерывной обработке информации в нейронной сети предлагаемым способом начиная с некоторого момента, число запоминаемых текущих единичных образов становится равным числу стираемых ранее запомненных единичных образов. После запоминания текущей информации на одних элементах сети частично стирают запомненные результаты распознавания с других синапсов, освобождая память для запоминания последующей информации. За счет этого достигается устойчивое непрерывное функционирование сети. Причем за счет предлагаемого частичного стирания ранее запомненных результатов распознавания полностью стираются в первую очередь более отдаленные результаты. Кроме этого предлагаемое частичное стирание ранее запомненных результатов стимулируют поиск недостающей информации, чтобы сбалансировать уровень запоминания с уровнем ее стирания. Это, наряду с повышением устойчивости, повышает уровень интеллектуальности обработки информации в нейронной сети.
За счет приоритетности коротких связей в нейронной сети между входом и выходом сети легко устанавливается однозначное соответствие между составляющими входных и выходных сигналов.
С учетом этого соответствия по номерам нейронов, формируемых последовательности единичных образов на выходе устройства, определяют частотные и пространственные характеристики составляющих исходного сигнала. По частотам следования и относительным задержкам единичных образов, соответственно, устанавливают амплитуды и фазы составляющих исходного сигнала. Затем воспроизводят составляющие исходных сигналов и путем их сложения восстанавливают исходные, например речевые, зрительные и другие сигналы. Для определения амплитуд составляющих исходного сигнала определяют текущее число единичных образов, попадающих в предварительно заданный интервал времени. Для воспроизведения составляющих исходных сигналов применим, например, их цифровой синтез по известным параметрам.
Для доказательства преимущества предлагаемого способа по сравнению с известными решениями была разработана программная модель нейронной сети, реализующей этот способ. Для разработки этой модели использовалась среда MatLab. Каждый слой нейронной сети состоял из 2100 нейронов. За счет пространственных сдвигов передаваемых совокупностей единичных образов от слоя к слою, каждый слой разбивался на 50 логических полей по 42 нейрона в каждом. Последовательные совокупности единичных образов вводились в сеть через первое логическое поле, а снимались с последнего поля (фиг.3). Последовательность этих совокупностей содержала строчки из романа А.С.Пушкина «Евгений Онегин»: «Мой дядя самых честных правил, когда не в шутку занемог, он уважать себя заставил и лучше выдумать не мог…». Всего в сеть последовательно вводилось 150 совокупностей единичных образов, включая пустые совокупности, соответствующие пробелам между словами. Ввод в сеть совокупностей осуществлялся с периодом четыре такта. На каждом временном такте оценивался суммарный вес WΣ(t) синапсов сети, как
Figure 00000041
где wkij(t)- прямой вес ij-го синапса в k-блоке динамических синапсов сети (фиг.1); n - число нейронов в каждом слое сети.
Результаты оценки приведены на фиг.4а, б. Из анализа фиг.4а видно, что при отсутствии частичного стирания с синапсов запомненных результатов распознавания частично отраженными от принимающих слоев совокупностями единичных образов суммарный вес синапсов непрерывно растет. Он стремится к предельному суммарному весу WΣ пред,
Figure 00000042
при котором все весовые коэффициенты kkij(t)→1, где βkij - функция ослабления для ij-го синапса в k-блоке динамических синапсов сети. В этом предельном случае не возможно запоминание и извлечение информации из сети. Сеть перегружена.
Согласно предлагаемому способу, предусматривающему частичное стирание запомненных результатов распознавания частично отраженными от принимающих слоев совокупностями единичных образов, суммарный вес WΣ(f) синапсов с течением времени стабилизируется на уровне, обеспечивающем непрерывную устойчивую интеллектуальную обработку информации в нейронной сети. Из фиг.4б видно, что прирост суммарного веса WΣ(t) синапсов с течением времени замедляется, в отличие от предыдущего случая (фиг.4а). Целесообразно этот вес выводить на уровень WΣ пред/2, обеспечивающий наибольшую емкость памяти на синапсах. Это осуществимо, например, предварительным заданием соответствующего значения входной проводимости нейронов.
Анализ смены состояний слоев сети, реализующей предлагаемый способ, также подтвердил повышение устойчивости и интеллектуальности обработки информации, более широкие функциональные возможности предлагаемого способа по сравнению с известными решениями.
Способ интеллектуальной обработки информации в нейронной сети может быть реализован с использованием известной элементной базы. В качестве нейронов слоев и элементов задержек в блоках задержек применимы ждущие мультивибраторы. При этом ждущие мультивибраторы в блоках единичных задержек следует запускать не по переднему, а заднему фронту входного импульса. Блоки динамических синапсов могут быть реализованы с применением мемристоров и управляемых аттенюаторов. Для обеспечения частичного отражения совокупностей единичных образов от принимающих слоев сети, цепочки, включающие элементы задержек, синапсы и входные цепи нейронов, должны обладать свойствами длинных линий. Блок управления можно реализовать специализированным процессором, программируемыми интегральными схемами, функционирующими в соответствии с рассмотренными выше правилами.
Способ можно реализовать также путем эмулирования двухслойной рекуррентной нейронной сети с управляемыми синапсами на современных вычислительных машинах.

Claims (1)

  1. Способ интеллектуальной обработки информации в нейронной сети, заключающийся в подаче в многослойную рекуррентную сеть с обратными связями, замыкающими контура с временем задержки единичных образов меньше времени невосприимчивости нейронов сети после их возбуждения, сигнала, разложенного на составляющие в базисе, согласованном с входным слоем сети, с каждой составляющей, преобразованной в последовательность единичных образов с частотой повторения как предварительно заданной функцией от амплитуды составляющей, представлении сигнала в виде последовательных совокупностей единичных образов в соответствии с предварительно заданными правилами его распознавания с учетом обратных результатов распознавания, сдвигах совокупностей единичных образов вдоль слоев с учетом текущих состояний слоев, запоминании результатов распознавания на элементах сети, использовании в качестве результатов обработки последовательных совокупностей единичных образов на выходном слое сети после обратного преобразования в соответствующие им исходные сигналы, отличающийся тем, что при передаче совокупностей единичных образов от слоя к слою их частично отражают от принимающего слоя к передающему слою и частично стирают с элементов сети этими частично отраженными совокупностями единичных образов запомненные результаты распознавания.
RU2011149675/08A 2011-12-06 2011-12-06 Способ интеллектуальной обработки информации в нейронной сети RU2483356C1 (ru)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2011149675/08A RU2483356C1 (ru) 2011-12-06 2011-12-06 Способ интеллектуальной обработки информации в нейронной сети

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2011149675/08A RU2483356C1 (ru) 2011-12-06 2011-12-06 Способ интеллектуальной обработки информации в нейронной сети

Publications (1)

Publication Number Publication Date
RU2483356C1 true RU2483356C1 (ru) 2013-05-27

Family

ID=48792034

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2011149675/08A RU2483356C1 (ru) 2011-12-06 2011-12-06 Способ интеллектуальной обработки информации в нейронной сети

Country Status (1)

Country Link
RU (1) RU2483356C1 (ru)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2553074C1 (ru) * 2014-01-17 2015-06-10 Закрытое акционерное общество "СПИИРАН-Научно-техническое бюро высоких технологий" Способ интеллектуальной обработки информации в нейронной сети
RU2737227C1 (ru) * 2020-04-20 2020-11-26 Федеральное государственное бюджетное учреждение науки "Санкт-Петербургский Федеральный исследовательский центр Российской академии наук" Способ интеллектуальной многоуровневой обработки информации в нейронной сети

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4962342A (en) * 1989-05-04 1990-10-09 Synaptics, Inc. Dynamic synapse for neural network
US20030050903A1 (en) * 1997-06-11 2003-03-13 Jim-Shih Liaw Dynamic synapse for signal processing in neural networks
WO2004048513A2 (en) * 2002-05-03 2004-06-10 University Of Southern California Artificial neural systems with dynamic synapses
RU2413304C1 (ru) * 2009-11-02 2011-02-27 Василий Юрьевич Осипов Способ и устройство интеллектуальной обработки информации в нейронной сети
RU2427914C1 (ru) * 2010-09-16 2011-08-27 Василий Юрьевич Осипов Способ интеллектуальной обработки информации в нейронной сети

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4962342A (en) * 1989-05-04 1990-10-09 Synaptics, Inc. Dynamic synapse for neural network
US4962342B1 (ru) * 1989-05-04 1992-09-15 Synaptics Inc
US20030050903A1 (en) * 1997-06-11 2003-03-13 Jim-Shih Liaw Dynamic synapse for signal processing in neural networks
WO2004048513A2 (en) * 2002-05-03 2004-06-10 University Of Southern California Artificial neural systems with dynamic synapses
RU2413304C1 (ru) * 2009-11-02 2011-02-27 Василий Юрьевич Осипов Способ и устройство интеллектуальной обработки информации в нейронной сети
RU2427914C1 (ru) * 2010-09-16 2011-08-27 Василий Юрьевич Осипов Способ интеллектуальной обработки информации в нейронной сети

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2553074C1 (ru) * 2014-01-17 2015-06-10 Закрытое акционерное общество "СПИИРАН-Научно-техническое бюро высоких технологий" Способ интеллектуальной обработки информации в нейронной сети
RU2737227C1 (ru) * 2020-04-20 2020-11-26 Федеральное государственное бюджетное учреждение науки "Санкт-Петербургский Федеральный исследовательский центр Российской академии наук" Способ интеллектуальной многоуровневой обработки информации в нейронной сети

Similar Documents

Publication Publication Date Title
Williams et al. Gradient-based learning algorithms for recurrent networks and their computational complexity
Pineda Recurrent backpropagation and the dynamical approach to adaptive neural computation
CN105229675B (zh) 尖峰网络的高效硬件实现
CN105637541B (zh) 用于神经模拟器的共享存储器架构
Marhon et al. Recurrent neural networks
CN104145281A (zh) 神经网络计算装置和系统及其方法
CN111639754A (zh) 一种神经网络的构建、训练、识别方法和系统、存储介质
KR20160084401A (ko) 스파이킹 뉴럴 네트워크들에서 리플레이를 사용한 시냅스 학습의 구현
RU2413304C1 (ru) Способ и устройство интеллектуальной обработки информации в нейронной сети
JP2021518008A (ja) 重み更新回路および推論回路を別個に有する抵抗型処理ユニット・アーキテクチャ
CN111967586A (zh) 一种用于脉冲神经网络存内计算的芯片及计算方法
Katte Recurrent neural network and its various architecture types
RU2446463C1 (ru) Способ и устройство интеллектуальной обработки информации в нейронной сети
RU2483356C1 (ru) Способ интеллектуальной обработки информации в нейронной сети
RU2427914C1 (ru) Способ интеллектуальной обработки информации в нейронной сети
US5485548A (en) Signal processing apparatus using a hierarchical neural network
Mao et al. Online sequential classification of imbalanced data by combining extreme learning machine and improved SMOTE algorithm
Benderskaya Nonlinear dynamics as a part of soft computing systems: Novel approach to design of data mining systems
RU2514931C1 (ru) Способ интеллектуальной обработки информации в нейронной сети
Velichko et al. Higher-order and long-range synchronization effects for classification and computing in oscillator-based spiking neural networks
Susi Bio-inspired temporal-decoding network topologies for the accurate recognition of spike patterns
RU2502133C1 (ru) Способ интеллектуальной обработки информации в нейронной сети
EP4386629A1 (en) Monostable multivibrators-based spiking neural network training method
van Veelen et al. Neural network approaches to capture temporal information
Yilmaz Accuracy improvement in Ag: a-Si memristive synaptic device-based neural network through Adadelta learning method on handwritten-digit recognition

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20151207