RU151549U1 - Искусственная нейронная сеть - Google Patents

Искусственная нейронная сеть Download PDF

Info

Publication number
RU151549U1
RU151549U1 RU2014128001/08U RU2014128001U RU151549U1 RU 151549 U1 RU151549 U1 RU 151549U1 RU 2014128001/08 U RU2014128001/08 U RU 2014128001/08U RU 2014128001 U RU2014128001 U RU 2014128001U RU 151549 U1 RU151549 U1 RU 151549U1
Authority
RU
Russia
Prior art keywords
blocks
neural network
outputs
input
output
Prior art date
Application number
RU2014128001/08U
Other languages
English (en)
Inventor
Дмитрий Маркович Шпрехер
Андрей Вячеславович Назаров
Владимир Михайлович Степанов
Original Assignee
Дмитрий Маркович Шпрехер
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Дмитрий Маркович Шпрехер filed Critical Дмитрий Маркович Шпрехер
Priority to RU2014128001/08U priority Critical patent/RU151549U1/ru
Application granted granted Critical
Publication of RU151549U1 publication Critical patent/RU151549U1/ru

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Abstract

Искусственная нейронная сеть, состоящая из блоков распределительных элементов (синапсов), связанных с блоками нелинейных преобразователей взвешенной суммы нейронов первого и второго слоев, отличающаяся тем, что нелинейные преобразователи выполнены из умножителя, проходящего через синапс сигнала на взвешенную сумму (вес) этого синапса, сумматора и нелинейного преобразователя согласно своей функции активации, дополнительно введены блок формирования невязки между входным значением нейронной сети и ее целевым значением, блок разбиения обучающего примера на входные и выходные векторы, блок управления нижней границей интервала обобщения, причем нелинейные преобразователи взвешенной суммы первого слоя соединены с нелинейными преобразователями второго слоя, выходы которых соединены с входами блоков формирования невязки между выходным значением нейронной сети и ее целевым значением, а первые выходы блока разбиения обучающего примера на входные и выходные векторы соединены с входами блоков распределительных элементов, вторые его выходы связаны с входами блока управления нижней границы интервала обобщения, а третьи выходы связаны с блоками формирования невязки между выходным значением нейронной сети и ее целевым значением.

Description

Техническое решение относится к средствам технической кибернетики и параллельной вычислительной техники и может быть использовано при построении систем распознавания образов на множестве прецедентов, не входящих в обучающую выборку.
Известна модель многослойной нейронной сети (НС) RU 115098, опубл. 20.04.2012, где сеть, включающая первый скрытый слой нейронов с логистическими функциями активации, содержащий 11 или 12 нейронов, второй скрытый слой с логистическими функциями активации или гиперболическим тангенсом, содержащий 9 или 10 нейронов, один нейрон выходного слоя с линейной функцией активации, отличающаяся тем, что выходы первого слоя нейронов соединены только с входами второго слоя нейронов, выходы второго слоя нейронов соединены только с входами третьего слоя нейронов, а выход третьего слоя нейронов не имеет соединения с входами нейронов первого и второго слоев нейронов.
Недостатком известного решения является то, что она имеет не только ограничения по обобщающей способности, ввиду классической архитектуры, но и ограничения относительно представления нелинейного класса функций на обучающей выборке, т.к. содержит один нейрон выходного слоя с линейной функцией активации.
Известна искусственная нейронная сеть (ИНС), содержащая входной сумматор, последовательно связанный с нелинейным преобразователем сигналов и точкой ветвления для рассылки одного сигнала по нескольким адресам, а также линейную связь - синапс, для умножения входного сигнала на вес синапса [А.Н. Горбань. Обобщенная аппроксимационная теорема и вычислительные возможности нейронных сетей. - Сибирский журнал вычислительной математики, 1998. Т. 1, №1. с. 12-24.; В.П. Коротков. Б.А. Тайц. Основы метрологии и теории точности измерительных устройств. - М: Издательство стандартов, 1978. - 352 с].
Наиболее близким по технической сущности и достигаемому результату является ИНС (патент РФ №62609, МПК8 C30B 15/00, C30B 15/00, опубл. 27.04.2007), содержащая входной сумматор, последовательно связанный с нелинейным преобразователем сигналов и точкой ветвления для рассылки одного сигнала по нескольким адресам, а также линейную связь -синапс, для умножения входного сигнала на вес синапса, отличающийся тем, что в качестве входного сумматора используют изомерные ядра со временем жизни в возбужденном состоянии несколько лет, в качестве нелинейного преобразователя используют квантовые точки, в качестве точки ветвления используют узел, выполненный из углеродных нанотрубок, а в качестве синапса - отдельно взятый переход одного изомерного ядра с низших на один из высших энергетических уровней под действием фотона большой энергии.
Недостатком наиболее близкого решения является низкая производительность при обучении и достоверность распознавания.
Задачей предложенного технического решения является повышение производительности и достоверности распознавания многопризнаковых образов на основе реализации обобщающей способности архитектуры многослойной НС, обучающейся в соответствии с алгоритмом обратного распространения ошибки.
Поставленная задача достигается за счет того, что ИНС содержит блоки распределительных элементов - входной слой нейронов (синапсы), которые связаны с блоками нелинейных преобразователей взвешенной суммы нейронов первого и второго слоя, выполняющих функции умножения проходящего через синапс сигнала на взвешенную сумму (вес) этого синапса, суммирования и нелинейного преобразования согласно своей функции активации, дополнительно введены блок формирования невязки между входным значением нейронной сети и ее целевым значением, блок разбиения обучающего примера на входные и выходные векторы, блок управления нижней границей интервала обобщения, причем нелинейные преобразователи первого слоя соединены с нелинейными преобразователями второго слоя, выходы которых соединены с входами блоков формирования невязки между выходным значением нейронной сети и ее целевым значением, а первые выходы блока разбиения обучающего примера на входные и выходные векторы соединены с входами блоков распределительных элементов, вторые его выходы связаны с входами блока управления нижней границы интервала обобщения, а третьи выходы связаны с блоками формирования невязки между выходным значением нейронной сети и ее целевым значением.
На Фиг. изображена структурная схема ИНС и представлены следующие обозначения: x1, …, xN2 - компоненты входного вектора, u1, …, uq - компоненты выходного вектора, ν и w - взвешенные коэффициенты соответственно 1-го и 2-го настраиваемых слоев НС, θ и η - пороговые величины соответственно скрытого и выходного слоев, N2 - число нелинейных преобразователей (нейронов) входного слоя, p - число элементов скрытого слоя, q - число элементов выходного слоя, a 1, …, a N2 - компоненты входного распределительного вектора, b1, …, bp - компоненты вектора элементов скрытого слоя, d1, …, dq - компоненты целевого вектора.
Искусственная нейронная сеть содержит блоки распределительных элементов 1, состоящие из входных нейронов (синапсов), выходы которых соединены с входами блоков нелинейных преобразователей, взвешенной суммы выходов нейронов первого слоя 2, выходы которых соединены с входами блоков нелинейных преобразователей взвешенной суммы нейронов второго слоя 3, выходы которых соединены с входами блоков формирования невязки 4 между выходным значением нейронной сети: u1, …, uq и ее целевым значением d1, …, dq, а первые выходы блока разбиения 5 обучающего примера на входные и выходные векторы соединены с входами блоков распределительных элементов 1, вторые его выходы связаны с входами блока управления 6 нижней границы интервала обобщения, а третьи выходы связаны с блоками формирования невязки 4 между выходным значением нейронной сети и ее целевым значением.
Работает НС следующим образом. В режиме распознавания образов на вход НС последовательно поступают сигналы неизвестных классов, параметры которых измеряют и передают в векторном виде. Результаты распознавания неизвестного сигнала формируют на выходе НС в виде номера класса. По окончании идентификации первого сигнала производят классификацию следующего и так далее.
Но для решения задачи классификации образов НС должна быть обучена. Обучение предполагает наличие обучающих пар и образов, называемых обучающей последовательностью. При этом для каждого входного образа a i вычисляют реакцию сети ui и сравнивают с соответствующим целевым образом di, их разница представляет собой невязку (ошибку рассогласования), которую сравнивают с заданной точностью, если невязка превышает ее, то корректируют весовые коэффициенты модели, если невязка находится в допустимых пределах, то обучение останавливают.
Алгоритм обучения классической модели ИНС на N1 примерах выборки по методу обратного распространения ошибки состоит из восьми шагов:
1. Начальная инициализация всех весовых коэффициентов и пороговых величин случайными числами r, например, в диапазоне [w0-0.05, w0+0.05], где w0 - середина диапазона какой-либо сжимающей нелинейной функции, например, сигмоидной:
Figure 00000002
,
Figure 00000003
,
2. Для каждого из N1 - примеров обучающей выборки выполняется следующая последовательность действий. Поочередная активация входного слоя одним из N1 векторов:
Figure 00000004
.
3. Вычисление сигналов на выходе элементов скрытого слоя для каждого примера согласно выражению:
Figure 00000005
.
где: f(x) - логистическая сжимающая функция активации в диапазоне [0, 1].
4. Вычисление сигналов на выходе элементов выходного слоя для каждого примера согласно выражению:
Figure 00000006
.
5. Для каждого i-го входного вектора определение ошибок между вычисленными выходными величинами
Figure 00000007
,
Figure 00000008
нелинейных преобразователей и компонентами желаемого выходного образа обучающей выборки
Figure 00000009
,
Figure 00000010
:
Figure 00000011
.
6. Для каждого входного вектора пересчет величин ошибок для всех элементов
Figure 00000012
,
Figure 00000013
скрытого слоя:
Figure 00000014
.
7. Корректировка весовых коэффициентов осуществляется после показа сети всех обучающих ситуаций протокола наблюдений (т.е. шаги 2-6 вычисляются для всех N1 примеров) согласно соотношениям:
Figure 00000015
,
Figure 00000016
,
где параметр ρ - определяет скорость обучения.
8. Сравнение полученных выходных ошибок с требуемыми параметрами точности обучения, в случае если ошибка не в допуске повторение шагов 2-8. Условие прекращения обучения формулируется как:
Figure 00000017
,
либо:
Figure 00000018
,
где ε - абсолютная погрешность выходного значения нейрона в выходном слое; Δε - предельное значение локальной целевой функции.
В результате реализации алгоритма обучения нейронная сеть готова правильно классифицировать входные вектора и обеспечивать отнесение распознаваемого вектора к тому или иному классу.
При конечном числе обучающих примеров всегда возможно синтезировать НС с нулевой ошибкой обучения, т.е. ошибкой, определенной на множестве обучающих примеров, для чего необходимо использовать число блоков взвешивания входного сигнала большим, чем число примеров N1. В итоге выбранная случайным образом функция дает плохие предсказания на новых примерах, отсутствовавших в обучающей выборке, хотя последнюю НС аппроксимирует без ошибок. Вместо того чтобы обобщить известные примеры, сеть запомнила их.
1. Восьмой шаг алгоритма настройки многослойной НС записан как:
“…8. Сравнение полученных выходных ошибок с требуемыми интервалами точности обучения, в случае если ошибка не в границах интервала повторение шагов 2-8. Условие прекращения обучения формулируется как:
Figure 00000019
где: ε1 - минимально допустимая абсолютная погрешность выходного значения нейрона в выходном слое; ε2 - максимально допустимая абсолютная погрешность выходного значения нейрона в выходном слое;
Figure 00000020
- нижнее предельное значение локальной целевой функции;
Figure 00000021
- верхнее предельное значение локальной целевой функции.
Интервал [ε1, ε2] назовем интервалом О обобщения многослойной НС.
Фактически, введение блока управления нижней границей интервала обобщения, т.е. нижнего порога выходной невязки эквивалентно управляемому загрублению точности аппроксимации примеров обучающей выборки, что косвенно влечет оптимальность показателя достоверности распознавания примеров тестовой выборки.
Регулируемым является нижний порог 81 - минимально допустимая абсолютная погрешность выходного значения нейрона в выходном слое НС. Именно значение ε1 формируют в блоке управления нижней границей интервала обобщения для каждого выходного нейрона или для всех выходных нейронов, в зависимости от вида минимизируемого функционала обучения. Общая форма правила коррекции ε1 при подаче на вход блоков формирования интервальной невязки между выходным значением НС и ее целевым значением имеет вид
Figure 00000022
где Δεl(i) - случайная корректирующая добавка, определяющая направление изменения вектора ε1 на каждом i-м обучающем примере.
Применяют предложенное техническое решение по целевому назначению при подаче на вход массива обучающих примеров, из которых в блоке - 5 разбивают обучающий пример на входные и выходные компоненты. Компоненты входных векторов подают на вход блоки распределительных элементов - 1, далее посредством нелинейного преобразования в блоках - 2, повторного нелинейного преобразования в блоках второго слоя НС - 3, с выхода снимают значения компонент выходного вектора - суть результата решения задачи распознавания.

Claims (1)

  1. Искусственная нейронная сеть, состоящая из блоков распределительных элементов (синапсов), связанных с блоками нелинейных преобразователей взвешенной суммы нейронов первого и второго слоев, отличающаяся тем, что нелинейные преобразователи выполнены из умножителя, проходящего через синапс сигнала на взвешенную сумму (вес) этого синапса, сумматора и нелинейного преобразователя согласно своей функции активации, дополнительно введены блок формирования невязки между входным значением нейронной сети и ее целевым значением, блок разбиения обучающего примера на входные и выходные векторы, блок управления нижней границей интервала обобщения, причем нелинейные преобразователи взвешенной суммы первого слоя соединены с нелинейными преобразователями второго слоя, выходы которых соединены с входами блоков формирования невязки между выходным значением нейронной сети и ее целевым значением, а первые выходы блока разбиения обучающего примера на входные и выходные векторы соединены с входами блоков распределительных элементов, вторые его выходы связаны с входами блока управления нижней границы интервала обобщения, а третьи выходы связаны с блоками формирования невязки между выходным значением нейронной сети и ее целевым значением.
    Figure 00000001
RU2014128001/08U 2014-07-08 2014-07-08 Искусственная нейронная сеть RU151549U1 (ru)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2014128001/08U RU151549U1 (ru) 2014-07-08 2014-07-08 Искусственная нейронная сеть

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2014128001/08U RU151549U1 (ru) 2014-07-08 2014-07-08 Искусственная нейронная сеть

Publications (1)

Publication Number Publication Date
RU151549U1 true RU151549U1 (ru) 2015-04-10

Family

ID=53296959

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2014128001/08U RU151549U1 (ru) 2014-07-08 2014-07-08 Искусственная нейронная сеть

Country Status (1)

Country Link
RU (1) RU151549U1 (ru)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU169425U1 (ru) * 2016-11-18 2017-03-16 Федеральное государственное бюджетное образовательное учреждение высшего образования "Омский государственный технический университет" Устройство прогнозирования электропотребления на основе многослойной нейронной сети
RU2705460C1 (ru) * 2019-03-19 2019-11-07 федеральное автономное учреждение "Государственный научно-исследовательский испытательный институт проблем технической защиты информации Федеральной службы по техническому и экспортному контролю" Способ определения потенциальных угроз безопасности информации на основе сведений об уязвимостях программного обеспечения
RU194498U1 (ru) * 2019-07-12 2019-12-12 Федеральное государственное казенное военное образовательное учреждение высшего образования "Военная академия воздушно-космической обороны имени Маршала Советского Союза Г.К. Жукова" Министерства обороны Российской Федерации Искусственная нейронная сеть для идентификации технического состояния радиотехнических средств
RU2723270C1 (ru) * 2019-08-13 2020-06-09 Федеральное государственное унитарное предприятие "Ростовский-на-Дону научно-исследовательский институт радиосвязи" (ФГУП "РНИИРС") Способ обучения искусственной нейронной сети

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU169425U1 (ru) * 2016-11-18 2017-03-16 Федеральное государственное бюджетное образовательное учреждение высшего образования "Омский государственный технический университет" Устройство прогнозирования электропотребления на основе многослойной нейронной сети
RU2705460C1 (ru) * 2019-03-19 2019-11-07 федеральное автономное учреждение "Государственный научно-исследовательский испытательный институт проблем технической защиты информации Федеральной службы по техническому и экспортному контролю" Способ определения потенциальных угроз безопасности информации на основе сведений об уязвимостях программного обеспечения
RU194498U1 (ru) * 2019-07-12 2019-12-12 Федеральное государственное казенное военное образовательное учреждение высшего образования "Военная академия воздушно-космической обороны имени Маршала Советского Союза Г.К. Жукова" Министерства обороны Российской Федерации Искусственная нейронная сеть для идентификации технического состояния радиотехнических средств
RU2723270C1 (ru) * 2019-08-13 2020-06-09 Федеральное государственное унитарное предприятие "Ростовский-на-Дону научно-исследовательский институт радиосвязи" (ФГУП "РНИИРС") Способ обучения искусственной нейронной сети

Similar Documents

Publication Publication Date Title
Saadat et al. Training echo state neural network using harmony search algorithm
RU151549U1 (ru) Искусственная нейронная сеть
CN110991721A (zh) 基于改进经验模态分解和支持向量机的短期风速预测方法
CN110018675A (zh) 基于lwdnn-arx模型的非线性系统建模方法
RU2566979C1 (ru) Способ обучения искусственной нейронной сети
CN112164462B (zh) 一种乳腺癌风险评估方法、系统、介质及设备
Ceperic et al. Reducing complexity of echo state networks with sparse linear regression algorithms
CN105426962A (zh) 一种不完全递归支集动态神经网络构建及训练方法
CN113298231A (zh) 用于脉冲神经网络的图表示时空反向传播算法
Gardner et al. Learning temporally precise spiking patterns through reward modulated spike-timing-dependent plasticity
Rochman et al. Forecasting application for simpati telkomsel card using backpropagation (Case study in Bangkalan Madura-Indonesia)
CN106651006A (zh) 基于复数神经网络的土壤墒情预测方法及装置
RU2619717C1 (ru) Способ и устройство автоматического распознавания типа манипуляции радиосигналов
Vlasov et al. Reinforcement learning in a spiking neural network with memristive plasticity
Sari et al. Comparison of ANFIS and NFS on inflation rate forecasting
RU2665235C1 (ru) Способ и устройство автоматического распознавания типа манипуляции радиосигналов
Redd et al. Stochastic resonance enables BPP/log* complexity and universal approximation in analog recurrent neural networks
US20200193276A1 (en) Neuromorphic Neuron Apparatus For Artificial Neural Networks
Sineglazov et al. A method for building a forecasting model with dynamic weights
RU194498U1 (ru) Искусственная нейронная сеть для идентификации технического состояния радиотехнических средств
Schwenker et al. Echo state networks and neural network ensembles to predict sunspots activity
KR20210057430A (ko) 스파이킹 뉴럴 네트워크를 위한 하이퍼 파라미터 최적화 방법과 장치 및 이를 이용한 연산 장치
Sineglazov et al. Using a mixture of experts’ approach to solve the forecasting task
Danilin et al. Monitoring the phase progression of linear chirp by applying artificial neural networks
Sun et al. Reliability growth prediction method based on GA-Elman neural network

Legal Events

Date Code Title Description
MM1K Utility model has become invalid (non-payment of fees)

Effective date: 20150709