RU151549U1 - Искусственная нейронная сеть - Google Patents
Искусственная нейронная сеть Download PDFInfo
- Publication number
- RU151549U1 RU151549U1 RU2014128001/08U RU2014128001U RU151549U1 RU 151549 U1 RU151549 U1 RU 151549U1 RU 2014128001/08 U RU2014128001/08 U RU 2014128001/08U RU 2014128001 U RU2014128001 U RU 2014128001U RU 151549 U1 RU151549 U1 RU 151549U1
- Authority
- RU
- Russia
- Prior art keywords
- blocks
- neural network
- outputs
- input
- output
- Prior art date
Links
Images
Landscapes
- Image Analysis (AREA)
- Character Discrimination (AREA)
Abstract
Искусственная нейронная сеть, состоящая из блоков распределительных элементов (синапсов), связанных с блоками нелинейных преобразователей взвешенной суммы нейронов первого и второго слоев, отличающаяся тем, что нелинейные преобразователи выполнены из умножителя, проходящего через синапс сигнала на взвешенную сумму (вес) этого синапса, сумматора и нелинейного преобразователя согласно своей функции активации, дополнительно введены блок формирования невязки между входным значением нейронной сети и ее целевым значением, блок разбиения обучающего примера на входные и выходные векторы, блок управления нижней границей интервала обобщения, причем нелинейные преобразователи взвешенной суммы первого слоя соединены с нелинейными преобразователями второго слоя, выходы которых соединены с входами блоков формирования невязки между выходным значением нейронной сети и ее целевым значением, а первые выходы блока разбиения обучающего примера на входные и выходные векторы соединены с входами блоков распределительных элементов, вторые его выходы связаны с входами блока управления нижней границы интервала обобщения, а третьи выходы связаны с блоками формирования невязки между выходным значением нейронной сети и ее целевым значением.
Description
Техническое решение относится к средствам технической кибернетики и параллельной вычислительной техники и может быть использовано при построении систем распознавания образов на множестве прецедентов, не входящих в обучающую выборку.
Известна модель многослойной нейронной сети (НС) RU 115098, опубл. 20.04.2012, где сеть, включающая первый скрытый слой нейронов с логистическими функциями активации, содержащий 11 или 12 нейронов, второй скрытый слой с логистическими функциями активации или гиперболическим тангенсом, содержащий 9 или 10 нейронов, один нейрон выходного слоя с линейной функцией активации, отличающаяся тем, что выходы первого слоя нейронов соединены только с входами второго слоя нейронов, выходы второго слоя нейронов соединены только с входами третьего слоя нейронов, а выход третьего слоя нейронов не имеет соединения с входами нейронов первого и второго слоев нейронов.
Недостатком известного решения является то, что она имеет не только ограничения по обобщающей способности, ввиду классической архитектуры, но и ограничения относительно представления нелинейного класса функций на обучающей выборке, т.к. содержит один нейрон выходного слоя с линейной функцией активации.
Известна искусственная нейронная сеть (ИНС), содержащая входной сумматор, последовательно связанный с нелинейным преобразователем сигналов и точкой ветвления для рассылки одного сигнала по нескольким адресам, а также линейную связь - синапс, для умножения входного сигнала на вес синапса [А.Н. Горбань. Обобщенная аппроксимационная теорема и вычислительные возможности нейронных сетей. - Сибирский журнал вычислительной математики, 1998. Т. 1, №1. с. 12-24.; В.П. Коротков. Б.А. Тайц. Основы метрологии и теории точности измерительных устройств. - М: Издательство стандартов, 1978. - 352 с].
Наиболее близким по технической сущности и достигаемому результату является ИНС (патент РФ №62609, МПК8 C30B 15/00, C30B 15/00, опубл. 27.04.2007), содержащая входной сумматор, последовательно связанный с нелинейным преобразователем сигналов и точкой ветвления для рассылки одного сигнала по нескольким адресам, а также линейную связь -синапс, для умножения входного сигнала на вес синапса, отличающийся тем, что в качестве входного сумматора используют изомерные ядра со временем жизни в возбужденном состоянии несколько лет, в качестве нелинейного преобразователя используют квантовые точки, в качестве точки ветвления используют узел, выполненный из углеродных нанотрубок, а в качестве синапса - отдельно взятый переход одного изомерного ядра с низших на один из высших энергетических уровней под действием фотона большой энергии.
Недостатком наиболее близкого решения является низкая производительность при обучении и достоверность распознавания.
Задачей предложенного технического решения является повышение производительности и достоверности распознавания многопризнаковых образов на основе реализации обобщающей способности архитектуры многослойной НС, обучающейся в соответствии с алгоритмом обратного распространения ошибки.
Поставленная задача достигается за счет того, что ИНС содержит блоки распределительных элементов - входной слой нейронов (синапсы), которые связаны с блоками нелинейных преобразователей взвешенной суммы нейронов первого и второго слоя, выполняющих функции умножения проходящего через синапс сигнала на взвешенную сумму (вес) этого синапса, суммирования и нелинейного преобразования согласно своей функции активации, дополнительно введены блок формирования невязки между входным значением нейронной сети и ее целевым значением, блок разбиения обучающего примера на входные и выходные векторы, блок управления нижней границей интервала обобщения, причем нелинейные преобразователи первого слоя соединены с нелинейными преобразователями второго слоя, выходы которых соединены с входами блоков формирования невязки между выходным значением нейронной сети и ее целевым значением, а первые выходы блока разбиения обучающего примера на входные и выходные векторы соединены с входами блоков распределительных элементов, вторые его выходы связаны с входами блока управления нижней границы интервала обобщения, а третьи выходы связаны с блоками формирования невязки между выходным значением нейронной сети и ее целевым значением.
На Фиг. изображена структурная схема ИНС и представлены следующие обозначения: x1, …, xN2 - компоненты входного вектора, u1, …, uq - компоненты выходного вектора, ν и w - взвешенные коэффициенты соответственно 1-го и 2-го настраиваемых слоев НС, θ и η - пороговые величины соответственно скрытого и выходного слоев, N2 - число нелинейных преобразователей (нейронов) входного слоя, p - число элементов скрытого слоя, q - число элементов выходного слоя, a 1, …, a N2 - компоненты входного распределительного вектора, b1, …, bp - компоненты вектора элементов скрытого слоя, d1, …, dq - компоненты целевого вектора.
Искусственная нейронная сеть содержит блоки распределительных элементов 1, состоящие из входных нейронов (синапсов), выходы которых соединены с входами блоков нелинейных преобразователей, взвешенной суммы выходов нейронов первого слоя 2, выходы которых соединены с входами блоков нелинейных преобразователей взвешенной суммы нейронов второго слоя 3, выходы которых соединены с входами блоков формирования невязки 4 между выходным значением нейронной сети: u1, …, uq и ее целевым значением d1, …, dq, а первые выходы блока разбиения 5 обучающего примера на входные и выходные векторы соединены с входами блоков распределительных элементов 1, вторые его выходы связаны с входами блока управления 6 нижней границы интервала обобщения, а третьи выходы связаны с блоками формирования невязки 4 между выходным значением нейронной сети и ее целевым значением.
Работает НС следующим образом. В режиме распознавания образов на вход НС последовательно поступают сигналы неизвестных классов, параметры которых измеряют и передают в векторном виде. Результаты распознавания неизвестного сигнала формируют на выходе НС в виде номера класса. По окончании идентификации первого сигнала производят классификацию следующего и так далее.
Но для решения задачи классификации образов НС должна быть обучена. Обучение предполагает наличие обучающих пар и образов, называемых обучающей последовательностью. При этом для каждого входного образа a i вычисляют реакцию сети ui и сравнивают с соответствующим целевым образом di, их разница представляет собой невязку (ошибку рассогласования), которую сравнивают с заданной точностью, если невязка превышает ее, то корректируют весовые коэффициенты модели, если невязка находится в допустимых пределах, то обучение останавливают.
Алгоритм обучения классической модели ИНС на N1 примерах выборки по методу обратного распространения ошибки состоит из восьми шагов:
1. Начальная инициализация всех весовых коэффициентов и пороговых величин случайными числами r, например, в диапазоне [w0-0.05, w0+0.05], где w0 - середина диапазона какой-либо сжимающей нелинейной функции, например, сигмоидной:
2. Для каждого из N1 - примеров обучающей выборки выполняется следующая последовательность действий. Поочередная активация входного слоя одним из N1 векторов:
3. Вычисление сигналов на выходе элементов скрытого слоя для каждого примера согласно выражению:
где: f(x) - логистическая сжимающая функция активации в диапазоне [0, 1].
4. Вычисление сигналов на выходе элементов выходного слоя для каждого примера согласно выражению:
5. Для каждого i-го входного вектора определение ошибок между вычисленными выходными величинами , нелинейных преобразователей и компонентами желаемого выходного образа обучающей выборки ,:
7. Корректировка весовых коэффициентов осуществляется после показа сети всех обучающих ситуаций протокола наблюдений (т.е. шаги 2-6 вычисляются для всех N1 примеров) согласно соотношениям:
где параметр ρ - определяет скорость обучения.
8. Сравнение полученных выходных ошибок с требуемыми параметрами точности обучения, в случае если ошибка не в допуске повторение шагов 2-8. Условие прекращения обучения формулируется как:
где ε - абсолютная погрешность выходного значения нейрона в выходном слое; Δε - предельное значение локальной целевой функции.
В результате реализации алгоритма обучения нейронная сеть готова правильно классифицировать входные вектора и обеспечивать отнесение распознаваемого вектора к тому или иному классу.
При конечном числе обучающих примеров всегда возможно синтезировать НС с нулевой ошибкой обучения, т.е. ошибкой, определенной на множестве обучающих примеров, для чего необходимо использовать число блоков взвешивания входного сигнала большим, чем число примеров N1. В итоге выбранная случайным образом функция дает плохие предсказания на новых примерах, отсутствовавших в обучающей выборке, хотя последнюю НС аппроксимирует без ошибок. Вместо того чтобы обобщить известные примеры, сеть запомнила их.
1. Восьмой шаг алгоритма настройки многослойной НС записан как:
“…8. Сравнение полученных выходных ошибок с требуемыми интервалами точности обучения, в случае если ошибка не в границах интервала повторение шагов 2-8. Условие прекращения обучения формулируется как:
где: ε1 - минимально допустимая абсолютная погрешность выходного значения нейрона в выходном слое; ε2 - максимально допустимая абсолютная погрешность выходного значения нейрона в выходном слое; - нижнее предельное значение локальной целевой функции; - верхнее предельное значение локальной целевой функции.
Интервал [ε1, ε2] назовем интервалом О обобщения многослойной НС.
Фактически, введение блока управления нижней границей интервала обобщения, т.е. нижнего порога выходной невязки эквивалентно управляемому загрублению точности аппроксимации примеров обучающей выборки, что косвенно влечет оптимальность показателя достоверности распознавания примеров тестовой выборки.
Регулируемым является нижний порог 81 - минимально допустимая абсолютная погрешность выходного значения нейрона в выходном слое НС. Именно значение ε1 формируют в блоке управления нижней границей интервала обобщения для каждого выходного нейрона или для всех выходных нейронов, в зависимости от вида минимизируемого функционала обучения. Общая форма правила коррекции ε1 при подаче на вход блоков формирования интервальной невязки между выходным значением НС и ее целевым значением имеет вид
где Δεl(i) - случайная корректирующая добавка, определяющая направление изменения вектора ε1 на каждом i-м обучающем примере.
Применяют предложенное техническое решение по целевому назначению при подаче на вход массива обучающих примеров, из которых в блоке - 5 разбивают обучающий пример на входные и выходные компоненты. Компоненты входных векторов подают на вход блоки распределительных элементов - 1, далее посредством нелинейного преобразования в блоках - 2, повторного нелинейного преобразования в блоках второго слоя НС - 3, с выхода снимают значения компонент выходного вектора - суть результата решения задачи распознавания.
Claims (1)
- Искусственная нейронная сеть, состоящая из блоков распределительных элементов (синапсов), связанных с блоками нелинейных преобразователей взвешенной суммы нейронов первого и второго слоев, отличающаяся тем, что нелинейные преобразователи выполнены из умножителя, проходящего через синапс сигнала на взвешенную сумму (вес) этого синапса, сумматора и нелинейного преобразователя согласно своей функции активации, дополнительно введены блок формирования невязки между входным значением нейронной сети и ее целевым значением, блок разбиения обучающего примера на входные и выходные векторы, блок управления нижней границей интервала обобщения, причем нелинейные преобразователи взвешенной суммы первого слоя соединены с нелинейными преобразователями второго слоя, выходы которых соединены с входами блоков формирования невязки между выходным значением нейронной сети и ее целевым значением, а первые выходы блока разбиения обучающего примера на входные и выходные векторы соединены с входами блоков распределительных элементов, вторые его выходы связаны с входами блока управления нижней границы интервала обобщения, а третьи выходы связаны с блоками формирования невязки между выходным значением нейронной сети и ее целевым значением.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2014128001/08U RU151549U1 (ru) | 2014-07-08 | 2014-07-08 | Искусственная нейронная сеть |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2014128001/08U RU151549U1 (ru) | 2014-07-08 | 2014-07-08 | Искусственная нейронная сеть |
Publications (1)
Publication Number | Publication Date |
---|---|
RU151549U1 true RU151549U1 (ru) | 2015-04-10 |
Family
ID=53296959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2014128001/08U RU151549U1 (ru) | 2014-07-08 | 2014-07-08 | Искусственная нейронная сеть |
Country Status (1)
Country | Link |
---|---|
RU (1) | RU151549U1 (ru) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU169425U1 (ru) * | 2016-11-18 | 2017-03-16 | Федеральное государственное бюджетное образовательное учреждение высшего образования "Омский государственный технический университет" | Устройство прогнозирования электропотребления на основе многослойной нейронной сети |
RU2705460C1 (ru) * | 2019-03-19 | 2019-11-07 | федеральное автономное учреждение "Государственный научно-исследовательский испытательный институт проблем технической защиты информации Федеральной службы по техническому и экспортному контролю" | Способ определения потенциальных угроз безопасности информации на основе сведений об уязвимостях программного обеспечения |
RU194498U1 (ru) * | 2019-07-12 | 2019-12-12 | Федеральное государственное казенное военное образовательное учреждение высшего образования "Военная академия воздушно-космической обороны имени Маршала Советского Союза Г.К. Жукова" Министерства обороны Российской Федерации | Искусственная нейронная сеть для идентификации технического состояния радиотехнических средств |
RU2723270C1 (ru) * | 2019-08-13 | 2020-06-09 | Федеральное государственное унитарное предприятие "Ростовский-на-Дону научно-исследовательский институт радиосвязи" (ФГУП "РНИИРС") | Способ обучения искусственной нейронной сети |
-
2014
- 2014-07-08 RU RU2014128001/08U patent/RU151549U1/ru not_active IP Right Cessation
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU169425U1 (ru) * | 2016-11-18 | 2017-03-16 | Федеральное государственное бюджетное образовательное учреждение высшего образования "Омский государственный технический университет" | Устройство прогнозирования электропотребления на основе многослойной нейронной сети |
RU2705460C1 (ru) * | 2019-03-19 | 2019-11-07 | федеральное автономное учреждение "Государственный научно-исследовательский испытательный институт проблем технической защиты информации Федеральной службы по техническому и экспортному контролю" | Способ определения потенциальных угроз безопасности информации на основе сведений об уязвимостях программного обеспечения |
RU194498U1 (ru) * | 2019-07-12 | 2019-12-12 | Федеральное государственное казенное военное образовательное учреждение высшего образования "Военная академия воздушно-космической обороны имени Маршала Советского Союза Г.К. Жукова" Министерства обороны Российской Федерации | Искусственная нейронная сеть для идентификации технического состояния радиотехнических средств |
RU2723270C1 (ru) * | 2019-08-13 | 2020-06-09 | Федеральное государственное унитарное предприятие "Ростовский-на-Дону научно-исследовательский институт радиосвязи" (ФГУП "РНИИРС") | Способ обучения искусственной нейронной сети |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Saadat et al. | Training echo state neural network using harmony search algorithm | |
RU151549U1 (ru) | Искусственная нейронная сеть | |
CN110991721A (zh) | 基于改进经验模态分解和支持向量机的短期风速预测方法 | |
CN110018675A (zh) | 基于lwdnn-arx模型的非线性系统建模方法 | |
RU2566979C1 (ru) | Способ обучения искусственной нейронной сети | |
CN112164462B (zh) | 一种乳腺癌风险评估方法、系统、介质及设备 | |
Ceperic et al. | Reducing complexity of echo state networks with sparse linear regression algorithms | |
CN105426962A (zh) | 一种不完全递归支集动态神经网络构建及训练方法 | |
CN113298231A (zh) | 用于脉冲神经网络的图表示时空反向传播算法 | |
Gardner et al. | Learning temporally precise spiking patterns through reward modulated spike-timing-dependent plasticity | |
Rochman et al. | Forecasting application for simpati telkomsel card using backpropagation (Case study in Bangkalan Madura-Indonesia) | |
CN106651006A (zh) | 基于复数神经网络的土壤墒情预测方法及装置 | |
RU2619717C1 (ru) | Способ и устройство автоматического распознавания типа манипуляции радиосигналов | |
Vlasov et al. | Reinforcement learning in a spiking neural network with memristive plasticity | |
Sari et al. | Comparison of ANFIS and NFS on inflation rate forecasting | |
RU2665235C1 (ru) | Способ и устройство автоматического распознавания типа манипуляции радиосигналов | |
Redd et al. | Stochastic resonance enables BPP/log* complexity and universal approximation in analog recurrent neural networks | |
US20200193276A1 (en) | Neuromorphic Neuron Apparatus For Artificial Neural Networks | |
Sineglazov et al. | A method for building a forecasting model with dynamic weights | |
RU194498U1 (ru) | Искусственная нейронная сеть для идентификации технического состояния радиотехнических средств | |
Schwenker et al. | Echo state networks and neural network ensembles to predict sunspots activity | |
KR20210057430A (ko) | 스파이킹 뉴럴 네트워크를 위한 하이퍼 파라미터 최적화 방법과 장치 및 이를 이용한 연산 장치 | |
Sineglazov et al. | Using a mixture of experts’ approach to solve the forecasting task | |
Danilin et al. | Monitoring the phase progression of linear chirp by applying artificial neural networks | |
Sun et al. | Reliability growth prediction method based on GA-Elman neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM1K | Utility model has become invalid (non-payment of fees) |
Effective date: 20150709 |