RU2566979C1 - Способ обучения искусственной нейронной сети - Google Patents

Способ обучения искусственной нейронной сети Download PDF

Info

Publication number
RU2566979C1
RU2566979C1 RU2014150877/08A RU2014150877A RU2566979C1 RU 2566979 C1 RU2566979 C1 RU 2566979C1 RU 2014150877/08 A RU2014150877/08 A RU 2014150877/08A RU 2014150877 A RU2014150877 A RU 2014150877A RU 2566979 C1 RU2566979 C1 RU 2566979C1
Authority
RU
Russia
Prior art keywords
hidden layer
neural network
weight
layer
mean square
Prior art date
Application number
RU2014150877/08A
Other languages
English (en)
Inventor
Владимир Сергеевич Сальников
Ван Чи Хоанг
Александр Витальевич Анцев
Original Assignee
Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Тульский государственный университет" (ТулГУ)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Тульский государственный университет" (ТулГУ) filed Critical Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Тульский государственный университет" (ТулГУ)
Priority to RU2014150877/08A priority Critical patent/RU2566979C1/ru
Application granted granted Critical
Publication of RU2566979C1 publication Critical patent/RU2566979C1/ru

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

Изобретение относится к искусственным нейронным сетям и может быть использовано для обучения нейронной сети при моделировании физических явлений технологических процессов. Техническим результатом является обеспечение гарантии сходимости и ускорения процесса обучения искусственной нейронной сети. Способ состоит в том, что передают многомерный входной вектор X=[x1, x2, … xN] в многослойную нейронную сеть со структурой: N синапсов в входном слое, один скрытый слой с Nh синапсами и Nc синапсов в выходном слое, вычисляют соответствующие кросскорреляционные и автокорреляционные функции, определяют веса скрытого и выходного слоев на основе решения системы уравнений антиградиента, причем в случае увеличения ошибки производят выбор направления изменения весов скрытого слоя путем последовательного назначения пары ближайших значений текущего веса скрытого слоя w1(j,k)=w(j,k)-ξ и w2(j,k)=w(j,k)+ξ, где 0<ξ≤0,001, и сравнивают соответствующие им изменения средней квадратичной ошибки
Figure 00000028
и
Figure 00000029
, где Е1, Е2 - значения средней квадратичной ошибки, соответствующей весам скрытого слоя w1(j,k) и w2(j,k);
Figure 00000030
- значение средней квадратичной ошибки предыдущего опыта, если ΔЕ1<ΔE2, то изменяют веса скрытого слоя в направлении уменьшения, если ΔЕ1≥ΔЕ2, то изменяют веса скрытого слоя в направлении увеличения. 5 ил.

Description

Настоящее изобретение относится к искусственным нейронным сетям и может быть использовано для обучения нейронной сети при моделировании физических явлений технологических процессов.
На существующем уровне развития техники известен способ обучения искусственной нейронной сети с учителем, широко применяемый для решения различных задач (Хайкин С. Нейронные сети: полный курс, 2-е изд.: Пер. с англ. - М.: Издательский дом «Вильяме», 2006. - 1104 с.; Галушкин А.И. Теория нейронных сетей. Кн. 1: Учебное пособие для вузов / Общая ред. А.И. Галушкина. - М.: ИПРЖР, 2000. - 416 с.). Обучение с учителем предполагает, что для каждого входного вектора существует целевой вектор, представляющий собой требуемый выход. Вместе они называются обучающей парой. Сеть обучается на некотором числе таких обучающих пар. Задается входной вектор, вычисляется выход сети и сравнивается с соответствующим целевым вектором, разность (градиент ошибки) с помощью обратной связи подается в сеть и весовые коэффициенты изменяются в направлении антиградиента, минимизирую ошибку. Векторы обучающего множества предъявляются последовательно и многократно, вычисляются ошибки и весовые коэффициенты подстраиваются для каждого вектора до тех пор, пока ошибка по всему обучающему массиву не достигнет приемлемо низкого уровня. Недостатком этого способа является отсутствие гарантии сходимости процесса обучения.
Известен способ моделирования нейрона (патент RU 2402813 C1; МПК G06N 3/06, опубл. 10.01.2014). Это способ основан на том, что в весовых блоках вычисляют квадраты евклидова расстояния от вектора входа до каждой из 2n вершин единичного n-мерного куба, затем величины, обратные этим расстояниям, перемножают соответственно с компонентами целевого вектора, после чего суммируют в сумматоре и преобразуют в активационном блоке функцией активации. Способ моделирования нейрона принимается для обеспечения возможности реализации любой заданной булевой логической функции неравнозначности из полного их набора от n переменных. Необходимо отметить, что в данном способе рассматриваются булевы (переменные и значения функции - двоичные, 0 и 1) логические функции, а их аппроксимации с помощью нейронной сети представляют собой непрерывные функции. Области их определения (входы нейронной сети) и значения (выходы нейронной сети) представляют непрерывный отрезок. Булевы функции являются частным случаем соответствующих нейросетевых функций. Сложность алгоритма обучения данного способа определяется достаточно большим числом вычислительных операций в процессе обучения. Таким образом, данный способ имеет недостатки: узкая область применения, ограниченная количеством рассматриваемых булевых функций; процесс обучения может занимать длительные времени и не гарантирует сходимости, особенно при большом числе входов (n≥3).
Известен также способ обучения искусственной нейронной сети (патент РФ 2504006; МПК G06N 3/08, опубл. 27.10.2010). Данный способ предназначен для решения задач классификации объектов при отсутствии статистически достаточного ряда наблюдений исследуемых объектов. Сущность этого способа заключается в том, что обучающие векторы формируют на основе знаний экспертов в рассматриваемой области. Эксперты последовательно определяют классы исследуемых объектов, к которым относятся сгенерированные с помощью генератора псевдослучайных чисел обучающие векторы входных сигналов искусственной нейронной сети. Созданные компьютером их визуальные образы, наглядно описывают объекты, задаваемые сгенерированными обучающими векторами. Недостатком данного способа является узкая область применения, ограниченная решением задач классификации объектов.
Наиболее близким к заявленному изобретению является способ оптимизации весов скрытого и выходного слоев нейронной сети, предназначенный для обучения многослойной искусственной нейронной сети персептрона (Hung-Han Chen, Michael Т. Manry And Hema Chandrasekaran, A neural network training algorithm utilizing multiple set of linear equations. Neurocomputing, vol. 40, No. 1, January 1992, pp. 202-210). Это способ заключается в том, что в ходе процедуры обучения после последовательной передачи многомерного входного вектора Χ=[x1, x2, … xN] в многослойную нейронную сеть (со структурой: N синапсов во входном слое, один скрытый слой с Nh синапсами и Nc синапсов в выходном слое, вычисляют соответствующие кросскорреляционные и автокорреляционные функции, и далее определяют веса скрытого и выходного слоев на основе решения системы уравнений для антиградиента для минимизации средней квадратичной ошибки между выходными значениями нейронной сети и их желаемыми значениями. Сущность данного способа заключается в выполнении следующих действий:
1. Ввести структуру нейронной сети и параметры обучения, то есть: значения размерности входного Ν, скрытого Nh и выходного слоев Nc; количество примеров обучающих данных Nv, число опытов Nit и допустимое значение ошибки Емин.
2. Для начального значения опыта, инициализировать все веса у всех слоев с помощью функции генерации случайных чисел в диапазоне от 0 до 1. Пусть it=0, где it - счет опыта.
3, 4. Увеличить значение опыта it на 1. При условии it>Nit или значении средней квадратичной ошибки, меньшем допустимой ошибки
Figure 00000001
, где Nit - число опытов, перейти на шаг 16.
5, 6. Передать данные для обучения нейронной сети. Для каждого входного вектора рассчитать выходные значения каждого j-го синапса скрытого слоя нейронной сети Op(j), а также значения кросскорреляционной RTO(m) и автокорреляционной ROO(k, m) функций выходного слоя следующим образом:
Figure 00000002
Figure 00000003
Figure 00000004
Figure 00000005
1≤p≤Nv, 1≤i≤N, 1≤j≤Nh
где netp(j) - входное значение j-го синапса скрытого слоя; w(j, i) - вес от i-го синапса входного слоя в j-м синапсе скрытого слоя; f1 - функция активации скрытого слоя; xp(i) - входное значение i-го синапса входного слоя; N, Nh, Nv - размерность входного слоя, скрытого слоя и обучающих данных соответственно; ytp - желаемое выходное значение нейронной сети; Xp(k) - входное значение k-го синапса выходного слоя; p - индекс примера обучающих данных; k - индекс входного значения в выходном слое; m - текущий индекс входного значения в выходном слое, 1≤k, m≤Nu, Nu=1+N+Nh.
Figure 00000006
7. Решить систему линейных уравнений для определения весов выходного слоя
Figure 00000007
где wo(k) - вес синапса выходного слоя от k-го из Nu суммарных синапсов входного и скрытого слоев.
8. Рассчитать значение выходной величины и среднюю квадратичную ошибку Е:
Figure 00000008
Figure 00000009
где yop - выходное значение нейронной сети.
9, 10. При i≥2, сравнивать текущее значение
Figure 00000010
с значением
Figure 00000011
предыдущего опыта, если ошибка увеличивается, то перейти на шаг 15. В противном случае перейти на шаг 11.
11. Определить значения кросскорреляционной и автокорреляционной (RδO(j, k) и ROO(j, m)) функций для скрытого слоя следующим образом:
Figure 00000012
Figure 00000013
где δpo и δp(j) - дельта-функции выходного и скрытого слоев соответственно.
Figure 00000014
Figure 00000015
где k - индекс входного значения в скрытом слое; m - случайный индекс входного значения в скрытом слое, 1≤j, k, m≤Nh.
12. Решить систему линейных уравнений для определения изменения весов скрытого слоя следующим образом:
Figure 00000016
где e(j, k) - изменение веса скрытого слоя, соответствующее весу w(j, k).
13. Рассчитать шаг обучения Z по следующей формуле:
Figure 00000017
где 0<α<0,1.
14. Обновить веса скрытого слоя по следующей формуле и перейти на шаг 3 (новый опыт):
Figure 00000018
15. Уменьшить шаг обучения на 2 раза и перейти на шаг 14.
16. Вывести все веса всех слоев нейронной сети и остановить процесс обучения.
Недостаток этого способа - отсутствие гарантии того, что ошибка будет уменьшаться с каждым шагом обучения. Данный способ изменяет веса скрытого слоя в направлении их уменьшения в случае увеличения ошибки. Это приводит к возрастанию времени процесса обучения.
Задачей, на решение которой направлено заявляемое изобретение, является обеспечение гарантии сходимости и ускорения процесса обучения искусственной нейронной сети.
Данная задача решается за счет того, что в заявленном изобретении оптимизация весов скрытого и выходного слоев производится с учетом направления изменения весов скрытого слоя в случае увеличения ошибки.
Способ обучения искусственной нейронной сети, характеризующийся тем, что: передают многомерный входной вектор Х=[х1, х2, … ,xN] в многослойную нейронную сеть со структурой: N синапсов в входном слое, один скрытый слой с Nh синапсами и Nc синапсов в выходном слое; вычисляют соответствующие кросскорреляционные и автокорреляционные функции; далее определяют веса скрытого и выходного слоев на основе решения системы уравнений антиградиента, причем дополнительно производят выбор направления изменения весов скрытого слоя путем последовательного назначения пары ближайших значений текущего веса скрытого слоя w1(j, k)=w(j, k)-ξ и w2(j, k)=w(j, k)+ξ, где 0<ξ≤0,001, и сравнивают соответствующие им изменения средней квадратичной ошибки
Figure 00000019
и
Figure 00000020
, где Е1, Е2 - значения средней квадратичной ошибки, соответствующей весам скрытого слоя w1(j, k) и w2(j, k),
Figure 00000021
- значение средней квадратичной ошибки предыдущего опыта, если ΔЕ1<ΔE2, то изменяют веса скрытого слоя в направлении уменьшения, если ΔЕ1≥ΔЕ2, то изменяют веса скрытого слоя в направлении увеличения.
Структурная схема для способа обучения искусственной нейронной сети (фиг. 1) содержит: блок питания 1, на который поступает многомерный входной вектор. Выход блока питания 1 соединен с входом блока вычислители 2, на котором вычисляют кросскорреляционные и автокорреляционные функции. Выход блока вычислители 2 является входом блока весов 3, выход которого соединен с входом блока выхода 4. В весовом блоке 3 определяют веса скрытого и выходного слоев нейронной сети. Выходные значения и их соответствующие ошибки определяют в блоке 4. Выход блока 4 соединен с входом блока корректировки 5 с обратной связью. На основе оценки средней квадратичной ошибки, которые определяются в блоке 4, производят выбор направления изменения весов скрытого слоя нейронной сети. Выход блока 5 соединен со вторым входом блока 3. Выход блока 4 является выходом нейронной сети в условии достижения допустимой минимальной средней квадратичной ошибки.
Техническим результатом, обеспечиваемым приведенной совокупностью признаков, является уменьшение времени обучения, средней квадратичной ошибки (Е), и объема выборки при гарантии сходимости процесса обучения.
Сущность изобретения поясняется чертежами, на которых изображено:
На фиг. 1 - структурная схема для способа обучения искусственной нейронной сети;
На фиг. 2 - сравнение эффективности использования двух способов обучения искусственной нейронной сети (предложенный способ и его прототип) на примере обучения теплового процесса в зоне резания.
На фиг. 3- 5 - результаты обучения теплового процесса в зоне резания.
Способ обучения искусственной нейронной сети осуществляется следующим образом:
1. Вводим структуру нейронной сети и параметры обучения.
2. Для начального значения опыта, инициализируем все веса у всех слоев с помощью функции генерации случайных чисел в диапазоне от 0 до 1. Пусть it=0.
3. 4. Увеличиваем значение опыта it на 1. При условии it>Nit или значении средней квадратичной ошибки, меньшем допустимой ошибки
Figure 00000001
, переходим на шаг 18.
5, 6. Передаем данные для обучения нейронной сети. Для каждого входного вектора рассчитаем выходные значения каждого j-го синапса скрытого слоя нейронной сети Op(j), а также значения кросскорреляционной RTO(m) и автокорреляционной ROO(k, m) функций выходного слоя по формулам (1)-(5).
7. Решаем систему линейных уравнений (6) для определения весов выходного слоя.
8. Рассчитаем значение выходной величины и среднюю квадратичную ошибку Е по формулам (7)-(8).
9, 10. При i≥2, сравниваем текущее значение
Figure 00000022
со значением
Figure 00000023
предыдущего опыта, если ошибка увеличивается, то переходим на шаг 15. В противном случае переходим на шаг 11.
11. Определяем значения кросскорреляционной и автокорреляционной (RδO(j, k) и ROO(j, m)) функций для скрытого слоя по формулам (9)-(12).
12. Решаем систему линейных уравнений (13) для определения изменения весов скрытого слоя.
13. Рассчитаем шаг обучения по формуле (14).
14. Обновляем веса скрытого слоя по формуле (15) и переходим на шаг 3 (новый опыт).
15, 16. Проверяем условие «выбрано ли направление изменения весов?». Если «да», то переходим на шаг 17, если «нет» то выполняем выбор направления.
Выбираем направления изменения весов скрытого слоя путем последовательного назначения пары ближайших значений текущего веса скрытого слоя (w1(j, k)=w(j, k)-ξ и w2(j, k)=w(j, k)+ξ, где 0<ξ≤0,001) и сравнения соответствующих им изменений средней квадратичной ошибки ΔЕ1 и ΔЕ2
Figure 00000024
где Е1, Е2 - значения средней квадратичной ошибки, соответствующей весам скрытого слоя w1(j, k) и w2(j, k), вычисляются путем выполнения шагов 5-8.
Если ΔЕ1<ΔE2, то изменяем веса скрытого слоя в направлении уменьшения. Если ΔΕ1≥ΔE2, то изменяем веса скрытого слоя в направлении увеличения.
17. Изменяем скрытые веса в выбранном на 16-м шаге направлении и переодим на шаг 5.
18. Выводим все веса всех слоев нейронной сети и остановим процесс обучения.
Рассмотрим пример реализации способа обучения искусственной нейронной сети для теплового процесса в зоне резания. Используем нейронную сеть, которая имеет 6 входов (скорость - V, подача - S, глубина резания - t, теплопроводность обрабатываемого материала - λ, главный угол в плане - φ и радиус закругления вершины резца - r) и 1 выход (температура резания). Данные для обучения нейронной сети взяты из экспериментальных данных, которые получены при проведении 64 опытов. Условие проведенных опытов: точения вала диаметра 40 мм из Ал 6061 на токарном станке Kirloska Turnmaster-35 (мощность 2,2 кВт) проходным резцом быстрорежущей стали Р9 (главный угол в плане φ=45°, передний угол γ=0°, задний угол α=12°, радиус закругления 3 мм) со следующими режимами: V=100…200 м/мин; S=0,05…0,1 мм/об; t=0,25…0,1 мм.
Из фиг. 2 видно, что значение средней квадратичной ошибки достигается допустимых значений при числе нейронов в скрытом слое Nh≥60. В этом случае оно в два раза меньше и время обучения в пять раз меньше по предложенному способу по сравнению с прототипом.
Результаты обучения теплового процесса в зоне резания с помощью нейронной сети соответствуют результатом исследования, приведенным в литературных источниках (Макаров А.Д. Оптимизация процессов резания. - М.: Машиностроение, 1976. - 278 с.; Резников А.Н., Резников Л.А. Тепловые процессы в технологических системах. - М.: Машиностроение, 1990. - 288 с.).
Предложенное техническое решение позволяет ускорить процесс обучения искусственной нейронной сети в два раза и уменьшить ошибку в пять раз по сравнению с его прототипом.

Claims (1)

  1. Способ обучения искусственной нейронной сети, характеризующийся тем, что передают многомерный входной вектор X=[x1, x2,…,xN] в многослойную нейронную сеть со структурой: N синапсов в входном слое, один скрытый слой с Nh синапсами и Nc синапсов в выходном слое, вычисляют соответствующие кросскорреляционные и автокорреляционные функции, определяют веса скрытого и выходного слоев на основе решения системы уравнений антиградиента, отличающийся тем, что дополнительно производят выбор направления изменения весов скрытого слоя путем последовательного назначения пары ближайших значений текущего веса скрытого слоя w1(j, k) = w(j, k) - ξ и w2(j, k) = w(j, k) + ξ, где 0<ξ≤0,001, и сравнивают соответствующие им изменения средней квадратичной ошибки Δ E 1 = E 1 E i t 1
    Figure 00000025
    и Δ E 2 = E 2 E i t 1
    Figure 00000026
    , где Е1, Е2 - значения средней квадратичной ошибки, соответствующей весам скрытого слоя w1(j, k) и w2(j, k); E i t 1
    Figure 00000027
    - значение средней квадратичной ошибки предыдущего опыта, если ΔЕ1<ΔЕ2, то изменяют веса скрытого слоя в направлении уменьшения, если ΔЕ1≥ΔЕ2, то изменяют веса скрытого слоя в направлении увеличения.
RU2014150877/08A 2014-12-15 2014-12-15 Способ обучения искусственной нейронной сети RU2566979C1 (ru)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2014150877/08A RU2566979C1 (ru) 2014-12-15 2014-12-15 Способ обучения искусственной нейронной сети

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2014150877/08A RU2566979C1 (ru) 2014-12-15 2014-12-15 Способ обучения искусственной нейронной сети

Publications (1)

Publication Number Publication Date
RU2566979C1 true RU2566979C1 (ru) 2015-10-27

Family

ID=54362450

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2014150877/08A RU2566979C1 (ru) 2014-12-15 2014-12-15 Способ обучения искусственной нейронной сети

Country Status (1)

Country Link
RU (1) RU2566979C1 (ru)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2641447C1 (ru) * 2016-12-27 2018-01-17 Общество с ограниченной ответственностью "ВижнЛабс" Способ обучения глубоких нейронных сетей на основе распределений попарных мер схожести
RU2674326C2 (ru) * 2017-02-20 2018-12-06 Автономная некоммерческая образовательная организация высшего образования "Сколковский институт науки и технологий" Способ формирования архитектуры нейросети для классификации объекта, заданного в виде облака точек, способ ее применения для обучения нейросети и поиска семантически схожих облаков точек
RU2710942C1 (ru) * 2018-12-06 2020-01-14 Самсунг Электроникс Ко., Лтд. Одновременное распознавание атрибутов лиц и идентификации личности при организации фотоальбомов
RU2716322C2 (ru) * 2018-03-23 2020-03-11 Общество с ограниченной ответственностью "Аби Продакшн" Репродуцирующая аугментация данных изображения
US11222196B2 (en) 2018-07-11 2022-01-11 Samsung Electronics Co., Ltd. Simultaneous recognition of facial attributes and identity in organizing photo albums
RU2811535C2 (ru) * 2019-02-28 2024-01-15 Мицубиси Электрик Корпорейшн Устройство обработки данных, система обработки данных и способ обработки данных

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2459254C2 (ru) * 2007-04-27 2012-08-20 Сименс Акциенгезелльшафт Способ компьютеризованного обучения одной или более нейронных сетей
RU2504006C1 (ru) * 2012-06-05 2014-01-10 Александр Николаевич Цуриков Способ обучения искусственной нейронной сети

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2459254C2 (ru) * 2007-04-27 2012-08-20 Сименс Акциенгезелльшафт Способ компьютеризованного обучения одной или более нейронных сетей
RU2504006C1 (ru) * 2012-06-05 2014-01-10 Александр Николаевич Цуриков Способ обучения искусственной нейронной сети

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Hung-Han Chen, Michael Т. Manry And Hema Chandrasekaran, A neural network training algorithm utilizing multiple set of linear equations. Neurocomputing, vol. 40, No. 1, January 1992, pp. 202-210. *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2641447C1 (ru) * 2016-12-27 2018-01-17 Общество с ограниченной ответственностью "ВижнЛабс" Способ обучения глубоких нейронных сетей на основе распределений попарных мер схожести
RU2674326C2 (ru) * 2017-02-20 2018-12-06 Автономная некоммерческая образовательная организация высшего образования "Сколковский институт науки и технологий" Способ формирования архитектуры нейросети для классификации объекта, заданного в виде облака точек, способ ее применения для обучения нейросети и поиска семантически схожих облаков точек
RU2716322C2 (ru) * 2018-03-23 2020-03-11 Общество с ограниченной ответственностью "Аби Продакшн" Репродуцирующая аугментация данных изображения
US11222196B2 (en) 2018-07-11 2022-01-11 Samsung Electronics Co., Ltd. Simultaneous recognition of facial attributes and identity in organizing photo albums
RU2710942C1 (ru) * 2018-12-06 2020-01-14 Самсунг Электроникс Ко., Лтд. Одновременное распознавание атрибутов лиц и идентификации личности при организации фотоальбомов
RU2811535C2 (ru) * 2019-02-28 2024-01-15 Мицубиси Электрик Корпорейшн Устройство обработки данных, система обработки данных и способ обработки данных

Similar Documents

Publication Publication Date Title
RU2566979C1 (ru) Способ обучения искусственной нейронной сети
Carpenter et al. A comparison of polynomial approximations and artificial neural nets as response surfaces
Permana et al. Fuzzy membership function generation using particle swarm optimization
Liu et al. A fault diagnosis intelligent algorithm based on improved BP neural network
Lun et al. The modified sufficient conditions for echo state property and parameter optimization of leaky integrator echo state network
Anochi et al. Self-configuring two types of neural networks by mpca
CN105911865A (zh) 一种pid控制器的控制方法
Pal Deep learning parameterization of subgrid scales in wall-bounded turbulent flows
Akritas et al. Identification and prediction of discrete chaotic maps applying a Chebyshev neural network
CN114266387A (zh) 一种输变电工程工期预测方法、系统、设备及存储介质
Rohman et al. Predicting medicine-stocks by using multilayer perceptron backpropagation
Filippov et al. Radial basis function networks learning to solve approximation problems
Dawy et al. The most general intelligent architectures of the hybrid neuro-fuzzy models
Sari et al. Comparison of ANFIS and NFS on inflation rate forecasting
Nakano et al. Reduction of catastrophic forgetting in multilayer neural networks trained by contrastive Hebbian learning with pseudorehearsal
Lin et al. Design of a recurrent functional neural fuzzy network using modified differential evolution
Matulja et al. Application of an artificial neural network to the selection of a maximum efficiency ship screw propeller
Lim et al. Approximate greatest descent in neural network optimization
Alonso-Rodriguez Forecasting economic magnitudes with neural network models
Kausar et al. UNDERSTANDING AND STUDY OF WEIGHT INITIALIZATION IN ARTIFICAL NEURAL NETWORKS WITH BACK PROPAGATION ALGORITHM
Matulja et al. Neural network selection of a maximum efficiency ship screw propeller
Chen et al. Intelligent Decision System Based on SOM-LVQ Neural Network for Soccer Robot
Khan et al. The prediction of ship motions and attitudes using artificial neural networks
Huang et al. Evolving product unit neural networks with particle swarm optimization
Kar et al. Artificial neural networks and learning techniques

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20161216