RU2727080C2 - Построение нейронной сети на основе нейронов с функциональным преобразованием произвольного вида для входных сигналов - Google Patents

Построение нейронной сети на основе нейронов с функциональным преобразованием произвольного вида для входных сигналов Download PDF

Info

Publication number
RU2727080C2
RU2727080C2 RU2018117355A RU2018117355A RU2727080C2 RU 2727080 C2 RU2727080 C2 RU 2727080C2 RU 2018117355 A RU2018117355 A RU 2018117355A RU 2018117355 A RU2018117355 A RU 2018117355A RU 2727080 C2 RU2727080 C2 RU 2727080C2
Authority
RU
Russia
Prior art keywords
neural network
neuron
function
training
values
Prior art date
Application number
RU2018117355A
Other languages
English (en)
Other versions
RU2018117355A3 (ru
RU2018117355A (ru
Inventor
Иван Иванович ПРИЕЗЖЕВ
Original Assignee
Общество с ограниченной ответственностью "Лаборатория Приезжева"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Общество с ограниченной ответственностью "Лаборатория Приезжева" filed Critical Общество с ограниченной ответственностью "Лаборатория Приезжева"
Priority to RU2018117355A priority Critical patent/RU2727080C2/ru
Publication of RU2018117355A3 publication Critical patent/RU2018117355A3/ru
Publication of RU2018117355A publication Critical patent/RU2018117355A/ru
Application granted granted Critical
Publication of RU2727080C2 publication Critical patent/RU2727080C2/ru

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/086Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Physiology (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Abstract

Изобретение относится к области вычислительных систем и может быть использовано для построения нейронных сетей для временного или пространственного прогноза параметров изучаемых объектов или распознавания образов. Техническим результатом является увеличение степени свободы отдельных нейронов и тем самым уменьшение глубины сети. Вычислительная система реализована на основе нейронной сети, которая включает хотя бы один нейрон, использующий функциональную трансформацию произвольного вида, заданной в виде таблицы (массива) пар соответствия входных данных и выходной функции для каждого входного сигнала с последующим их суммированием, при этом значения табличных функций трансформации подбираются стохастическим образом на основе генетического алгоритма при обучении нейронной сети. 1 з.п. ф-лы, 5 ил.

Description

Искусственные нейронные сети - это эффективный инструмент для решения множества задач интеллектуального анализа данных с очень широким спектром применения в различных производственных отраслях. Основным элементом классических искусственных нейронных сетей является математический нейрон, формулу которого можно выразить как нелинейное преобразование взвешенной суммы входных сигналов с помощью активационной функции, как показано в уравнении 1.
Figure 00000001
где n - количество входов нейрона, xi - значения входных сигналов нейрона, wi - весовые коэффициенты, f() - нелинейная функция активации, у - выходное значение нейрона.
Активационная функция предназначена для включения (усиления влияния) или выключения (подавления влияния) отдельных входов нейрона, которая обычно имеет вид сглаженной ступенчатой функции, как сигмоидная функция или подобная ей. Если применить ступенчатую функцию (релейную функцию со значениями 0 или 1), то некоторые входы в нейрон будут полностью выключены или включены. Если применить линейную функцию, то нейрон превращается в линейный оператор типа множественная регрессия. В последнем случае есть возможность получить весовые коэффициенты в процессе обучения путем решения системы линейных уравнений на основе массива с известными входами и соответствующими им выходами.
Для обученного нейрона весовые коэффициенты и вид активационной функции являются константами данного нейрона в процессе вычислений, и они должны быть определены в процессе обучения.
В качестве входа нейрона понимается некий набор чисел или вектор, описывающий изучаемый объект. Если подавать последовательно несколько различных векторов на вход нейрона, то каждому из них будет соответствовать уникальный выход. Если эти вектора описывают изменение изучаемого объекта во времени (например, ежедневное изменение курса разных валют в рублях), то в этом случае их можно назвать сигналом, поданного на вход нейрона. Так как мы всегда подразумеваем подачу разных векторов на вход нейрона, то удобно называть такой поток сигналом.
В общем виде нейронную сеть образуют хаотически соединенные нейроны, когда выходы одних нейронов являются входами других нейронов с возможными обратными связями, когда сигнал полученный на выходе некоторого нейрона может быть подан на него как один из возможных входных сигналов, в том числе, когда этот выходной сигнал пройдет через несколько других нейронов. Для таких нейронных сетей общие алгоритмы обучения не разработаны и в настоящее время имеется только несколько частных случаев, для которых имеются теоретические исследования и реализации.
Нейронные сети без обратных связей можно представить в виде многослойной конструкции. Входы иногда называют входным слоем или просто входами. Количество выходных нейронов может быть единичным или больше в соответствии с количеством выходов нейронной сети. Промежуточные слои нейронов между входным слоем и выходными нейронами называют скрытыми слоями. Количество скрытых слоев определяют глубину нейронной сети и, соответственно, ее степень свободы по преобразованию входных сигналов.
Входной вектор подается на входы всех нейронов в первом скрытом слое и все выходы этих нейронов подаются на входы следующего слоя и так далее до выходного слоя.
При использовании нейронных сетей всегда имеется два этапа. Первый этап - это обучение нейронных сетей, когда определяются все ее коэффициенты при заданной ее конфигурации (геометрии связей) - количество входов, количество скрытых слоев, количество нейронов в каждом скрытом слое и количество выходов. Для классических нейронных сетей должен быть определен тип активационной функции, обычно один для всех нейронов. Для обучения используется обучающее множество в виде массива обучающих пар, входной вектор и соответствующим им выходной вектор. В процессе обучения необходимо минимизировать объектную (целевую) функцию, обычно в виде суммы квадратов ошибок - как квадрат разницы вычисленного выхода с текущими весовыми коэффициентами и заданными выходами в обучающих парах.
Чтобы построить классическую нейронную сеть, как правило, используются два основных метода обучения. В первую очередь - это алгоритм обратного распространения ошибки, который является типичным градиентным методом. Второй способ обучения нейронной сети использует стохастические алгоритмы, например, генетические алгоритмы или алгоритм имитации отжига. Все эти способы имеют множество модификаций и могут комбинироваться.
В общем случае, задачу обучения нейронных сетей можно отнести к типичным некорректным задачам - многозначности и неустойчивости решений, а также к возможному отсутствию решения. Например, если количество обучающих пар меньше, чем количество неизвестных весовых коэффициентов, то возникает возможность многозначности такого решения. Если обучающие пары имеют сильную корреляцию и некоторые обучающие пары могут быть вычислены через другие путем линейных операций, то может вообще не
существовать такой нейронной сети для такого обучающего множества. Одним из общепризнанных подходов стабилизации решения для этих методов обучения нейронных сетей является регуляризация по Тихонову (см. [1] Тихонов А.Н., Арсенин В.Я. Методы решения некорректных задач. М.: Наука. Главная редакция физико-математической литературы, 1979. Изд. 2-е. - 288 с). При использовании регуляризации по Тихонову возникает необходимость применения дополнительного члена для целевой функции, которая, как правило, может быть суммой квадратов для всех коэффициентов в операторе прогнозирования, что не позволяет этому коэффициенту быть большим.
Общеизвестно, что для обеспечения достаточной степени свободы нейронной сети требуется использование большей ее глубины, то есть большего количества скрытых слоев, что повлечет увеличение вычислительных затрат и может существенно влиять на качество обучения. Очевидно, что этот недостаток напрямую зависит от динамической ограниченности математической формулы классического нейрона, который использует нелинейные активационные функции сигмоидальной формы к взвешенным суммам входных сигналов.
СУЩНОСТЬ ИЗОБРЕТЕНИЯ
Для построения вычислительной системы обработки входных векторных данных для временного или пространственного прогноза выходного вектора параметров или распознавания образов на основе нейронных сетей предлагается использовать новый тип математического нейрона, где постоянные коэффициенты для каждого входа заменяются на произвольные функции, которые выполняют трансформацию входных данных перед суммированием. Собственно трансформацию входных данных для каждого входного сигнала предлагается выполнять в виде таблицы (массива) соответствия входных значений сигнала и выходных значений произвольной функции. Такой нейрон можно назвать как т-нейрон (нейрон на основе функциональной трансформации). Конструкция нейронной сети с включениями т-нейронов предлагается в виде классического многослойного персептрона без обратных связей. Также предлагается применение смешанных нейронных сетей с участием традиционных нейронов и т-нейронов. Для обучения такой нейронной сети предлагается использовать генетический алгоритм или/и градиентный алгоритм на основе гибрида обратного распространения ошибки и метода настройки с возвращениями (backfitting). Применение произвольных функций трансформации на входе т-нейрона значительно увеличивает его степень свободы и тем самым увеличивает возможность нейронных сетей, построенных с использованием таких нейронов, выполнять нелинейные прогнозные построения и обеспечивать уверенное распознавание образов с меньшей глубиной нейронной сети и с меньшим общим количеством используемых нейронов.
Данный раздел сущности изобретения не ставит цель дать полное описание построения системы обработки векторных данных для временного или пространственного прогноза выходного вектора параметров или распознавания образов (классификации) на основе нейронных сетей или дать исчерпывающий перечень признаков и элементов. Ниже дано подробное описание с примерами реализации.
КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙ
Изобретение поясняется описанием со ссылками на чертежи, на которых:
фиг. 1 изображает схему обработки входных векторов (изображения или набор измеренных параметров процесса во времени или в пространстве) для прогноза параметров или для распознавания образов (классификации);
фиг. 2 - схема классического математического нейрона как нелинейный сумматор ƒ(S) с функцией активации ƒ для нескольких входных сигналов;
фиг. 3 - схема предлагаемого математического т-нейрона в виде нелинейного сумматора S трансформированных входных сигналов с помощью произвольных функций ƒi(xi);
фиг. 4 - схема табличного задания функции yii(xi) в виде таблицы (массива) пар соответствия xi-yi, где xi - входные значения, yi - выходные значения;
фиг. 5 - графики сравнения точного и прогнозного параметра Y для прогнозного оператора на основе нейронных сетей с использованием предлагаемого математического т-нейрона; слева график по набору данных 1, которые использовались для обучения и справа по набору данных 2, которые не использовались для обучения. Точками обозначены значения точного и прогнозного параметра, обозначенные как Y и Y прогноз, и черная линия показывает линейную регрессию, максимально аппроксимирующую положения точек точного и прогнозного параметра.
ПОДРОБНОЕ ОПИСАНИЕ ИЗОБРЕТЕНИЯ
В данном изобретении приводится описание вычислительной системы и способ прогноза параметров во времени или в пространстве, или для распознавания образов (классификации) входных данных на основе нейронных сетей. Пример такой системы показан на фиг. 1. Вычислительная система 100 может быть компьютером, компьютерной сетью или любым устройством, как минимум имеющее процессор 101, запоминающее устройство 102 с загруженным программным кодом нейронных сетей 107, устройство ввода данных 103 и устройство вывода данных 104. На вход вычислительной системы 103 подаются входные данные 105 в виде многомерных векторов параметров описания изучаемых объектов. На выходе системы 104 будут выходные данные 106 в виде вектора прогнозных параметров или номер класса, к которому относится входной объект. Все вычисления выполняются с помощью программного кода нейронных сетей 107, который выполняет преобразование входных данных и формирует выходные данные. Основной целью изобретения является увеличение степени свободы отдельных нейронов и тем самым, уменьшение глубины сети (количества скрытых слоев), а также увеличение скорости вычислений нейронной сети.
Предлагаемая нейронная сеть использует новый тип математического нейрона, где постоянные коэффициенты wi классического нейрона для каждого входа заменяются на произвольные функции вида ƒi(xi). Такой нейрон мы называем т-нейрон (нейрон с функциями трансформации). Сравнение классических нейронов (фиг. 2) с весовым суммированием и применением активационной функцией к этой сумме, а также т-нейронов (фиг. 3), которые выполняют трансформацию входных данных перед суммированием, показано на фиг. 2 и 3. В т-нейронах не применяются активационные функции, так как нет необходимости вносить дополнительную искусственную нелинейность сумматора. Математически предлагаемый т-нейрон можно описать с помощью формулы 2.
Figure 00000002
Функция трансформации входных сигналов ƒi(xi) задается как численная конструкция в табличном виде соответствия входных значений xi и выходных значений функции (массива пар): значение аргумента - значение функции как показано на фиг. 4. Длина такого массива определяет количеством таких пар. Для однозначного определения функции этот массив должен быть отсортирован по аргументу. С другой стороны, для однозначного определения аргумента по значениям функции массив должен быть отсортирован по значениям функции. Такой вариант сортировки соответствует численному варианту обратной функции ƒ'.
Получение значения функции по заданному аргументу выполняется с помощью линейной интерполяции по формуле 3.
Figure 00000003
где х - заданное значение аргумента и ƒ вычисленное значение функции
х1, х2 найденные значения аргумента в двух парах, где х>х1 и х<х2.
ƒ1, ƒ2 соответствующие х1, х2 значения функции.
Аналогично формуле 3, можно вычислять значения аргумента по заданным значениям функции, применяя сортировку массива по значения функции. Можно также применять другие схемы интерполяции, например, на основе степенных полиномов или сплайнов.
Размер массива, определяющий функцию трансформации, может быть определен как единый для всей нейронной сети и будет определять степень нелинейности нейронов. Если определить эту функцию двумя парами, то функция трансформации будет линейной. Три пары могут определять функцию трансформации в виде полинома второй степени (при применении соответствующей интерполяции). Также следует ограничить максимальное число таких пар чтобы, с одной стороны, минимизировать количество неизвестных и общего размера используемой памяти и с другой стороны - для построения достаточно гибкой нейронной сети с большой степенью свободы.
Конструкция нейронной сети предлагается в виде классического многослойного персептрона без обратных связей. Единственное отличие предлагаемой нейронной сети от классической заключается в применении т-нейронов. Не исключается применение смешанных нейронных сетей, с участием традиционных нейронов и т-нейронов. Например, такое сочетание может применяться при построении глубоких сверточных (конволюционных) нейронных сетей, когда первые слои используют традиционные нейроны с активационными функциями, а в завершающих слоях применятся т-нейроны.
Для обучения предлагаемых нейронных сетей на основе т-нейронов также можно использовать все классические методы обучения. Кроме этого, нами ранее предложено гибридная комбинация градиентных и генетических алгоритмов при обучении классических нейронных сетей (см. [2] Kobrunov А. and Priezzhev I., 2016, Hybrid combination genetic algorithm and controlled gradient method to train a neural network, GEOPHYSICS, VOL. 81, NO. 4, 1-9). Подобная схема обучения также может быть применена для нейронных сетей на т-нейронах. При использовании алгоритма обратного распространения ошибки необходимо численное вычисление производной функции для всех функций трансформации.
Если рассматривать отдельный т-нейрон, то используемый итерационный метод Ньютона для коррекции функций трансформации на основе известной ошибки может быть описан формулой 4. На начальном этапе все значения функций трансформации для каждого входа инициируются случайными значениями и затем выполняется вычисление т-нейрона и на основе полученной ошибки итерационно вычисляется коррекция функций трансформации.
Figure 00000004
где
Figure 00000005
значение функции трансформации для i-гo входа т-нейрона для j-й пары в массиве описание его функции трансформации.
Верхний индекс l обозначает текущий номер итерации и l - 1 и l - 2 обозначают родительские и прародительские значения функции трансформации или выходов т-нейрона.
уl-1 есть текущее значение выхода т-нейрона и в знаменателе (уl-1 -
Figure 00000006
) есть значение текущей ошибки как разницы родительских и прародительских значений.
Вычисление значений ошибки для выходного слоя нейронной сети вычисляется как разница вычисленных значений сети и значений в обучающих парах. Для всех остальных слоев значения ошибки вычисляется путем ее пропорционального распределения согласно классического алгоритма обратного распространения ошибки.
При использовании алгоритма на основе генетических алгоритмов или, как вариант, гибридная комбинация генетических и градиентных алгоритмов для обучения предлагаемой нейронной сети должны выполняется следующие шаги.
1. Создать первоначальное поколение нейронных сетей в виде нескольких их вариантов с коэффициентами на основе случайной функции.
2. Сделать выборку небольшого количества лучших вариантов нейронных сетей с наименьшими объектными функциями. (Этап селекции генетического алгоритма.)
3. Создать следующее поколение нейронных сетей на основе выбранных в соответствии со следующими правилами:
• Кросс обмен: обмен коэффициентами между двумя случайно выбранными объектами.
• Мутация: Добавление небольших значений в коэффициенты нейронных сетей.
4. Применение одной итерации градиентного метода для одной нейронной сети в соответствии с значениями коэффициентов на предыдущих итерациях.
Повторение шагов 2, 3 и 4 до тех пор, пока объектная функция не станет достаточно маленькой или не будет достигнуто максимальное количество итераций. Шаг 4 необходим только для гибридной комбинации генетических и градиентных алгоритмов.
Предложенная процедура позволяет избежать многих недостатков классических генетических алгоритмов, особенно их низкой скорости сходимости и наличия случайного фактора для точного попадания в точку минимума объектной функции. Предложенная процедура также позволяет избежать многих недостатков градиентных методов, таких как высокий уровень зависимости от начальных значений и нахождения локального минимума ближайшего к этим значениям.
Кроме классических методов обучения на основе градиентных и генетических алгоритмов для определения функций трансформации может быть использован метод настройки с возвращениями (backfitting), предложенным Breiman and Friedman (см. [3] Breiman, L. and J.H. Friedman, 1985, Estimating optimal transformations for multiple regression and correlation. Journal of the American Statistical Association 80, 580-78). Этот метод может быть применен только в сочетании с методом обратного распространения ошибки для определения входных и выходных массивов обучения для каждого т-нейрона. Метод предполагает следующий алгоритм определения функций трансформации для минимизации ошибки оператора вида описанной в формуле 2. Эта ошибка может быть описана следующим образом (формула 5).
Figure 00000007
где суммирование по М означает суммирование по всем обучающим парам. Для определения функций ƒi авторами предложен ниже описанный алгоритм. Этот алгоритм упрощен нами и также в оригинале предполагается определение функции трансформации для выходных значений у.
1. Процедура описывает определение функций трансформации только для одного т-нейрона и на входе процедуры задается массив обучения с парами входных векторов X=(х123,…,хn) соответствующих им выходных значений у. Xi означает все значения входа из массива обучения с номером i и Y все значения выходного параметра из массива обучения.
2. Инициализация функций ƒi нулями и нормализация всех выходных значений у в виде Y/||Y|| с E[Y]=0, где ||⋅||=[Е(⋅)2]1/2 и E(⋅) обозначает математическое ожидание.
3. Цикл 1 с проверкой уменьшения ошибки ε2 заканчивается, когда ошибка становится достаточно маленькой.
a. Цикл 2 по всем входам т-нейрона (k=0, 1…, n)
i.
Figure 00000008
где верхний индекс l обозначает номер итерации.
Е[⋅|⋅] означает условное математическое ожидание.
b. Конец цикла 2.
4. Конец цикла 1.
Вычисление условного математического ожидания можно выполнять, например, по упрощенной процедуре - вычисление
Figure 00000009
как среднего значения
Figure 00000010
для всех пар из массива обучения, которые попали в интервал по входным значениям Хk±Δх, где заданный интервал.
Основными отличиями предлагаемого т-нейрона от нейрона в вычислительной системе опубликованной в [4] ([4] US 2014/0379623 А1, опубликованной 25.12.2014, G06N 3/06, на 20-и листах, описание [0019], [0050], [0052], [0054]-[0055], [0089]-[0091]), является то, что:
1. Трансформация входного сигнала в [4] предлагается выполняется только на основе гладких вогнутых аналитически заданных функций [0019], [0050], [0052], [0054]-[0055], [0089]-[0091] и в одном случае [0072] используется табличная форма задания функции трансформации, но также со ссылкой на гладкие аналитические функции, как предварительно вычисленная таблица соответствия.
2. Подбор функции трансформации в [4] предлагается выполнять, включая табличную форму задания функции трансформации, на основе минимума и максимума распределения входной функции и не связан напрямую с требуемым выходом нейрона [0019], [0050], [0052], [0054]-[0055], [0089]-[0091] по сравнению с предлагаемым способом обучения в данной патентной заявке.
3. В предлагаемом методе основная цель трансформации входного сигнала, который не является импульсным как в [4], есть адаптация каждого входа нейрона к сложным много модальным вариациям входного сигнала и выполняется только на основе табличной формы задания функции трансформации.
4. Для определения функции трансформации предлагается использование гибридного способа обучения нейронной сети, на основе совместного использования генетических алгоритмов и градиентных методов обучения, что не используется в [4].
ПРИМЕР ФУНКЦИОНИРОВАНИЯ СИСТЕМЫ
Для проверки работоспособности предлагаемых нейронных сетей с использованием т-нейронов был использован тестовый набор данных, который был сгенерирован на основе вычислений различных функций. В частности, мы использовали следующую функцию для генерации тестового набора данных.
Figure 00000011
где Y значение для прогноза,
Х1,Х2,Х3,X4,Х5 - случайные числа, вычисленные с помощью генератора случайных чисел с использованием функции random(),
norm(0,1) случайная функция с распределением от 0 до 1.
С помощью формулы 6 были вычислены 100 значений Y и Х1,Х2,Х3,Х4,Х5 (набор данных 1), которые использовались как массив для обучения. Также еще были вычислены дополнительные 100 значений Y и X1,Х2,Х3,Х4,Х5 (набор данных 2), которые использовались как массив для проверки качества полученного в процессе обучения прогнозного оператора. Оба набора данных имеют сугубо нелинейную связь между входными данными X1,Х2,Х3,Х4,X5 и выходными данными Y.
Графики сравнение точного и прогнозного параметра Y для прогнозного оператора на основе алгоритма регрессии на основе нейронных сетей с использованием т-нейронов приведены на фиг. 5; слева график по набору данных 1, которые использовались для обучения и справа по набору данных 2, которые не использовались для обучения. Близкое к линейному соответствие точных и прогнозных функций с коэффициентами корреляции более 0.9 показывает удовлетворительную работоспособность предлагаемых нейронных сетей с использованием т-нейронов.

Claims (2)

1. Вычислительная система на основе нейронной сети, которая включает хотя бы один нейрон, использующий функциональную трансформацию произвольного вида, заданной в виде таблицы (массива) пар соответствия входных данных и выходной функции для каждого входного сигнала с последующим их суммированием, отличающейся тем, что значения табличных функций трансформации подбирается стохастическим образом на основе генетического алгоритма при обучении нейронной сети.
2. Система по п. 1, отличающаяся тем, что табличные функции трансформации подбираются с помощью сочетания генетического алгоритма и градиентного алгоритма на основе метода настройки с возвращениями (backfitting) и обратного распространения ошибки.
RU2018117355A 2018-05-10 2018-05-10 Построение нейронной сети на основе нейронов с функциональным преобразованием произвольного вида для входных сигналов RU2727080C2 (ru)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2018117355A RU2727080C2 (ru) 2018-05-10 2018-05-10 Построение нейронной сети на основе нейронов с функциональным преобразованием произвольного вида для входных сигналов

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2018117355A RU2727080C2 (ru) 2018-05-10 2018-05-10 Построение нейронной сети на основе нейронов с функциональным преобразованием произвольного вида для входных сигналов

Publications (3)

Publication Number Publication Date
RU2018117355A3 RU2018117355A3 (ru) 2019-11-11
RU2018117355A RU2018117355A (ru) 2019-11-11
RU2727080C2 true RU2727080C2 (ru) 2020-07-17

Family

ID=68579352

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2018117355A RU2727080C2 (ru) 2018-05-10 2018-05-10 Построение нейронной сети на основе нейронов с функциональным преобразованием произвольного вида для входных сигналов

Country Status (1)

Country Link
RU (1) RU2727080C2 (ru)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110956259B (zh) * 2019-11-22 2023-05-12 联合微电子中心有限责任公司 一种基于正向传播的光子神经网络训练方法
CN111597551B (zh) * 2020-05-20 2024-02-27 中国科学技术大学 针对深度学习算法的侧信道攻击的防护方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5748847A (en) * 1995-12-21 1998-05-05 Maryland Technology Corporation Nonadaptively trained adaptive neural systems
RU62314U1 (ru) * 2006-12-07 2007-03-27 Владимир Юрьевич Анисимов Формальный нейрон
US20140379623A1 (en) * 2013-06-19 2014-12-25 Brain Corporation Apparatus and methods for processing inputs in an artificial neuron network
US20170290024A1 (en) * 2016-03-31 2017-10-05 Verizon Patent And Licensing Inc. Modeling network performance and service quality in wireless networks

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5748847A (en) * 1995-12-21 1998-05-05 Maryland Technology Corporation Nonadaptively trained adaptive neural systems
RU62314U1 (ru) * 2006-12-07 2007-03-27 Владимир Юрьевич Анисимов Формальный нейрон
US20140379623A1 (en) * 2013-06-19 2014-12-25 Brain Corporation Apparatus and methods for processing inputs in an artificial neuron network
US20170290024A1 (en) * 2016-03-31 2017-10-05 Verizon Patent And Licensing Inc. Modeling network performance and service quality in wireless networks

Also Published As

Publication number Publication date
RU2018117355A3 (ru) 2019-11-11
RU2018117355A (ru) 2019-11-11

Similar Documents

Publication Publication Date Title
JP7315748B2 (ja) データ識別器訓練方法、データ識別器訓練装置、プログラム及び訓練方法
Buzzard et al. Plug-and-play unplugged: Optimization-free reconstruction using consensus equilibrium
Delashmit et al. Recent developments in multilayer perceptron neural networks
Okut Bayesian regularized neural networks for small n big p data
MacKay A practical Bayesian framework for backpropagation networks
Benoudjit et al. Width optimization of the Gaussian kernels in Radial Basis Function Networks.
JP7340282B2 (ja) 二次制約なしバイナリ最適化問題を解くためのハイブリッド量子計算アーキテクチャ
CN112445131A (zh) 一种线性系统自适应最优跟踪控制方法
Ebadzadeh et al. CFNN: Correlated fuzzy neural network
Huan et al. Efficient algorithm for training interpolation RBF networks with equally spaced nodes
RU2727080C2 (ru) Построение нейронной сети на основе нейронов с функциональным преобразованием произвольного вида для входных сигналов
Karpenko et al. Multicriteria optimization based on neural network, fuzzy and neuro-fuzzy approximation of decision maker’s utility function
Dalm et al. Effective learning with node perturbation in deep neural networks
JP2022537977A (ja) 格子点列挙のための装置及び方法
Lavaei et al. Dynamic analysis of structures using neural networks
Heydari et al. Adversarial orthogonal regression: Two non-linear regressions for causal inference
Harkouss et al. A new algorithm for structure optimization of wavelet neural network
Ghorrati A New Adaptive Learning algorithm to train Feed-Forward Multi-layer Neural Networks, Applied on Function Approximation Problem
Shin et al. Sparse neural network regression with variable selection
JP7437058B2 (ja) 線形バイナリ関係のシステムを解くためのハイブリッド量子計算アーキテクチャ
Makhrus THE EFFECT OF AMPLITUDE MODIFICATION IN S-SHAPED ACTIVATION FUNCTIONS ON NEURAL NETWORK REGRESSION.
Hosino Variational Bayesian parameter-based policy exploration
Yusoff et al. Modeling neural plasticity in echo state networks for time series prediction
Abdullah et al. Comparison of non-linear time series models (Beta-t-EGARCH and NARMAX models) with Radial Basis Function Neural Network using Real Data
Corrêa et al. Improving the learning speed in 2-layered LSTM network by estimating the configuration of hidden units and optimizing weights initialization

Legal Events

Date Code Title Description
HZ9A Changing address for correspondence with an applicant