RU2723270C1 - Способ обучения искусственной нейронной сети - Google Patents

Способ обучения искусственной нейронной сети Download PDF

Info

Publication number
RU2723270C1
RU2723270C1 RU2019125691A RU2019125691A RU2723270C1 RU 2723270 C1 RU2723270 C1 RU 2723270C1 RU 2019125691 A RU2019125691 A RU 2019125691A RU 2019125691 A RU2019125691 A RU 2019125691A RU 2723270 C1 RU2723270 C1 RU 2723270C1
Authority
RU
Russia
Prior art keywords
training
signals
artificial neural
neural network
ans
Prior art date
Application number
RU2019125691A
Other languages
English (en)
Inventor
Юлия Александровна Аверьянова
Вячеслав Владимирович Сташенко
Андрей Анатольевич Строцев
Original Assignee
Федеральное государственное унитарное предприятие "Ростовский-на-Дону научно-исследовательский институт радиосвязи" (ФГУП "РНИИРС")
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Федеральное государственное унитарное предприятие "Ростовский-на-Дону научно-исследовательский институт радиосвязи" (ФГУП "РНИИРС") filed Critical Федеральное государственное унитарное предприятие "Ростовский-на-Дону научно-исследовательский институт радиосвязи" (ФГУП "РНИИРС")
Priority to RU2019125691A priority Critical patent/RU2723270C1/ru
Application granted granted Critical
Publication of RU2723270C1 publication Critical patent/RU2723270C1/ru

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Изобретение относится к компьютерным системам, а именно искусственным нейронным сетям, и может быть использовано для обучения нейронной сети при моделировании физических явлений технологических процессов. Техническим результатом является обеспечение возможности обучения ИНС в случае отсутствия статистически достаточного ряда наблюдений исследуемых объектов и сокращение времени обучения ИНС. Способ содержит операции: ограничивают пространство входных элементов обучающей выборки некоторой областью, подают на входы искусственной нейронной сети сигналы обучающих векторов и эталонные сигналы, корректируют вектор синаптических весов нейронов, формируют обучающие выборки на основе последовательного применения эталонных ИНС, в случае отсутствия статистически достаточного ряда наблюдений исследуемых объектов, генерируют входные элементы обучающей выборки u(n), n=1, 2, …, K, принадлежащие области О, для обучения ИНС, для обучения ИНС выбирают L эталонных ИНС, последовательно подают на вход каждой
Figure 00000034
эталонной ИНС сигналы обучающей выборки u(n), n=1, 2, …, K, и фиксируют на ее выходе выходные сигналы
Figure 00000035
,
Figure 00000036
, преобразуют сигналы
Figure 00000037
в эталонные сигналы dj(n), записывают сгенерированные входные элементы обучающей выборки u(n) и эталонные сигналы dj(n), соответствующие подлежащей решению с применением ИНС задаче, в виде пар 〈u(n),dj(n)〉 на материальный носитель. 1 табл.

Description

Изобретение относится к компьютерным системам, а именно искусственным нейронным сетям (ИНС), и может быть использовано, например, для обучения нейронной сети при моделировании физических явлений технологических процессов.
Известен способ обучения искусственной нейронной сети с учителем, широко применяемый для решения различных задач (1 - Хайкин С. Нейронные сети: полный курс.- М.: Издательский дом «Вильяме», 2006. - 1104 с.), (2 - Пучков Е.В. Разработка нейросетевой системы управления технологическими процессами на сортировочных горках: диссертация на соискание ученой степени кандидата технических наук по специальности 05.13.06. - Ростов-на-Дону, 2011. - 213 с.). Обучение с учителем предполагает, что для каждого входного вектора существует целевой вектор, представляющий собой требуемый выход. Вместе они называются обучающей парой. Эти пары образуют обучающую выборку. При этом количество обучающих пар определяет объем обучающей выборки. Обучающие выборки формируются статистически на основе достаточного ряда наблюдений исследуемых объектов. Источником данных могут быть локальные данные организаций (базы данных, табличные файлы и т.д.), внешние данные, доступные через Интернет (курсы акций, сведения о погоде и т.д.), данные, получаемые от различных устройств (датчики оборудования, видеокамеры и т.д.). Нейронная сеть обучается при помощи обучающей выборки некоторого объема путем задания входного вектора, вычисления выходного вектора сети и сравнения его с соответствующим целевым вектором. Разность (градиент ошибки) с помощью обратной связи подается в сеть и весовые коэффициенты изменяются в направлении антиградиента, минимизируя ошибку. Векторы обучающей выборки предъявляются последовательно и многократно, вычисляются ошибки, и весовые коэффициенты подстраиваются для каждого вектора до тех пор, пока ошибка по всему обучающему массиву не достигнет приемлемо низкого уровня. Недостатком этого способа является невозможность его применения в случае отсутствия статистически достаточного ряда наблюдений исследуемых объектов, что не позволяет сформировать обучающие выборки с объемом, достаточным для корректного обучения ИНС способом «обучение с учителем».
Известен способ обучения искусственной нейронной сети, основанный на оптимизации весов скрытого и выходного слоев нейронной сети, предназначенный для обучения многослойной искусственной нейронной сети персептрона (3 - Chen Н.-Н., Manry М.Т., Chandrasekaran Н.A neural network training algorithm utilizing multiple set of linear equations // Neurocomputing, 1999. - V. 25. - №1-3, P. 55-72), (4 - Патент РФ №2566979, МПК: (2006.01) G06N 3/08. Способ обучения искусственной нейронной сети, Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования «Тульский государственный университет». Сальников B.C., Хоанг В.Ч., Анцев А.В. Публ. - 27.10.2015 г.). Он заключается в том, что в ходе процедуры обучения после последовательной передачи многомерного входного вектора в многослойную нейронную сеть вычисляют соответствующие кросскорреляционные и автокорреляционные функции, и далее определяют веса скрытого и выходного слоев на основе решения системы уравнений для антиградиента для минимизации средней квадратичной ошибки между выходными значениями нейронной сети и их желаемыми значениями.
Способ позволяет ускорить процесс обучения искусственной нейронной сети, однако его недостатком является невозможность применения в случае отсутствия статистически достаточного ряда наблюдений исследуемых объектов, что не позволяет сформировать обучающие выборки с объемом, достаточным для корректного обучения ИНС способом «обучение с учителем».
Известен способ обучения искусственной нейронной сети (5 - Патент РФ №2504006, МПК: (2006.01) G06N 3/08. Способ обучения искусственной нейронной сети, Цуриков А.Н. Публ. - 10.01.2014 г.), принятый за прототип. Этот способ обучения искусственной нейронной сети, предназначенной для решения задач классификации объектов, описываемых наборами числовых признаков (векторами), реализуется в виде следующей последовательности операций: обучающие векторы u(n)=(u1(n) u2(n) … uN(n))T, n=1, 2, …, K, Т - знак транспонирования, формируют на основе знаний человека, компетентного в рассматриваемой области (эксперта), в случае отсутствия статистически достаточного ряда наблюдений исследуемых объектов, причем эксперт последовательно определяет классы исследуемых объектов, к которым относятся сгенерированные с помощью генератора псевдослучайных чисел обучающие векторы входных сигналов ИНС, принадлежащие некоторой рассматриваемой области, и созданные компьютером визуальные образы, наглядно описывающие объекты, задаваемые сгенерированными обучающими векторами, при этом реализуемый с использованием компьютера порядок выполнения действий этого способа содержит следующие этапы:
- определяют необходимое число К обучающих векторов u(n), n=1, 2, …, K для обучения ИНС;
- ограничивают N-мерное пространство входных векторов u(n) некоторой рассматриваемой областью О;
- указывают М векторов, описывающих наиболее типичных представителей каждого из М исследуемых классов объектов L1, L2, …, Lj, j=1, 2, …, M, принадлежащих области О;
- генерируют компьютером с помощью генератора псевдослучайных чисел K обучающих векторов u(n), n=1, 2, …, K входных сигналов ИНС, принадлежащих области О, вначале вблизи окрестности указанных М векторов, описывающих наиболее типичных представителей каждого из М исследуемых классов объектов L1, L2, .… Lj, с последующим последовательным равномерным расширением этой окрестности до указанной ранее области О;
- создают компьютером визуальные образы, наглядно описывающие объекты, задаваемые сгенерированными обучающими векторами;
- демонстрируют эксперту сгенерированные обучающие векторы и визуальные образы, наглядно описывающие объекты, задаваемые сгенерированными обучающими векторами;
- определяют, на основе знаний эксперта об исследуемых объектах, в пределах рассматриваемой области О, один из М классов, к которому относится каждый из K сгенерированных обучающих векторов u(n) входных сигналов ИНС;
- записывают сгенерированные обучающие векторы u(n) и эталонные сигналы dj(n), соответствующие классам Lj(n) объектов, к которым, по мнению эксперта, относятся сгенерированные вектора, в виде пар 〈u(n), dj(n)〉 на материальный носитель;
- считывают записанные пары вида 〈u(n), dj(n)〉 с материального носителя, и подают на входы ИНС считанные сигналы обучающих векторов u(n) и соответствующие эталонные сигналы dj(n);
- корректируют вектор синаптических весов нейронов w(n) с шагом коррекции η до завершения обучения ИНС.
Способ позволяет решать задачи классификации объектов при отсутствии статистически достаточного ряда наблюдений исследуемых объектов. Его недостатком является применение в случае отсутствия статистически достаточного ряда наблюдений исследуемых объектов только для решения задач классификации объектов, описываемых наборами числовых признаков (векторами), что не позволяет сформировать обучающие выборки с объемом, достаточным для корректного обучения широкого круга ИНС способом «обучение с учителем», а также большая длительность обучения за счет длительной процедуры формирования обучающей выборки людьми, компетентными в рассматриваемой области.
Технической проблемой является расширение арсенала технических средств, реализующих технологию ИНС, на случаи отсутствия статистически достаточного ряда наблюдений исследуемых объектов и ограничения времени обучения ИНС.
Для решения данной технической проблемы предлагается способ обучения искусственной нейронной сети, для реализации которого определяют необходимое число К входных элементов обучающей выборки u(n), n=1, 2, …, K для обучения ИНС, ограничивают пространство входных элементов обучающей выборки u(n) некоторой рассматриваемой областью О, считывают записанные пары вида 〈u(n), dj(n)〉 с материального носителя, и подают на входы ИНС считанные сигналы обучающих векторов u(n) и соответствующие эталонные сигналы dj(n), корректируют вектор синаптических весов нейронов w(n) до завершения обучения ИНС.
Согласно изобретению, дополнительно обучающие выборки формируют на основе последовательного применения эталонных ИНС, в случае отсутствия статистически достаточного ряда наблюдений исследуемых объектов, при этом реализуемый порядок выполнения действий способа содержит следующие этапы: после ограничения пространства входных элементов обучающей выборки генерируют входные элементы обучающей выборки u(n), n=1, 2, …, K, принадлежащих области О, для обучения ИНС, выбирают L эталонных ИНС, последовательно на вход каждой
Figure 00000001
эталонной ИНС подают сигналы обучающей выборки u(n), n=1, 2, …, K, а на ее выходе фиксируют выходные сигналы
Figure 00000002
Figure 00000003
преобразуют сигналы
Figure 00000004
в эталонные сигналы dj(n), записывают сгенерированные входные элементы обучающей выборки u(n) и эталонные сигналы dj(n), соответствующие подлежащей решению с применением ИНС задаче, в виде пар 〈u(n), dj(n)〉 на материальный носитель.
Техническим результатом является возможность обучения ИНС (т.е. настройка технического устройства) в случае отсутствия статистически достаточного ряда наблюдений исследуемых объектов и сокращение времени обучения ИНС.
Указанный технический результат достигают за счет введения новых операций: формирование обучающих выборок на основе последовательного применения эталонных ИНС, в случае отсутствия статистически достаточного ряда наблюдений исследуемых объектов, генерирования входных элементов обучающей выборки u(n), n=1, 2, …, K, принадлежащих области О, для обучения ИНС, выбора L эталонных ИНС, последовательной подаче на вход каждой
Figure 00000005
эталонной ИНС сигналов обучающей выборки u(n), n=1, 2,..., K, и фиксации на ее выходе выходные сигналы
Figure 00000006
,
Figure 00000007
, преобразования сигналов
Figure 00000008
в эталонные сигналы dj(n), записи сгенерированных входных элементов обучающей выборки u(n) и эталонных сигналов dj(n), соответствующих подлежащей решению с применением ИНС задаче, в виде пар 〈u(n), dj(n)〉 на материальный носитель.
На фиг. приведена структурная схема устройства, реализующего предлагаемый способ обучения искусственной нейронной сети.
Сочетание отличительных признаков и свойств предлагаемого способа из литературы не известны, поэтому он соответствует критериям новизны и изобретательского уровня.
Способ обучения искусственной нейронной сети реализуется следующим образом.
1 Обучающие выборки формируют на основе последовательного применения эталонных ИНС, в случае отсутствия статистически достаточного ряда наблюдений исследуемых объектов, при этом реализуемый порядок выполнения действий способа содержит следующие этапы:
1.1 определяют необходимое число К входных элементов обучающей выборки u(n), n=1, 2, …, K для обучения ИНС;
1.2 ограничивают пространство входных элементов обучающей выборки u(n) неакоторой рассматриваемой областью О;
1.3 генерируют входные элементы обучающей выборки u(n), n=1, 2, …, K, принадлежащие области О, для обучения ИНС;
1.4 выбирают L эталонных ИНС;
1.5 последовательно на вход каждой
Figure 00000009
эталонной ИНС подают сигналы обучающей выборки u(n), n=1, 2, …, K, а на ее выходе фиксируют выходные сигналы
Figure 00000010
Figure 00000011
;
1.6 преобразуют сигналы
Figure 00000010
в эталонные сигналы dj(n).
2. Записывают сгенерированные входные элементы обучающей выборки u(n) и эталонные сигналы dj(n), соответствующие подлежащей решению с применением ИНС задаче, в виде пар 〈u(n), dj(n)〉 на материальный носитель.
3. Считывают записанные пары вида 〈u(n), dj(n)〉 с материального носителя, и подают на входы ИНС считанные сигналы обучающих векторов u(n) и соответствующие эталонные сигналы dj(n).
4. Корректируют вектор синаптических весов нейронов w(n) до завершения обучения ИНС.
Для реализации пункта 1.1 для обучения ИНС определяют необходимое число К входных элементов обучающей выборки u(n), n=1, 2, …, K, где сущность входного элемента u(n) и его размерность определяются подлежащей решению с применением ИНС прикладной задачей. Например, для задачи классификации объектов, описываемых наборами числовых признаков, входной элемент обучающей выборки u(n) является N-мерным вектором u(n)=(u1(n) u2(n) … uN(n))T, каждый элемент которого количественно характеризует один из признаков.
Для задачи распознавания растровых изображений входной элемент обучающей выборки u(n) является матрицей, размерность которой определяется размерностью подлежащих распознаванию изображений в пикселях.
Непосредственно сам выбор числа К входных элементов обучающей выборки опирается на реализуемую архитектуру ИНС и зависимость ошибки решения прикладной задачи от объема обучающей выборки. При фиксированной архитектуре ИНС эта зависимость имеет ярко выраженный минимум (6 - Манусов В.З., Марков И.С., Дмитриев С.А., Кокин С.Е., Ерошенко С.А. Размер обучающей выборки и ее влияние на архитектуру искусственной нейронной сети в энергосистеме // Вестник ТГУ. - 2013. - т.18. - вып. 4. - С. 1417-1420.).
Для реализации пункта 1.2 для ограничения пространства входных элементов обучающей выборки u(n) некоторой рассматриваемой областью О определяют область допустимых значений u(n). Например, для задачи классификации объектов, описываемых наборами числовых признаков, с u(n)=(u1(n) u2(n) … uN(n)T, область О определяется допустимыми значениями элементов этого вектора. Для задачи распознавания растровых изображений область О определяется допустимыми значениями элементов матрицы u(n). В частности, если распознаванию подлежат только черно-белые изображения, то соответствующие ограничения накладываются на значения элементов матрицы u(n), характеризующих цвет пикселей.
Для реализации пункта 1.3 генерируют для обучения ИНС входные элементы обучающей выборки u(n), n=1, 2, …, K принадлежащие области О. Например, для задачи классификации объектов, описываемых наборами числовых признаков, обучающие векторы входных сигналов ИНС могут быть сформированы с помощью генератора псевдослучайных чисел. При этом сначала указывают М входных векторов, описывают наиболее типичных представителей каждого из исследуемых классов объектов Ωj, j=1, 2, …, М, принадлежащих области О. Затем с помощью генератора псевдослучайных чисел формируют K обучающих векторов u(n), n=1, 2, …, K входных сигналов ИНС, принадлежащих области О, вначале вблизи окрестности указанных точек, т.е. вблизи окрестности точек М векторов, описывающих наиболее типичных представителей каждого из М исследуемых классов объектов Ωj, j= 1, 2, …, М, с последующим последовательным равномерным расширением этой окрестности до указанной ранее области О.
Для задачи распознавания растровых изображений входные матрицы u(n) могут формироваться на основе применения операций поворота, сдвига и масштабирования имеющихся трехмерных моделей или изображений распознаваемых объектов, а также операций скрытия части изображений. Кроме того, генерация может быть реализована путем использования данных, получаемых из следующих источников: локальные данные организации, внешние данные, доступные через Интернет, данные, получаемые от различных устройств [5].
Для реализации пункта 1.4 выбирают L эталонных ИНС. При этом руководствуются принципами доступности и реализованными возможностями этих ИНС. Например, могут быть выбраны реализации ИНС, доступные через Интернет, или на основе программных пакетов для работы с ИНС (7 - Туровский Я.А., Кургалин С.Д., Адаменко А.А. Сравнительный анализ программных пакетов для работы с искусственными нейронными сетями // Вестник ВГУ: Системный анализ и информационные технологии. -2016. - №1. - С. 161-168.).
Для реализации пункта 1.5 последовательно на вход каждой
Figure 00000012
эталонной ИНС подают сигналы обучающей выборки u(n), n=1, 2,..., K, а на ее выходе фиксируют выходные сигналы
Figure 00000013
Figure 00000014
. При этом сигналы
Figure 00000015
для задачи классификации объектов соответствуют классам объектов Ωj, j=1, 2, …, М, к которым по результатам применения
Figure 00000016
эталонной ИНС относятся входные элементы обучающей выборки u(n).
Для реализации пункта 1.6 преобразуют сигналы
Figure 00000017
Figure 00000018
в эталонные сигналы dj(n). При этом правило преобразования может быть различным, например, в виде мажоритарной выборки из L элементов, реализуемой устройствами для мажоритарного выбора сигналов (8 - Патент РФ №2396591, МПК: (2006.01) G06F 11/18. Устройство для мажоритарного выбора сигналов, Леденев Г.Я., Сухов Б.М., Ефимов С.Н. Публ. - 10.08.2010 г.).
Для реализации пункта 2 записывают сгенерированные входные элементы обучающей выборки u(n) и эталонные сигналы dj(n), соответствующие подлежащей решению с применением ИНС задаче, в виде пар 〈u(n), dj(n)〉, n=1, 2, …, K на материальный носитель. При этом запись пар может быть реализована в виде двух индексированных массивов u(n), n=1, 2, …, K и dj(n), n=1, 2, …, K.
Для реализации пункта 3 считывают записанные пары вида 〈u(n), dj(n)〉 с материального носителя, и подают на входы ИНС считанные сигналы обучающих векторов u(n) и соответствующие эталонные сигналы dj(n). При этом считанные сигналы обучающих векторов u(n) на входы ИНС подают последовательно, результаты с выхода ИНС сравнивают с соответствующими эталонными сигналами dj(n).
Для реализации пункта 4 корректируют вектор синаптических весов нейронов w(n) до завершения обучения ИНС. Например, для задачи классификации объектов, решаемой ИНС, реализованной на основе персептрона, обучение заключается в рекуррентной коррекции вектора весов w(n) с некоторым шагом коррекции 0<η<1 [5].
Таким образом, предлагаемый способ имеет следующие отличительные признаки в последовательности его реализации от способа-прототипа, которые представлены в таблице 1.
Figure 00000019
Figure 00000020
Figure 00000021
Figure 00000022
Из представленной таблицы 1 сравнения последовательностей реализации способа-прототипа и предлагаемого способа видно, что в предлагаемом способе, относительно способа-прототипа, дополнительно обучающие выборки формируют на основе последовательного применения эталонных ИНС, в случае отсутствия статистически достаточного ряда наблюдений исследуемых объектов, при этом реализуемый порядок выполнения действий способа содержит следующие этапы: после ограничения пространства входных элементов обучающей выборки генерируют входные элементы обучающей выборки u(n), n=1, 2, …, K, принадлежащие области О, для обучения ИНС, выбирают L эталонных ИНС, последовательно на вход каждой
Figure 00000023
эталонной ИНС подают сигналы обучающей выборки u(n), n=1, 2, …, K, а на ее выходе фиксируют выходные сигналы
Figure 00000024
Figure 00000025
, преобразуют сигналы
Figure 00000026
в эталонные сигналы dj(n), записывают сгенерированные входные элементы обучающей выборки u(n) и эталонные сигналы dj(n), соответствующие подлежащей решению с применением ИНС задаче, в виде пар 〈u(n), dj(n)〉 на материальный носитель.
Структурная схема устройства, реализующего предлагаемый способ, изображена на фигуре. В состав устройства входят:
01 - устройство формирования входных элементов обучающей выборки (УФВЭОВ);
02 - устройство реализации эталонных искусственных нейронных сетей (УРЭИНС);
03 - устройство регистрации выходных сигналов эталонных искусственных нейронных сетей (УРВСЭИНС);
04 - устройство формирования эталонных сигналов (УФЭС);
05 - блок регистрации обучающей выборки (БРОВ);
06 - устройство коррекции вектора синаптических весов нейронов (УКВСВН).
Выход УФВЭОВ 01 соединен со входом УРЭИНС 02 и входом УФЭС 04. Выход УРЭИНС 02 соединен со входом УРВСЭИНС 03, выход которого соединен со входом УФЭС 04. Выход УФЭС 04 соединен со входом БРОВ 05, выход которого соединен со входом УКВСВН 06.
УФВЭОВ 01 формирует входные элементы обучающей выборки, передает их в УРЭИНС 02 и УФЭС 04. Полученные входные элементы обучающей выборки u(n), n=1, 2, …, K используются в УРЭИНС 02 для последовательного применения в качестве входных сигналов для L выбранных и реализуемых в УРЭИНС 02 эталонных ИНС. Каждая
Figure 00000027
эталонная ИНС на поданный входной сигнал u(n) вырабатывает выходной сигнал
Figure 00000028
. Совокупность этих сигналов
Figure 00000029
Figure 00000030
для каждого n в УРЭИНС 02 преобразуется в эталонный сигнал dj(n). Этот эталонный сигнал с выхода УРЭИНС 02 подается на вход УРВСЭИНС 03, где осуществляется его регистрация. Зарегистрированный эталонный сигнал dj(n) с выхода УРВСЭИНС 03 подается на вход УФЭС 04, на который с выхода УФВЭОВ 01 поступает ему соответствующий элемент обучающей выборки u(n). В УФЭС 04 реализуется их попарное объединение в виде наборов 〈u(n), dj(n)〉. С выхода УФЭС 04 эти пары 〈u(n), dj(n)〉 поступают на вход БРОВ 05, где записываются на материальный носитель. Записанные пары 〈u(n), dj(n)〉 по мере реализации процедуры обучения ИНС в УКВСВН 06 подаются с выхода БРОВ 05 на вход УКВСВН 06. По результатам их поступления в УКВСВН 06 корректируется вектор синаптических весов нейронов w(n) до завершения обучения ИНС.
Таким образом, предлагаемый способ позволяет реализовать обучение искусственной нейронной сети и расширяет арсенал технических средств, реализующих технологию ИНС, на случаи отсутствия статистически достаточного ряда наблюдений исследуемых объектов и ограничения времени обучения ИНС.

Claims (1)

  1. Способ обучения искусственной нейронной сети, для реализации которого определяют необходимое число К входных элементов обучающей выборки u(n), n=1, 2, …, K для обучения искусственной нейронной сети, ограничивают пространство входных элементов обучающей выборки u(n) некоторой рассматриваемой областью О, считывают записанные пары вида 〈u(n),dj(n)〉 с материального носителя, и подают на входы искусственной нейронной сети считанные сигналы обучающих векторов u(n) и соответствующие эталонные сигналы dj(n), корректируют вектор синаптических весов нейронов w(n) до завершения обучения искусственной нейронной сети, отличающийся тем, что дополнительно обучающие выборки формируют на основе последовательного применения эталонных искусственных нейронных сетей, в случае отсутствия статистически достаточного ряда наблюдений исследуемых объектов, при этом реализуемый порядок выполнения действий способа содержит следующие этапы: после ограничения пространства входных элементов обучающей выборки генерируют входные элементы обучающей выборки u(n), n=1, 2, …, K, принадлежащие области О, для обучения искусственной нейронной сети, выбирают L эталонных искусственных нейронных сетей, последовательно на вход каждой
    Figure 00000031
    эталонной искусственной нейронной сети подают сигналы обучающей выборки u(n), n=1, 2, …, K, а на ее выходе фиксируют выходные сигналы
    Figure 00000032
    ,
    Figure 00000033
    , преобразуют сигналы
    Figure 00000032
    в эталонные сигналы dj(n), записывают сгенерированные входные элементы обучающей выборки u(n) и эталонные сигналы dj(n), соответствующие подлежащей решению с применением искусственной нейронной сети задаче, в виде пар 〈u(n),dj(n)〉 на материальный носитель.
RU2019125691A 2019-08-13 2019-08-13 Способ обучения искусственной нейронной сети RU2723270C1 (ru)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2019125691A RU2723270C1 (ru) 2019-08-13 2019-08-13 Способ обучения искусственной нейронной сети

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2019125691A RU2723270C1 (ru) 2019-08-13 2019-08-13 Способ обучения искусственной нейронной сети

Publications (1)

Publication Number Publication Date
RU2723270C1 true RU2723270C1 (ru) 2020-06-09

Family

ID=71067877

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2019125691A RU2723270C1 (ru) 2019-08-13 2019-08-13 Способ обучения искусственной нейронной сети

Country Status (1)

Country Link
RU (1) RU2723270C1 (ru)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115345258A (zh) * 2022-10-14 2022-11-15 北京睿企信息科技有限公司 一种命名实体识别模型训练方法、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100217589A1 (en) * 2009-02-20 2010-08-26 Nuance Communications, Inc. Method for Automated Training of a Plurality of Artificial Neural Networks
RU2504006C1 (ru) * 2012-06-05 2014-01-10 Александр Николаевич Цуриков Способ обучения искусственной нейронной сети
RU151549U1 (ru) * 2014-07-08 2015-04-10 Дмитрий Маркович Шпрехер Искусственная нейронная сеть
US20170032246A1 (en) * 2015-07-31 2017-02-02 Canon Kabushiki Kaisha Method for training an artificial neural network
US20180174051A1 (en) * 2016-12-19 2018-06-21 Canon Kabushiki Kaisha Method for training an artificial neural network

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100217589A1 (en) * 2009-02-20 2010-08-26 Nuance Communications, Inc. Method for Automated Training of a Plurality of Artificial Neural Networks
RU2504006C1 (ru) * 2012-06-05 2014-01-10 Александр Николаевич Цуриков Способ обучения искусственной нейронной сети
RU151549U1 (ru) * 2014-07-08 2015-04-10 Дмитрий Маркович Шпрехер Искусственная нейронная сеть
US20170032246A1 (en) * 2015-07-31 2017-02-02 Canon Kabushiki Kaisha Method for training an artificial neural network
US20180174051A1 (en) * 2016-12-19 2018-06-21 Canon Kabushiki Kaisha Method for training an artificial neural network

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115345258A (zh) * 2022-10-14 2022-11-15 北京睿企信息科技有限公司 一种命名实体识别模型训练方法、电子设备及存储介质
CN115345258B (zh) * 2022-10-14 2023-04-25 北京睿企信息科技有限公司 一种命名实体识别模型训练方法、电子设备及存储介质

Similar Documents

Publication Publication Date Title
US11475273B1 (en) Deep convolutional neural networks for automated scoring of constructed responses
US9965705B2 (en) Systems and methods for attention-based configurable convolutional neural networks (ABC-CNN) for visual question answering
RU2504006C1 (ru) Способ обучения искусственной нейронной сети
US11631338B2 (en) Deep knowledge tracing with transformers
CN109522553A (zh) 命名实体的识别方法及装置
KR20200128938A (ko) 모델 학습 방법 및 장치
CN107862329A (zh) 一种基于深度置信网络的雷达一维距离像真假目标识别方法
CN114419351A (zh) 图文预训练模型训练、图文预测模型训练方法和装置
RU2723270C1 (ru) Способ обучения искусственной нейронной сети
CN115545155A (zh) 一种多层级智能认知追踪方法、系统、可存储介质及终端
Zhu et al. Dual-decoder transformer network for answer grounding in visual question answering
WO2021147405A1 (zh) 客服语句质检方法及相关设备
CN113971423A (zh) 用于训练新的神经网络的方法、系统及计算机可读介质
CN111444877B (zh) 一种基于视频照片的教室人数识别方法
KR20190082453A (ko) 기계학습 모델링을 위한 신규 학습 콘텐츠 분석 방법, 장치 및 컴퓨터 프로그램
KR102340387B1 (ko) 뇌 연결성 학습 방법 및 이를 위한 시스템
CN112785039A (zh) 一种试题作答得分率的预测方法及相关装置
Thejeshwar et al. Understanding the student behavioural pattern in an elearning environment
US12008921B2 (en) Systems and methods for grapheme-phoneme correspondence learning
Chao et al. Analysis of learning modalities towards effective undergraduate cybersecurity education design
US20240232699A1 (en) Enhanced data labeling for machine learning training
Monner et al. Neural architectures for learning to answer questions
Bulín et al. Optimization of neural network
Jamila et al. The application of artificial neural networks in learning analytics
US20240152767A1 (en) Visual question answering with unlabeled image augmentation