RU2504006C1 - Способ обучения искусственной нейронной сети - Google Patents
Способ обучения искусственной нейронной сети Download PDFInfo
- Publication number
- RU2504006C1 RU2504006C1 RU2012123310/08A RU2012123310A RU2504006C1 RU 2504006 C1 RU2504006 C1 RU 2504006C1 RU 2012123310/08 A RU2012123310/08 A RU 2012123310/08A RU 2012123310 A RU2012123310 A RU 2012123310A RU 2504006 C1 RU2504006 C1 RU 2504006C1
- Authority
- RU
- Russia
- Prior art keywords
- vectors
- training
- ann
- objects
- generated
- Prior art date
Links
- 238000012549 training Methods 0.000 title claims abstract description 59
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 31
- 238000000034 method Methods 0.000 title claims abstract description 20
- 239000013598 vector Substances 0.000 claims abstract description 68
- 210000002569 neuron Anatomy 0.000 claims abstract description 10
- 230000000007 visual effect Effects 0.000 claims abstract description 8
- 238000012937 correction Methods 0.000 claims abstract description 7
- 230000000946 synaptic effect Effects 0.000 claims abstract description 5
- 239000000463 material Substances 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 4
- 238000011835 investigation Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 2
- 239000000126 substance Substances 0.000 abstract 1
- 230000006870 function Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Изобретение относится к искусственным нейронным сетям (ИНС) и может быть использовано для обучения ИНС. Техническим результатом является осуществление обучения ИНС при отсутствии статистически достаточного ряда наблюдений исследуемых объектов. Способ содержит этапы: определяют необходимое число обучающих векторов; ограничивают пространство входных векторов некоторой областью О; указывают М векторов, описывающих наиболее типичных представителей каждого из исследуемых классов объектов, принадлежащих области О; генерируют K обучающих векторов входных сигналов ИНС, вначале вблизи окрестности М векторов, с последующим расширением до области О; создают визуальные образы, наглядно описывающие объекты, задаваемые сгенерированными обучающими векторами; определяют один из М классов, к которому относится каждый из K сгенерированных обучающих векторов входных сигналов ИНС; записывают сгенерированные обучающие векторы и эталонные сигналы, соответствующие классам объектов, к которым относятся сгенерированные вектора, в виде пар; считывают записанные пары и подают на входы ИНС; корректируют вектор синаптических весов нейронов w(n) с шагом коррекции η до завершения обучения ИНС. 1 з.п. ф-лы, 3 ил.
Description
Изобретение относятся к области компьютерных систем, основанных на биологических моделях, более точно к компьютерным моделям искусственных нейронных сетей (ИНС), предназначенных для решения задач классификации объектов, описываемых наборами числовых признаков (векторами), а именно к способам их обучения.
Известно (патент RU 2424561 С2; МПК G06F 15/18, G06K 9/66, G06N 3/08, опубликован 20.07.2011 г.), что некоторые компьютерные задачи, например задачи классификации, хорошо решаются методами машинного обучения. Главный из них связан с использованием ИНС, представляющих собой математические модели, а также их программные и/или аппаратные реализации, построенные по принципу организации и функционирования сетей нервных клеток живых организмов. Нейронные сети базируются на концепции взаимосвязанных нейронов. В ИНС нейроны содержат значения данных, каждое из которых влияет на значение присоединенного нейрона согласно связям с заранее заданными весами и на то, отвечает ли сумма связей с каждым конкретным нейроном заранее заданному порогу. Определяя надлежащие веса связей (процесс называется обучением), ИНС может добиться эффективного решения задач классификации.
Рассмотрим способ обучения ИНС, называемый «обучение с учителем», на примере случая двухклассовой классификации линейно сепарабельных объектов, когда число классов М равняется двум, который может служить основой для решения более сложных задач.
Одной из моделей ИНС, решающих эту задачу, является нейронная сеть, называемая персептрон (Рутковская Д. Нейронные сети, генетические алгоритмы и нечеткие системы: пер. с польск. И.Д.Рудинского / Д.Рутковская, М Пилиньский, Л.Рутковский / - М.: Горячая линия - Телеком, 2006? стр.21-25). На фиг.1 представлена структура персептрона.
В персептроне в качестве функции f в модели нейрона МакКаллока-Питтса применяется биполярная функция активации:
в которой
где u1, …, uN - входные сигналы ИНС;
w1, …, wN - синаптические веса;
y - выходной сигнал ИНС;
ν - пороговое значение.
Сигнал x на выходе линейной части персептрона задается выражением:
где w0=ν,u0=-1.
Задача персептрона заключается в классификации вектора u=[u1,…,uN]T в смысле отнесения его к одному из двух классов (М=2), обозначаемых символами L1 и L2. Персептрон относит вектор u к классу L1, если выходной сигнал у принимает значения 1, и к классу L2, если выходной сигнал у принимает значение -1. После этого персептрон разделяет N-мерное пространство входных векторов u на два полупространства, разделяемые (N-1)-мерной гиперплоскостью, задаваемой уравнением:
Гиперплоскость (4) называется решающей границей (decision boundary). Если N=2, то решающая граница - это прямая линия, задаваемая уравнением:
Любая точка (u1, u2), лежащая над этой прямой, показанной на фиг.2, относится к классу L1, тогда как точка (u1, u2), лежащая под этой прямой, относиться к классу L2.
Как правило, веса wi, i=0, 1, …, N в уравнении гиперплоскости (4) неизвестны, тогда как на вход персептрона последовательно подаются так называемые обучающие векторы (сигналы) u(n), n=1, 2, …, где u(n)=[u1(n),…,uN(n)]T.
Неизвестные значения весов определяются в процессе обучения персептрона. Такой подход получил название «обучение с учителем» или «обучение под надзором». Роль «учителя» заключается в корректном отнесении сигналов u(n) к классам L1 или L2 несмотря на неизвестность весов уравнения решающей границы (4). По завершении процесса обучения персептрон должен корректно классифицировать поступающие на его вход сигналы, в том числе и те, которые отсутствовали в обучающей последовательности u(n), n=1, 2, …, K. Кроме того, примем, что множества векторов u(n), n=1, 2, …, K, для которых выход персептрона принимает соответственно значения 1 и -1, линейно отделены, т.е. лежат в двух различных полупространствах, разделенных гиперплоскостью (4). Иначе говоря, допускается разделение обучающей последовательности {u(n)} на две последовательности {u1(n)} и {u2(n)} так, что {u1(n)}∈L1 и {u2(n)}∈L2.
В n-й момент времени сигнал на выходе линейной части персептрона определяется выражением:
где u(n)=[-1, u1(n), u2(n), …, uN(n)]T;
w(n)=[v(n), w1(n), w2(n), …, wN(n)]T.
Обучение персептрона заключается в рекуррентной коррекции вектора весов w(n) согласно формулам:
и
где параметр η при 0<η<1 - шаг коррекции, тогда как начальные значения компонент вектора весов устанавливаются равными нулю, т.е.
Зависимости (7) и (8) можно представить в более сжатом виде. Для этого определим так называемый эталонный (заданный) сигнал d(n) в форме:
Кроме того, отметим, что выходной сигнал персептрона может быть описан выражением:
С учетом введенных обозначений рекурсии (7) и (8) принимают вид:
Разность d(n)-y(n) можно интерпретировать как погрешность ε(n) между эталонным (заданным) сигналом d(n) и фактическим выходным сигналом y(n).
С учетом принятого выше условия линейной сепарабельности входных сигналов алгоритм (12) сходится, т.е.
По завершении обучения решающая граница персептрона определяется выражением:
и персептрон корректно классифицирует как сигналы, которые принадлежат к обучающей выборке {u(n)}, так и не входящие в это множество, но выполняющие условие линейной сепарабельности.
Обучение других моделей ИНС для решения более сложных задач способом «обучение с учителем», в целом, происходит аналогично описанному выше.
Известно (Пучков, Е.В. Разработка нейросетевой системы управления технологическими процессами на сортировочных горках: дисс. на соискание ученой степени кандидата технических наук по спец-ти 05.13.06, - Ростов-на-Дону, 2011 г.), что для формирования обучающей выборки для обучения ИНС способом «обучение с учителем» обычно используют данные, получаемые из следующих источников:
1. локальные данные организаций (базы данных, табличные файлы и т.д.);
2. внешние данные, доступные через Интернет (курсы акций, сведения о погоде и т.д.);
3. данные, получаемые от различных устройств (датчики оборудования, видеокамеры и т.д.).
Недостатком описанного способа является невозможность его применения в случае отсутствия статистически достаточного ряда наблюдений исследуемых объектов, что не позволяет сформировать достаточного числа обучающих векторов для корректного обучения ИНС способом «обучение с учителем».
Технической задачей, решаемой в патентуемом изобретении, является расширение класса задач, решаемых с помощью технологии ИНС, на случай отсутствия статистически достаточного ряда наблюдений исследуемых объектов.
Поставленная техническая задача достигается тем, что обучающие векторы формируют на основе знаний эксперта в рассматриваемой области, причем эксперт последовательно определяет классы исследуемых объектов, к которым относятся сгенерированные с помощью генератора псевдослучайных чисел обучающие векторы входных сигналов ИНС, принадлежащие некоторой рассматриваемой области, и созданные компьютером визуальные образы, наглядно описывающие объекты, задаваемые сгенерированными обучающими векторами.
Под экспертом, в контексте данного изобретения, понимается человек, обладающий специальными знаниями об исследуемых объектах, компетентный в рассматриваемой области.
Реализуемый с использованием компьютера порядок выполнения действий патентуемого способа содержит следующие этапы:
1. определение необходимого числа K обучающих векторов u(n), n=1, 2, …, K для обучения ИНС, т.е. числа точек на N-мерном пространстве входных векторов u;
2. указание диапазона изменения входных сигналов ИНС, т.е. ограничение всего N-мерного пространства входных векторов и некоторой рассматриваемой областью О (на фиг.3. показана штриховкой);
3. указание М векторов, описывающих наиболее типичных представителей каждого из М исследуемых классов объектов L1, L2, …, Lj, j=1, 2, …, М, принадлежащих области О;
4. генерация компьютером с помощью генератора псевдослучайных чисел K обучающих векторов u(n), n=1, 2, …, K входных сигналов ИНС, принадлежащих области О, вначале вблизи окрестности точек, указанных экспертом на этапе 3 рассматриваемого способа, т.е. вблизи окрестности точек М векторов, описывающих наиболее типичных представителей каждого из М исследуемых классов объектов L1, L2, …, Lj, с последующим последовательным равномерным расширением этой окрестности до указанной ранее области О;
5. создание компьютером визуальных образов, наглядно описывающих объекты, задаваемые сгенерированными обучающими векторами;
6. демонстрация эксперту сгенерированных обучающих векторов и визуальных образов, наглядно описывающих объекты, задаваемые сгенерированными обучающими векторами;
7. определение экспертом, на основе своих знаний об исследуемых объектах, в пределах рассматриваемой области О, одного из М классов, к которому относится каждый из K сгенерированных обучающих векторов u(n) входных сигналов ИНС;
8. запись сгенерированных обучающих векторов u(n) и эталонных сигналов dj(n), соответствующих классам Lj(n) объектов, к которым, по мнению эксперта, относятся сгенерированные вектора, в виде пар <u(n), dj(n)> на материальный носитель;
9. считывание записанных пар вида <u(n), dj(n)> с материального носителя и подача на входы ИНС считанных сигналов обучающих векторов u(n) и соответствующих эталонных сигналов dj(n),
10. коррекция вектора синаптических весов нейронов w(n) ИНС в соответствии с (12) с шагом коррекции η до завершения обучения.
Описанный способ может быть улучшен тем, что эксперт в случае затруднения с определением принадлежности какого-либо из K сгенерированных обучающих векторов u(n) входных сигналов ИНС к тому или иному из М классов (этап 7 описанного выше порядка действий) имеет возможность отказаться от работы с данным вектором и повторно генерировать новые обучающие векторы (возврат к этапу 4) без определения их принадлежности до тех пор, пока он не сможет корректно определить принадлежность одного из вновь сгенерированных векторов.
Изобретение поясняется следующими графическими материалами:
фиг.1 - структура персептрона;
фиг.2 - двумерное пространство входных векторов (гиперплоскость);
фиг.3 - ограничение двумерного пространства входных векторов и некоторой рассматриваемой областью О.
Использование патентуемого способа обучения ИНС обеспечивает по сравнению с известным способом следующие технические преимущества:
а) расширение класса задач, решаемых с помощью технологии ИНС, на случай отсутствия статистически достаточного ряда наблюдений исследуемых объектов;
б) ИНС содержит в себе знания конкретного, участвовавшего в обучении, эксперта об исследуемых объектах и может имитировать его интеллектуальную деятельность при решении задач классификации объектов, описываемых наборами числовых признаков (векторами).
В среде «Delphi 7» была создана, исполняемая на компьютере, программа, используемая в описываемом способе обучения ИНС. Под генератором псевдослучайных чисел, в данном случае, понимается применение стандартных функций Randomize и Random() языка программирования «Паскаль», под материальным носителем - бумажная распечатка. Визуальные образы, наглядно описывающие объекты, задаваемые сгенерированными обучающими векторами, выводятся на монитор компьютера.
Claims (2)
1. Способ обучения искусственной нейронной сети (ИНС), предназначенной для решения задач классификации объектов, описываемых наборами числовых признаков (векторами), содержащий N-мерное пространство обучающих векторов u(n)=[u1(n), …, uN(n)]T, n=1, 2, …, K для обучения ИНС; М исследуемых классов объектов L1, L2, …, Lj, j=1, 2, …, М; эталонные сигналы dj(n), соответствующие исследуемым классам Lj(n) объектов; вектор синаптических весов нейронов w(n) ИНС; шаг коррекции η, 0<η<1; выходные сигналы ИНС y(n) отличающийся тем, что обучающие векторы u(n), n=1, 2, …, K формируют на основе знаний человека, компетентного в рассматриваемой области (эксперта), в случае отсутствия статистически достаточного ряда наблюдений исследуемых объектов, причем эксперт последовательно определяет классы исследуемых объектов, к которым относятся сгенерированные с помощью генератора псевдослучайных чисел обучающие векторы входных сигналов ИНС, принадлежащие некоторой рассматриваемой области, и созданные компьютером визуальные образы, наглядно описывающие объекты, задаваемые сгенерированными обучающими векторами, при этом реализуемый с использованием компьютера порядок выполнения действий патентуемого способа содержит следующие этапы: определяют необходимое число К обучающих векторов u(n), n=1, 2, …, K для обучения ИНС; ограничивают N-мерное пространство входных векторов u некоторой рассматриваемой областью О; указывают М векторов, описывающих наиболее типичных представителей каждого из М исследуемых классов объектов L1, L2, …, Lj, j=1, 2, …, М, принадлежащих области О; генерируют компьютером с помощью генератора псевдослучайных чисел K обучающих векторов u(n), n=1, 2, …, K входных сигналов ИНС, принадлежащих области О, вначале вблизи окрестности указанных М векторов, описывающих наиболее типичных представителей каждого из М исследуемых классов объектов L1, L2, …, Lj, с последующим последовательным равномерным расширением этой окрестности до указанной ранее области О; создают компьютером визуальные образы, наглядно описывающие объекты, задаваемые сгенерированными обучающими векторами; демонстрируют эксперту сгенерированные обучающие векторы и визуальные образы, наглядно описывающие объекты, задаваемые сгенерированными обучающими векторами; определяют, на основе знаний эксперта об исследуемых объектах, в пределах рассматриваемой области О, один из М классов, к которому относится каждый из K сгенерированных обучающих векторов u(n) входных сигналов ИНС; записывают сгенерированные обучающие векторы u(n) и эталонные сигналы dj(n), соответствующие классам Lj(n) объектов, к которым, по мнению эксперта, относятся сгенерированные вектора, в виде пар <u(n), dj(n)> на материальный носитель; считывают записанные пары вида <u(n), dj(n)> с материального носителя и подают на входы ИНС считанные сигналы обучающих векторов u(n) и соответствующие эталонные сигналы dj(n); корректируют вектор синаптических весов нейронов w(n) с шагом коррекции η до завершения обучения ИНС.
2. Способ обучения искусственной нейронной сети (ИНС), предназначенной для решения задач классификации объектов, описываемых наборами числовых признаков (векторами) по п.1, отличающийся тем, что в случае затруднения эксперта с определением принадлежности какого-либо из K сгенерированных обучающих векторов u(n) входных сигналов ИНС к тому или иному из М классов, имеют возможность отказаться от работы с данным вектором и повторно генерируют новые обучающие векторы без определения их принадлежности до тех пор, пока не смогут корректно определить на основе знаний эксперта об исследуемых объектах принадлежность одного из вновь сгенерированных векторов.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2012123310/08A RU2504006C1 (ru) | 2012-06-05 | 2012-06-05 | Способ обучения искусственной нейронной сети |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2012123310/08A RU2504006C1 (ru) | 2012-06-05 | 2012-06-05 | Способ обучения искусственной нейронной сети |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2012123310A RU2012123310A (ru) | 2013-12-10 |
RU2504006C1 true RU2504006C1 (ru) | 2014-01-10 |
Family
ID=49682844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2012123310/08A RU2504006C1 (ru) | 2012-06-05 | 2012-06-05 | Способ обучения искусственной нейронной сети |
Country Status (1)
Country | Link |
---|---|
RU (1) | RU2504006C1 (ru) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2566979C1 (ru) * | 2014-12-15 | 2015-10-27 | Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Тульский государственный университет" (ТулГУ) | Способ обучения искусственной нейронной сети |
RU2602973C1 (ru) * | 2015-09-30 | 2016-11-20 | Федеральное государственное бюджетное образовательное учреждение высшего образования "Кубанский государственный технологический университет" (ФГБОУ ВО "КубГТУ") | Контроллер управления обучением нейронной сети с генетическим алгоритмом |
RU2649792C2 (ru) * | 2016-09-09 | 2018-04-04 | Общество С Ограниченной Ответственностью "Яндекс" | Способ и система обучения алгоритма машинного обучения |
RU2653931C2 (ru) * | 2016-06-24 | 2018-05-15 | Закрытое Акционерное Общество "Ес-Лизинг" | Способ прогнозирования состояния и оптимизации функционирования системы |
RU2674326C2 (ru) * | 2017-02-20 | 2018-12-06 | Автономная некоммерческая образовательная организация высшего образования "Сколковский институт науки и технологий" | Способ формирования архитектуры нейросети для классификации объекта, заданного в виде облака точек, способ ее применения для обучения нейросети и поиска семантически схожих облаков точек |
RU2708343C2 (ru) * | 2018-04-16 | 2019-12-05 | Алексей Владимирович Вейко | Способ поиска и восстановления функциональных зависимостей и устройство для его реализации |
RU2716322C2 (ru) * | 2018-03-23 | 2020-03-11 | Общество с ограниченной ответственностью "Аби Продакшн" | Репродуцирующая аугментация данных изображения |
RU2723270C1 (ru) * | 2019-08-13 | 2020-06-09 | Федеральное государственное унитарное предприятие "Ростовский-на-Дону научно-исследовательский институт радиосвязи" (ФГУП "РНИИРС") | Способ обучения искусственной нейронной сети |
RU2725789C1 (ru) * | 2019-04-17 | 2020-07-06 | Федеральное государственное казенное образовательное учреждение высшего образования "Калининградский пограничный институт Федеральной службы безопасности Российской Федерации" | Способ обработки массивов аналоговых сигналов |
RU2729878C2 (ru) * | 2019-01-21 | 2020-08-13 | Михаил Ефимович Мазуров | Инструментальный способ обучения избирательной нейронной сети без математики и без учителя с использованием самоорганизации |
WO2020205221A1 (en) * | 2019-04-04 | 2020-10-08 | Mastercard International Incorporated | Transaction selection mechanism |
RU2736333C1 (ru) * | 2019-12-30 | 2020-11-16 | федеральное государственное автономное образовательное учреждение высшего образования "Санкт-Петербургский политехнический университет Петра Великого" (ФГАОУ ВО "СПбПУ") | Способ передискретизации зарегистрированных облаков точек в полярных координатах без потери изначальной структуры |
US11090008B2 (en) | 2013-03-20 | 2021-08-17 | Koninklijke Philips N.V. | Neurophysiological monitoring for prospective motion gating in radiological imaging |
WO2021202633A1 (en) * | 2020-04-02 | 2021-10-07 | Rheem Manufacturing Company | Systems and methods for probabilistic and deterministic boiler networks |
RU2772079C2 (ru) * | 2020-10-26 | 2022-05-16 | Российская Федерация, от имени которой выступает Министерство обороны Российской Федерации | Устройство автоматического оценивания проходимости местности военной техникой |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2598294C2 (ru) * | 2014-01-22 | 2016-09-20 | Александр Николаевич Цуриков | Широковещательная система оповещения абонентов мобильной связи о возникновении экстренных ситуаций, абонентское устройство связи и способы ее функционирования |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5384895A (en) * | 1992-08-28 | 1995-01-24 | The United States Of America As Represented By The Secretary Of The Navy | Self-organizing neural network for classifying pattern signatures with `a posteriori` conditional class probability |
JPH09138786A (ja) * | 1995-11-14 | 1997-05-27 | Matsushita Electric Ind Co Ltd | ニューラルネットワークの学習装置 |
JP2000172662A (ja) * | 1998-12-08 | 2000-06-23 | Yoshiyasu Mutou | ニューラルネットワークの学習方法 |
RU2007116053A (ru) * | 2007-04-27 | 2008-11-10 | Сименс Акциенгезелльшафт (DE) | Способ компьютеризованного обучения одной или более нейронных сетей |
RU2424561C2 (ru) * | 2005-08-31 | 2011-07-20 | Майкрософт Корпорейшн | Обучение сверточных нейронных сетей на графических процессорах |
JP2011154644A (ja) * | 2010-01-28 | 2011-08-11 | Fuji Xerox Co Ltd | プログラム及び情報分類装置 |
-
2012
- 2012-06-05 RU RU2012123310/08A patent/RU2504006C1/ru active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5384895A (en) * | 1992-08-28 | 1995-01-24 | The United States Of America As Represented By The Secretary Of The Navy | Self-organizing neural network for classifying pattern signatures with `a posteriori` conditional class probability |
JPH09138786A (ja) * | 1995-11-14 | 1997-05-27 | Matsushita Electric Ind Co Ltd | ニューラルネットワークの学習装置 |
JP2000172662A (ja) * | 1998-12-08 | 2000-06-23 | Yoshiyasu Mutou | ニューラルネットワークの学習方法 |
RU2424561C2 (ru) * | 2005-08-31 | 2011-07-20 | Майкрософт Корпорейшн | Обучение сверточных нейронных сетей на графических процессорах |
RU2007116053A (ru) * | 2007-04-27 | 2008-11-10 | Сименс Акциенгезелльшафт (DE) | Способ компьютеризованного обучения одной или более нейронных сетей |
JP2011154644A (ja) * | 2010-01-28 | 2011-08-11 | Fuji Xerox Co Ltd | プログラム及び情報分類装置 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11090008B2 (en) | 2013-03-20 | 2021-08-17 | Koninklijke Philips N.V. | Neurophysiological monitoring for prospective motion gating in radiological imaging |
RU2566979C1 (ru) * | 2014-12-15 | 2015-10-27 | Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Тульский государственный университет" (ТулГУ) | Способ обучения искусственной нейронной сети |
RU2602973C1 (ru) * | 2015-09-30 | 2016-11-20 | Федеральное государственное бюджетное образовательное учреждение высшего образования "Кубанский государственный технологический университет" (ФГБОУ ВО "КубГТУ") | Контроллер управления обучением нейронной сети с генетическим алгоритмом |
RU2653931C2 (ru) * | 2016-06-24 | 2018-05-15 | Закрытое Акционерное Общество "Ес-Лизинг" | Способ прогнозирования состояния и оптимизации функционирования системы |
RU2649792C2 (ru) * | 2016-09-09 | 2018-04-04 | Общество С Ограниченной Ответственностью "Яндекс" | Способ и система обучения алгоритма машинного обучения |
RU2674326C2 (ru) * | 2017-02-20 | 2018-12-06 | Автономная некоммерческая образовательная организация высшего образования "Сколковский институт науки и технологий" | Способ формирования архитектуры нейросети для классификации объекта, заданного в виде облака точек, способ ее применения для обучения нейросети и поиска семантически схожих облаков точек |
RU2716322C2 (ru) * | 2018-03-23 | 2020-03-11 | Общество с ограниченной ответственностью "Аби Продакшн" | Репродуцирующая аугментация данных изображения |
RU2708343C2 (ru) * | 2018-04-16 | 2019-12-05 | Алексей Владимирович Вейко | Способ поиска и восстановления функциональных зависимостей и устройство для его реализации |
RU2729878C2 (ru) * | 2019-01-21 | 2020-08-13 | Михаил Ефимович Мазуров | Инструментальный способ обучения избирательной нейронной сети без математики и без учителя с использованием самоорганизации |
WO2020205221A1 (en) * | 2019-04-04 | 2020-10-08 | Mastercard International Incorporated | Transaction selection mechanism |
RU2725789C1 (ru) * | 2019-04-17 | 2020-07-06 | Федеральное государственное казенное образовательное учреждение высшего образования "Калининградский пограничный институт Федеральной службы безопасности Российской Федерации" | Способ обработки массивов аналоговых сигналов |
RU2723270C1 (ru) * | 2019-08-13 | 2020-06-09 | Федеральное государственное унитарное предприятие "Ростовский-на-Дону научно-исследовательский институт радиосвязи" (ФГУП "РНИИРС") | Способ обучения искусственной нейронной сети |
RU2736333C1 (ru) * | 2019-12-30 | 2020-11-16 | федеральное государственное автономное образовательное учреждение высшего образования "Санкт-Петербургский политехнический университет Петра Великого" (ФГАОУ ВО "СПбПУ") | Способ передискретизации зарегистрированных облаков точек в полярных координатах без потери изначальной структуры |
WO2021202633A1 (en) * | 2020-04-02 | 2021-10-07 | Rheem Manufacturing Company | Systems and methods for probabilistic and deterministic boiler networks |
US11506575B2 (en) | 2020-04-02 | 2022-11-22 | Rheem Manufacturing Company | Systems and methods for probabilistic and deterministic boiler networks |
RU2772079C2 (ru) * | 2020-10-26 | 2022-05-16 | Российская Федерация, от имени которой выступает Министерство обороны Российской Федерации | Устройство автоматического оценивания проходимости местности военной техникой |
Also Published As
Publication number | Publication date |
---|---|
RU2012123310A (ru) | 2013-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2504006C1 (ru) | Способ обучения искусственной нейронной сети | |
Yu et al. | Precise-spike-driven synaptic plasticity: Learning hetero-association of spatiotemporal spike patterns | |
Naser et al. | Predicting student performance using artificial neural network: In the faculty of engineering and information technology | |
Montavon et al. | Explaining nonlinear classification decisions with deep taylor decomposition | |
Ponulak et al. | Supervised learning in spiking neural networks with ReSuMe: sequence learning, classification, and spike shifting | |
Fujii et al. | Learning interaction rules from multi-animal trajectories via augmented behavioral models | |
Gambo et al. | Performance Comparison of Convolutional and Multiclass Neural Network for Learning Style Detection from Facial Images. | |
Bayati et al. | Storage fidelity for sequence memory in the hippocampal circuit | |
Baldy et al. | Inference on the macroscopic dynamics of spiking neurons | |
Bae et al. | Lessons from deep neural networks for studying the coding principles of biological neural networks | |
Irvanizam et al. | Applying Artificial Neural Network Based On Backpropagation Method For Indonesian Sign Language Recognition | |
Karpov et al. | Adaptation of general concepts of software testing to neural networks | |
Mustaffa et al. | Personality predictive analysis based on artificial neural network | |
Tripathi et al. | Machine Learning and Its Application in Educational Area | |
Shiva et al. | Continuous time recurrent neural network model of recurrent collaterals in the hippocampus ca3 region | |
Maheshwari et al. | A comparative study of different machine learning tools | |
Yang et al. | Exploration of a mechanism to form bionic, self-growing and self-organizing neural network | |
Petri et al. | Universal limits to parallel processing capability of network architectures | |
Chernyshev | Bayesian optimization of spiking neural network parameters to solving the time series classification task | |
Ibias et al. | Improving Noise Robustness through Abstractions and its Impact on Machine Learning | |
Xiong et al. | Sequential Reservoir Computing for Log File‐Based Behavior Process Data Analyses | |
Kasabov | Brain-inspired snn for deep learning in time-space and deep knowledge representation. neucube | |
Sarmashghi | Integrating statistical and machine learning approaches to identify receptive field structure in neural populations | |
Savithri et al. | Blockchain Technology in Estimating Crow Intelligence Using Artificial Intelligence | |
Liu et al. | Functional connectome: Approximating brain networks with artificial neural networks |