EA035114B1 - Нейронная сеть и способ обучения нейронной сети - Google Patents

Нейронная сеть и способ обучения нейронной сети Download PDF

Info

Publication number
EA035114B1
EA035114B1 EA201600637A EA201600637A EA035114B1 EA 035114 B1 EA035114 B1 EA 035114B1 EA 201600637 A EA201600637 A EA 201600637A EA 201600637 A EA201600637 A EA 201600637A EA 035114 B1 EA035114 B1 EA 035114B1
Authority
EA
Eurasian Patent Office
Prior art keywords
neural
weights
weight
adjustment
network
Prior art date
Application number
EA201600637A
Other languages
English (en)
Other versions
EA201600637A1 (ru
Inventor
Дмитрий Виленович Песчанский
Original Assignee
Прогресс, Инк.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Прогресс, Инк. filed Critical Прогресс, Инк.
Publication of EA201600637A1 publication Critical patent/EA201600637A1/ru
Publication of EA035114B1 publication Critical patent/EA035114B1/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Complex Calculations (AREA)
  • Image Processing (AREA)

Abstract

Изобретение относится к искусственной нейронной сети и способу ее обучения. Нейронная сеть содержит множество входов для получения входных сигналов и синапсы, соединенные с входами и имеющие корректировочные веса. Сеть дополнительно содержит дистрибьюторы. Каждый дистрибьютор подключен к одному из входов для получения соответствующего входного сигнала и выбирает один или более корректировочный вес в соответствии со значением входного сигнала. Сеть также содержит нейроны. Каждый нейрон имеет выход и соединен по меньшей мере с одним из входов через один синапс и создает нейронную сумму путем суммирования корректировочных весов, выбранных из каждого синапса, подключенного к соответствующему нейрону. Кроме того, сеть содержит калькулятор коррекции веса, который получает желаемый выходной сигнал, определяет отклонение нейронной суммы от желаемого значения выходного сигнала и изменяет соответствующие корректировочные веса, используя это определенное отклонение. Суммирование этих измененных корректировочных весов при определении нейронной суммы минимизирует рассматриваемое отклонение, таким образом обучая нейронную сеть. Технический результат выражается в сокращении времени обучения и уменьшении вычислительных ресурсов, необходимых для обучения нейронных сетей.

Description

Отсылки к родственным заявкам
Данная заявка испрашивает приоритет согласно предварительной заявке США № 61/949210, поданной 06 марта 2014 г., и предварительной заявке США № 62/106389, поданной 22 января 2015 г., содержание которых включено в настоящий документ посредством ссылки.
Область техники
Нижеследующее изобретение, в целом, относится к искусственной нейронной сети и способу ее обучения.
Предшествующий уровень техники
В машинном обучении искусственные нейронные сети являются семейством статистических алгоритмов обучения, они построены по принципу биологических нейронных сетей, которые представляют собой центральные нервные системы животных, в частности головной мозг. Искусственные нейронные сети позволяют производить оценку и аппроксимацию функций многих переменных. Такие нейронные сети используются для решения широкого спектра задач, которые трудно решить с помощью обычного алгоритмического программирования, в том числе задач компьютерного зрения и распознавания речи.
Искусственные нейронные сети обычно представляют собой системы из специальных устройств нейронов, которые могут производить вычисления на основании величин сигналов, приходящих на их входы, и в результате их адаптивной природы способны к машинному обучению, а также к распознаванию образов. Каждый нейрон обычно соединяется с несколькими входами сети через синапсы, которые имеют синаптические веса.
Нейронные сети не программируются как обычное программное обеспечение, а обучаются. Такое обучение обычно осуществляется посредством анализа необходимого количества репрезентативных примеров путем статистического или алгоритмического подбора синаптических весов, таким образом, чтобы заданный набор входных образов соответствует заданному набору выходных образов. Классические нейронные сети, как правило, критикуют за длительное время обучения и необходимость больших вычислительных ресурсов для их обучения.
Различные искусственные нейронные сети описаны в патентах США №№ 4979124, 5479575, 5493688,5566273, 5682503, 5870729,7577631 и 7814038.
Сущность изобретения
Нейронная сеть включает в себя множество входов нейронной сети, каждый вход сконфигурирован для приема входного сигнала, имеющего определенное входное значение. Нейронная сеть также включает в себя множество синапсов, где каждый синапс соединен с одним из множества входов, и включает в себя множество корректировочных весов, где каждый корректировочный вес определяется своим весовым значением (весом). Нейронная сеть также включает в себя набор дистрибьюторов (распределителей сигналов). Каждый дистрибьютор операционно соединен с одним из множества входов для приема соответствующего входного сигнала и сконфигурирован для выбора одного или более корректировочных весов из множества корректировочных весов в соответствии с величиной входного сигнала. Нейронная сеть также включает в себя набор нейронов. Каждый нейрон имеет по меньшей мере один выход и соединен по меньшей мере с одним из множества входов посредством одного из множества синапсов, при этом каждый нейрон сконфигурирован для того, чтобы суммировать весовые значения корректировочных весов, выбранных от каждого синапса, соединенного с соответствующим нейроном, и тем самым создавать нейронную сумму. Кроме того, нейронная сеть включает в себя калькулятор коррекции веса, сконфигурированный для получения желаемого выходного сигнала, имеющего определенное значение, для определения отклонения нейронной суммы от значения желаемого выходного сигнала и для изменения соответствующих значений корректировочных весов, используя определенное таким образом отклонение нейронной суммы. Суммирование измененных значений корректировочных весов для определения нейронной суммы минимизирует отклонение нейронной суммы от желаемого значения выходного сигнала, что обеспечивает обучение нейронной сети.
Определение отклонения нейронной суммы от желаемого выходного сигнала может включать деление желаемого значения выходного сигнала на нейронную сумму, чтобы таким образом получить коэффициент отклонения. В таком случае изменение значений соответствующих корректировочных весов может включать умножение каждого корректировочного веса, используемого для получения нейронной суммы, на коэффициент отклонения.
Отклонение нейронной суммы от желаемого выходного сигнала может в другом варианте представлять собой математическую разность между ними. В таком случае получение соответствующих измененных корректировочных весов может включать распределение математической разности между всеми корректировочными весами, используемыми для получения этой нейронной суммы. Такое распределение математической разности между всеми корректировочными весами служит для того, чтобы приблизить каждую нейронную сумму к желаемому значению сигнала.
Распределение математической разности может также включать деление определенной разности поровну между всеми корректировочными весами, использованными для получения нейронной суммы.
Дистрибьютор может быть дополнительно сконфигурирован для назначения множества коэффициентов воздействия соответствующему множеству корректировочных весов таким образом, что каждый
- 1 035114 коэффициент воздействия назначается одному из множества корректировочных весов в заранее заданной пропорции, чтобы получить соответствующую нейронную сумму.
Каждое соответствующее множество коэффициентов воздействия может определяться функцией распределения воздействия. Множество входных сигналов формируют диапазон значений сигналов, разделенный на интервалы в соответствии с функцией распределения интервалов таким образом, что каждое входное значение попадает в соответствующий его величине интервал, и каждый корректировочный вес соответствует одному из интервалов. Также каждый дистрибьютор может использовать соответствующее полученное входное значение сигнала для выбора соответствующего интервала. Кроме того, каждый дистрибьютор может назначать соответствующее множество коэффициентов воздействия корректировочному весу, соответствующему выбранному интервалу и по меньшей мере еще одному корректировочному весу, соответствующему интервалу, примыкающему к выбранному соответствующему интервалу.
Каждый нейрон может быть сконфигурирован так, чтобы суммировать произведения корректировочных весов с учетом назначенных коэффициентов воздействия для всех синапсов, соединенных с ним.
Заранее определенная пропорция коэффициентов воздействия может быть задана согласно статистическому распределению, например с использованием распределения Гаусса.
Калькулятор коррекции веса может быть сконфигурирован так, чтобы назначать часть определенной ранее разности каждому корректировочному весу, используемому для получения нейронной суммы, согласно пропорции, установленной соответствующим коэффициентом воздействия.
Каждый корректировочный вес может дополнительно определяться набором индексов. Эти индексы могут включать входной индекс, сконфигурированный, чтобы идентифицировать корректировочный вес, соответствующий входу, индекс интервала, сконфигурированный, чтобы определять выбранный интервал для соответствующего корректировочного веса, а также нейронный индекс, сконфигурированный, чтобы определять корректировочный вес соответствующему нейрону.
Каждый корректировочный вес может дополнительно определяться с помощью индекса доступа, сконфигурированного, чтобы подсчитывать количество раз, когда входной сигнал обращается к соответствующему корректировочному весу во время обучения нейронной сети.
В изобретении раскрывается также способ обучения данной нейронной сети.
Вышеуказанные отличительные признаки и преимущества, а также другие отличительные признаки и преимущества настоящего краткого описания будут очевидно выражены в последующем подробном описании предпочтительного варианта(ов) и способа(ов) осуществления описанного изобретения, а также в прилагаемых чертежах и прилагаемой формуле изобретения.
Краткое описание чертежей
Фиг. 1 является иллюстрацией предшествующего уровня техники, классической искусственной нейронной сети.
Фиг. 2 является иллюстрацией прогрессивной нейронной сети (п-сети) имеющей множество синапсов, набор дистрибьюторов и множество корректировочных весов, связанных с каждым синапсом.
Фиг. 3А является иллюстрацией части п-сети, показанной на фиг. 2, имеющей множество синапсов и один синаптический вес, расположенный выше каждого дистрибьютора.
Фиг. 3В является иллюстрацией части п-сети, показанной на фиг. 2, имеющей множество синапсов и набор синаптических весов, расположенных ниже соответствующего множества корректировочных весов.
Фиг. 3С является иллюстрацией части п-сети, показанной на фиг. 2, имеющей множество синапсов и один синаптический вес, расположенный выше каждого дистрибьютора, и набор синаптических весов, расположенных ниже соответствующего множества корректировочных весов.
Фиг. 4А является иллюстрацией части п-сети, показанной на фиг. 2, имеющей один дистрибьютор для всех синапсов данного входа и один синаптический вес, расположенный выше каждого дистрибьютора.
Фиг. 4В является иллюстрацией части п-сети, показанной на фиг. 2, имеющей один дистрибьютор для всех синапсов данного входа и набор синаптических весов, расположенных ниже соответствующего множества корректировочных весов.
Фиг. 4С является иллюстрацией части п-сети, показанной на фиг. 2, имеющей один дистрибьютор для всех синапсов данного входа и имеющей один синаптический вес, расположенный выше каждого дистрибьютора, и набор синаптических весов, расположенных ниже соответствующего множества корректировочных весов.
Фиг. 5 является иллюстрацией разделения диапазона значений входного сигнала на индивидуальные интервалы в п-сети, показанной на фиг. 2.
Фиг. 6А является иллюстрацией одного варианта распределения для значений коэффициента воздействия корректировочных весов в п-сети, показанной на фиг. 2.
Фиг. 6В является иллюстрацией другого варианта распределения для значений коэффициента воздействия корректировочных весов в п-сети, показанной на фиг. 2.
Фиг. 6С является иллюстрацией еще одного варианта распределения для значений коэффициента
- 2 035114 воздействия корректировочных весов в п-сети, показанной на фиг. 2.
Фиг. 7 является иллюстрацией входного образа для п-сети, показанной на фиг. 2, а также одной соответствующей таблицы, представляющей образ в форме цифрового кода, и другой соответствующей таблицы, представляющей тот же образ как набор соответствующих интервалов.
Фиг. 8 является иллюстрацией варианта воплощения п-сети, показанной на фиг. 2, которая обучена распознавать два разных образа, при этом п-сеть сконфигурирована так, чтобы распознавать изображение, которое включает некоторые черты каждого образа;
Фиг. 9 является иллюстрацией варианта воплощения п-сети, показанной на фиг. 2, с примером распределения синаптических весов вокруг центрального нейрона.
Фиг. 10 является иллюстрацией варианта воплощения п-сети, показанной на фиг. 2, отображающей равномерное распределение обучающих отклонений между корректировочными весами.
Фиг. 11 является иллюстрацией варианта воплощения п-сети, показанной на фиг. 2, использующей изменение корректировочных весов во время обучения п-сети.
Фиг. 12 является иллюстрацией варианта воплощения п-сети, показанной на фиг. 2, где основной алгоритм создает первичный набор выходных нейронных сумм и где созданный набор используется для создания нескольких побеждающих сумм-победителей с либо сохранившимися, либо увеличившимися значениями, а вклад остальных сумм уменьшается и сводится к нулю.
Фиг. 13 является иллюстрацией варианта воплощения п-сети, показанной на фиг. 2, распознающей сложный образ с элементами нескольких разных образов.
Фиг. 14 является иллюстрацией модели объектно-ориентированного программирования для п-сети, показанной на фиг. 2, при использовании Унифицированного Языка Моделирования (язык UML).
Фиг. 15 является иллюстрацией последовательности общего формирования п-сети, показанной на фиг. 2.
Фиг. 16 является иллюстрацией типового анализа и подготовки данных для формирования п-сети, показанной на фиг. 2.
Фиг. 17 является иллюстрацией типового процесса создания входа, делающего возможным взаимодействие п-сети, показанной на фиг. 2, с входными данными во время обучения и применения п-сети.
Фиг. 18 является иллюстрацией типового процесса создания нейронных блоков для п-сети, показанной на фиг. 2.
Фиг. 19 является иллюстрацией типового процесса создания каждого синапса, соединенного с нейронными блоками.
Фиг. 20 является иллюстрацией процесса обучения п-сети, показанной на фиг. 2.
Фиг. 21 является иллюстрацией процесса обучения нейронного блока в п-сети, показанной на фиг. 2.
Фиг. 22 является иллюстрацией наращивания нейронных сумм во время обучения п-сети, показанной на фиг. 2.
Фиг. 23 является схемой последовательности операций способа, использованного для обучения нейронной сети, показанной на фиг. 2-22.
Подробное описание изобретения
Классическая искусственная нейронная сеть 10, как показано на фиг. 1, обычно включает устройства ввода данных 12, синапсы 14 с синаптическими весами 16, нейроны 18, включающие сумматор 20 и устройство для активации функции 22, нейронные выходы 24 и калькулятор коррекции веса 26. Каждый нейрон 18 соединен через синапсы 14 с двумя или более устройствами ввода данных 12. Значения синаптических весов 16 обычно выражаются числовыми значениями, записанными в ячейках памяти при цифровой (программной или аппаратной) реализации п-сети или с помощью электрического сопротивления, проводимости, напряжения, электрического заряда, магнитных свойств или других параметров при аналоговой реализации п-сети.
Обучение классической нейронной сети 10, как правило, основано на применении способа обучение с учителем, то есть использовании набора обучающих пар 28. Каждая обучающая пара 28 обычно состоит из входного изображения 28-1 и желаемого выходного изображения 28-2, то есть набора обучающих сигналов. Обучение классической нейронной сети 10 обычно осуществляется следующим образом. Входное изображение в форме набора входных сигналов (Ii-Im) поступает на устройства ввода данных 12 и перемещается в синаптические веса 16 с изначальными весами (W1). Значение входного сигнала изменяется весами, обычно умножением или делением каждого значения сигнала (Ii-Im) на соответствующий вес. Из синаптических весов 16 измененные входные сигналы передаются на соответствующие нейроны 18. Каждый нейрон 18 получает набор сигналов от группы синапсов 14, относящихся к этому нейрону 18. Сумматор 20, входящий в нейрон 18, суммирует все входные сигналы, измененные весами и полученные этим нейроном, и формирует нейронную сумму. Устройства активации 22 получают эти нейронные суммы, изменяют их в соответствии с заданной математической функцией активации, таким образом формируя соответствующие выходные сигналы всех нейронов в виде наборов выходных сигналов нейронов (ZF1...ZFn).
- 3 035114
Полученный выходной образ, определенный выходными сигналами нейронов (ZF1...ZFn), сравнивается с помощью калькулятора коррекции веса 26 с заранее определенными желаемыми выходными образами (O1-On). На основе определенной разности между полученным выходным образом нейрона ZFn и желаемым выходным образом On формируются, используя предварительно запрограммированный алгоритм, корректирующие сигналы для изменения синаптических весов 16. После корректировки всех синаптических весов 16 набор входных сигналов (I1-Im) вновь вводится в нейронную сеть 10 и выполняются новые корректировки. Вышеуказанный цикл повторяется до тех пор, пока разность между полученным выходным образом нейрона ZFn и желаемым выходным образом On не будет меньше некоторой заранее определенной величины ошибки. Один цикл обучения сети со всеми заданными образами обычно называется учебной эпохой. Как правило, с каждой учебной эпохой величина ошибки уменьшается. В зависимости от числа входов (I1-Im), выходов и нейронов обучение классической нейронной сети 10 может потребовать значительного количества учебных эпох, которое, в некоторых случаях, может быть достигать сотен тысяч.
Существует множество различных классических нейронных сетей, в том числе сеть Хопфилда, ограниченная машина Больцмана, сеть радиально-базисных функций, рекуррентная нейронная сеть и другие. Конкретные задачи классификации и кластеризации требуют применения определенного типа нейронной сети - Самоорганизующихся Карт Кохонена, которые используют только входные образы в качестве входных обучающих данных, при этом желаемый выходной образ, соответствующий определенному входному образу, формируется непосредственно в процессе обучения на основе одного нейронапобедителя, имеющего выходной сигнал с максимальным значением.
Как было отмечено выше, одной из основных проблем, связанных с существующими классическими нейронными сетями, такими как нейронная сеть 10, является то, что их успешное обучение может потребовать значительного количества времени. К другим проблемам классических сетей может относиться большое потребление вычислительных ресурсов, что, в свою очередь, вызывает потребность в мощных компьютерах. А также невозможность увеличить размер сети без полного переобучения этой сети (не масштабируемость сети), неспособность выполнить дополнительное обучение уже обученной сети, предрасположенность к таким явлениям, как паралич сети и зависание на локальном минимуме, что не дает возможности предсказать, будет ли конкретная нейронная сеть в состоянии обучиться с данным набором образов в данной последовательности. Кроме того, могут существовать ограничения, связанные с конкретной последовательностью образов, которые вводятся в процессе обучения, поскольку изменение порядка ввода обучающих образов может привести к зависанию сети.
Относительно остальных чертежей, на которых соответствующие ссылочные номера относятся к соответствующим компонентам, на фиг. 2 показано схематическое изображение прогрессивной нейронной сети, далее прогрессивная сеть, или п-сеть 100. П-сеть 100 включает в себя множество (набор) входов 102 п-сети. Каждый вход 102 сконфигурирован для приема входного сигнала 104, при этом входные сигналы представлены как I1, I2-Im на фиг. 2. Каждый входной сигнал I1, I2...Im представляет значение некоторой(ых) характеристики(ик) входного образа 106, например величину, частоту, фазу, угол поляризации сигнала, или ассоциируется с различными частями входного образа 106. Каждый входной сигнал 104 имеет конкретное входное значение, при этом вместе множество входных сигналов 104 описывают входной образ 106.
Каждое входное значение может находиться в пределах диапазона значений, который лежит между -ж и +ж и может быть установлен в цифровой и/или аналоговой форме. Диапазон входных значений может зависеть от набора обучающих образов. В простейшем случае диапазон входных значений может быть разностью между наименьшим и наибольшим значениями входных сигналов для всех обучающих образов. По практическим причинам диапазон входных значений может быть ограничен за счет устранения входных значений, которые считаются слишком высокими. Например, такое ограничение диапазона входных значений может быть достигнуто с помощью известных статистических методов уменьшения дисперсии, таких как выборка по значимости. Другим примером ограничения диапазона входных значений может быть назначение всем сигналам, которые ниже, чем заранее заданный минимальный уровень, определенного минимального значения и назначение всем сигналам, превышающим заранее заданный максимальный уровень, определенного максимального значения.
П-сеть 100 также включает в себя множество (набор) синапсов 118. Каждый синапс 118 соединен с одним из множества входов 102, включает в себя множество корректировочных весов 112, а также может включать синаптический вес 108, как показано на фиг. 2. Каждый корректировочный вес 112 определяется соответствующим весовым значением 112. П-сеть 100 также включает в себя набор дистрибьюторов 114. Каждый дистрибьютор 114 операционно соединен с одним из множества входов 102 для приема соответствующего входного сигнала 104. Кроме того, каждый дистрибьютор 114 сконфигурирован так, чтобы выбирать один или несколько корректировочных весов из множества корректировочных весов 112 в соотношении с величиной входного сигнала.
П-сеть 100 дополнительно включает в себя набор нейронов 116. Каждый нейрон 116 имеет по меньшей мере один выход 117 и соединен по меньшей мере с одним из множества входов 102 посредством одного из синапсов 118. Каждый нейрон 116 сконфигурирован для того, чтобы суммировать или
- 4 035114 добавлять весовые значения корректировочных весов 112, выбранных от каждого синапса 118, соединенного с соответствующим нейроном 116, и тем самым создавать на выходе нейронную сумму 120, иначе обозначаемую как Σπ. Отдельный дистрибьютор 114 может быть использован для каждого синапса 118 данного входа 102, как показано на фиг. 3А, 3В и 3С, или один дистрибьютор может быть использован для всех таких синапсов, как показано на фиг. 4А, 4В и 4С. Во время формирования или настройки псети 100 всем корректировочным весам 112 присваиваются начальные значения, которые могут изменяться в процессе обучения п-сети. Начальное значение корректировочного веса 112 может быть назначено как в классической нейронной сети 10, например, веса могут быть выбраны случайным образом, вычислены с помощью заранее определенной математической функции, выбраны из заранее определенного шаблона и т.д.
П-сеть 100 также включает в себя калькулятор коррекции веса 122. Калькулятор коррекции веса 122 сконфигурирован для приема желаемого, т.е. заранее определенного выходного сигнала 124, имеющего определенную величину сигнала, отражающего часть желаемого выходного образа 126. Калькулятор коррекции веса 122 также сконфигурирован для определения отклонения 128 нейронной суммы 120 от значения желаемого выходного сигнала 124, то есть ошибки обучения и для изменения соответствующих значений корректировочных весов, используя определенное отклонение 128, чтобы таким образом суммируя измененные значения корректировочных весов для определения нейронной суммы 120, минимизировать отклонение этой нейронной суммы от желаемого значения выходного сигнала 124 и таким образом обучать п-сеть 100.
По аналогии с классической сетью 10, рассматриваемой на фиг. 1, отклонение нейронной суммы 128 также можно охарактеризовать как ошибку обучения между определенной нейронной суммой 120 и значением желаемого выходного сигнала 124. По сравнению с классической нейронной сетью 10, рассматриваемой на фиг. 1, в п-сети 100 значения входного сигнала 104 изменяются при проходе через веса только в процессе предварительной настройки сети и не изменяются во время обучения п-сети. Вместо того, чтобы изменять проходящие сигналы, обучение п-сети 100 обеспечивается путем изменения значений корректировочных весов 112. Кроме того, хотя каждый нейрон 116 включает в себя суммирующую функцию, согласно которой нейрон суммирует значения корректировочных весов, нейрон 116 не требует и, по сути, характеризуется отсутствием функции активации, которая, напротив, предусмотрена устройством функции активации 22 в классической нейронной сети 10.
В классической нейронной сети 10 коррекция веса во время обучения осуществляется путем изменения синаптических весов 16, а в п-сети 100 соответствующая коррекция веса обеспечивается за счет изменения значений корректировочных весов 112, как показано на фиг. 2. Соответствующие корректировочные веса 112 могут быть включены в блоки коррекции веса 110, расположенные на всех или некоторых синапсах 118. В нейросетевых компьютерных эмуляциях каждый из синаптических и корректировочных весов может быть представлен либо с помощью цифрового устройства, такого как ячейка памяти, и/или с помощью аналогового устройства. В нейросетевых программных эмуляциях значения корректировочных весов 112 могут генерироваться с помощью соответствующего запрограммированного алгоритма, а в аппаратных эмуляциях могут использоваться известные методы управления памятью.
В п-сети 100 отклонение 128 нейронной суммы 120 от желаемого выходного сигнала 124 может быть представлено в виде математически вычисленной разности между ними. Кроме того, генерация соответствующих измененных корректировочных весов 112 может включать в себя пропорциональное распределение вычисленной разности между всеми корректировочными весами, используемыми для получения нейронной суммы 120. В таком варианте осуществления п-сети получение соответствующих измененных корректировочных весов 112 позволит нейронной сумме 120 быть приведенной к желаемому значению выходного сигнала в пределах небольшого количества эпох, а в некоторых случаях всего лишь за одну эпоху, что позволяет быстро обучить п-сеть 100. В конкретном случае распределение математической разности между корректировочными весами 112, использованными для получения нейронной суммы 120, может включать деление определенной разности поровну между каждым корректировочным весом, использованным для получения соответствующей нейронной суммы 120.
В другом варианте осуществления п-сети определение отклонения 128 нейронной суммы 120 от желаемого значения выходного сигнала может включать разделение желаемого значения выходного сигнала на нейронную сумму, чтобы таким образом получить коэффициент отклонения. В данном случае изменение соответствующих измененных корректировочных весов 112 включает умножение каждого корректировочного веса, используемого для получения нейронной суммы 120, на коэффициент отклонения. Каждый дистрибьютор 114 может быть дополнительно сконфигурирован для назначения множества коэффициентов воздействия 134 множеству корректировочных весов 112. В настоящем варианте осуществления каждый коэффициент воздействия 134 может быть назначен одному из множества корректировочных весов 112 в заранее определенной пропорции, чтобы получить соответствующую нейронную сумму 120. Для соотнесения каждого корректировочного веса 112 соответствующему коэффициенту воздействия 134 может быть использована номенклатура коэффициента воздействия Одп, как показано на фигурах.
Каждый из множества коэффициентов воздействия 134, соответствующих определенному синапсу
- 5 035114
118, определяется соответствующей функцией распределения воздействия 136. Функция распределения воздействия 136 может быть одинаковой для всех коэффициентов воздействия 134 либо только для множества коэффициентов воздействия 134, относящихся к определенному синапсу 118. Каждое из множества входных значений может быть получено в диапазоне значений 138, разделенном на интервалы или подразделы d в соответствии с функции интервального распределения 140, таким образом, что каждое входное значение поступает в соответствующий интервал d, и каждый корректировочный вес соответствует одному из этих интервалов. Каждый дистрибьютор 114 может использовать соответствующее полученное входное значение для выбора соответствующего интервала d и назначать соответствующее множество коэффициентов воздействия 134 корректировочному весу 112, соответствующему выбранному интервалу d, и по меньшей мере одному корректировочному весу, соответствующему интервалу, примыкающему к выбранному интервалу, как например Wld+in или WI>d-l>n. В другом примере, не имеющем ограничительного характера, заранее заданное соотношение коэффициентов воздействия 134 может быть определено согласно статистическому распределению.
Получение нейронной суммы 120 может включать изначальное назначение соответствующих коэффициентов воздействия 134 каждому корректировочному весу 112 в соответствии со значением входного сигнала 102, затем умножение данных коэффициентов воздействия на значения соответствующих задействованных корректировочных весов 112, затем суммирование посредством каждого нейрона 116 отдельных произведений корректировочного веса 112 и назначенного коэффициента воздействия 134 для всех синапсов 118, соединенных с ним.
Калькулятор коррекции веса 122 может быть сконфигурирован так, чтобы назначать соответствующие коэффициенты воздействия 134, чтобы получать соответствующие измененные корректировочные веса 112. В частности, калькулятор коррекции веса 122 может назначать часть вычисленной математической разности между нейронной суммой 120 и желаемым выходным сигналом 124 каждому корректировочному весу 112, используемому для получения нейронной суммы 120, согласно пропорции, установленной соответствующими коэффициентами воздействия 134. Кроме того, математическая разность, разделенная между корректировочными весами 112, использованными для получения нейронной суммы 120, может быть далее разделена на соответствующий коэффициент воздействия 134. Впоследствии результат деления нейронной суммы 120 на соответствующий коэффициент воздействия 134 может быть добавлен к корректировочному весу 112 для того, чтобы привести нейронную сумму 120 к желаемому значению выходного сигнала.
Обычно формирование п-сети 100 происходит до начала обучения п-сети. Тем не менее, в отдельном варианте осуществления, если во время обучения п-сеть 100 принимает входной сигнал 104, для которого изначальные корректировочные веса не были ранее сгенерированы, соответствующие величине сигнала корректировочные веса 112 могут быть сгенерированы. В таком случае определенный дистрибьютор 114 будет определять подходящий интервал d для определенного входного сигнала 104, и группа корректировочных весов 112 с начальными значениями будет генерироваться для данного входа 102, данного интервала d и всех соответствующих нейронов 116. Также каждому сгенерированному новому корректировочному весу 112 может быть назначен соответствующий коэффициент воздействия 134.
Каждый корректировочный вес 112 может быть определен с помощью набора индексов, сконфигурированных для идентификации позиции каждого соответствующего корректировочного веса в п-сети 100. Набор индексов может, в частности, включать входной индекс I, сконфигурированный для идентификации корректировочного веса 112, соответствующего определенному входу 102, индекс интервала d, сконфигурированный, чтобы определять обозначенный выше выбранный интервал соответствующему корректировочному весу, и нейронный индекс n, сконфигурированный, чтобы определять корректировочный вес 112 соответствующему нейрону 116 с номенклатурой Widn. Таким образом, каждому корректировочному весу 112, соответствующему определенному входу 102, назначается определенный индекс подстрочный I , чтобы обозначить позицию субъекта. Аналогичным образом каждому корректировочному весу W, соответствующему определенному нейрону 116 и соответствующему синапсу 118, назначаются определенные подстрочные индексы n и d , чтобы обозначить данную позицию корректировочного веса в п-сети 100. Набор индексов может также включать в себя подстрочный индекс доступа а, сконфигурированный для подсчета количества раз, когда входной сигнал 104 обращается к соответствующему корректировочному весу 112 во время обучения п-сети 100. Другими словами, каждый раз, когда определенный интервал d и соответствующий корректировочный вес 112 выбираются для обучения из множества корректировочных весов в соответствии с входным значением, индекс доступа а увеличивается для подсчета входного сигнала. Индекс доступа а может быть использован для дальнейшего определения текущего состояния или статуса каждого корректировочного веса путем принятия номенклатуры Widna. Каждому из индексов I, d, n и а может быть назначено номинальное значение в диапазоне от 0 до +то.
Различные возможности деления диапазона входных сигналов 104 на интервалы d0, d1 ... dm показаны на фиг. 5. Определенное распределение интервалов может быть однородным или линейным, что, например, может быть достигнуто путем определения всех интервалов d с одинаковым размером. Все
- 6 035114 входные сигналы 104 имеют свои конкретные значения, которые ниже заранее определенного минимального уровня, могут рассматриваться как имеющие нулевое значение, в то время как всем входным сигналам, имеющим свои значения, превышающие заранее определенный максимальный уровень, может быть назначен заданный определенный максимальный уровень, как также показано на фиг. 5. Заданное распределение интервалов также может быть неравномерным или нелинейным, как, например, симметричное, асимметричное или неограниченное. Нелинейное распределение интервалов d может быть полезно, когда диапазон входных сигналов 104 может рассматриваться как непрактично большой, и определенная часть диапазона может включать входные сигналы, которые считаются наиболее важными, например, в начале, середине или конце диапазона. Распределение интервалов также может быть описано с помощью случайной функции. Все предыдущие примеры не имеют ограничительного характера, так что и другие варианты распределения интервалов тоже возможны.
Количество интервалов d, находящихся в пределах выбранного диапазона входных сигналов 104, может быть увеличено с целью оптимизации п-сети 100. Такая оптимизация п-сети 100 может потребоваться, например, в связи с увеличением сложности входных образов для обучения 106 Например, большее количество интервалов может потребоваться для многоцветных изображений, чем для моноцветных изображений, и большее количество интервалов может потребоваться для сложных орнаментов, чем для простой графики. Увеличенное число интервалов может потребоваться для точного распознавания изображений со сложными цветовыми градиентами в отличие от изображений, описанных контурами, а также при большем общем количестве обучающих образов. Уменьшение числа интервалов d также может быть необходимо в случаях с высокой величиной шума и/или помех, высокой разнородностью обучающих образов, а также при чрезмерном потреблении вычислительных ресурсов.
В зависимости от задачи или типа информации, обрабатываемой п-сетью 100, например, визуальные или текстовые данные, данные с датчиков различного характера, может быть назначено разное количество интервалов и тип их распределения. Для каждого интервала d входного значения сигнала может быть назначен соответствующий корректировочный вес данного синапса с индексом d. Таким образом, некоторый интервал d будет включать все корректировочные веса 112 с индексом i, относящиеся к данному входу, индексом d, относящимся к данному интервалу, и все значения индекса n от 0 до n. В процессе обучения п-сети 100 дистрибьютор 114 определяет каждое значение входного сигнала и, таким образом, относит данный входной сигнала 104 к соответствующему интервалу d. Например, если существуют 10 равных интервалов d в пределах диапазона входных сигналов от 0 до 100, входной сигнал, имеющий значение между 30 и 40, будет связан с интервалом 3, то есть d=3.
Для всех корректировочных весов 112 каждого синапса 118, соединенного с данным входом 102, дистрибьютор 114 может назначать значения коэффициента воздействия 134 в соответствии с интервалом d, связанным с определенным входным сигналом. Дистрибьютор 114 может также назначать значения коэффициента воздействия 134 в соответствии с заранее определенным распределением значений коэффициента воздействия 134 (как показано на фиг. 6), таким как кривая синусоидального, нормального, логарифмического распределения или функция случайного распределения. Во большинстве случаев сумма или интеграл коэффициента воздействия 134 или Cidn для конкретного входного сигнала 102, относящегося к каждому синапсу 118, будет иметь значение 1 (единица)
TtSynapse Qd,n = 1 ОГ fSynapse Ci,d,n = 1 [1]
В простейшем случае корректировочному весу 112, который наиболее близко соответствует значению входного сигнала, может быть назначено значение коэффициента воздействия 134 Cijdjn=1, в то время как корректировочные веса для других интервалов могут получить значение коэффициента воздействия C^^n=0.
П-сеть 100 ориентирована на сокращение продолжительности обучения и использования других ресурсов во время обучения п-сети по сравнению с классической нейронной сетью 10. Хотя некоторые из элементов, описанных здесь как часть п-сети 100, обозначены определенными названиями или терминами, которые известны тем, кто знаком с классическими нейронными сетями, данные названия используются для простоты и могут быть применены в значении, отличающемся от их аналогов в классических нейронных сетях. Например, синаптические веса 16, управляющие величинами входных сигналов (I1-Im), задаются в процессе общей настройки классической нейронной сети 10 и изменяются в процессе обучения классической сети. С другой стороны, обучение п-сети 100 выполняется за счет изменения корректировочных весов 112, в то время как синаптические веса 108 не изменяются в процессе обучения. Кроме того, как описано выше, каждый из нейронов 116 включает сумматор, но не включает в себя устройство активации 22, что характерно для классической нейронной сети 10.
Обычно п-сеть 100 обучается путем обучения каждого нейронного блока 119, который содержит соответствующий нейрон 116 и все соединенные с ним синапсы 118 и корректировочные веса 112, соединенные с данным нейроном. Соответственно обучение п-сети 100 включает изменение корректировочных весов 112, вносящих вклад в соответствующий нейрон 116. Изменения в корректировочных весах 112 происходят на основе алгоритма группового обучения, включенного в способ 200, подробно описанный ниже. В описанном алгоритме ошибка обучения, то есть отклонение 128, определяется для каж
- 7 035114 дого нейрона, на основании чего каждому из весов 112, использованных при определении суммы, полученной на каждом соответствующем нейроне 116, определяются и назначаются корректирующие значения. Введение подобных корректирующих значений во время обучения предназначено для сокращения отклонений 128 данного нейрона 116 до нуля. Во время обучения дополнительным образам могут появиться новые ошибки, связанные с образами, использованными ранее. Для устранения таких вторичных ошибок после завершения одной обучающей эпохи могут быть вычислены ошибки для всех обучающих образов всей п-сети 100 и, если подобные ошибки будут больше, чем заранее заданные значения, могут быть проведены одна или несколько дополнительных обучающих эпох, пока ошибки не станут меньше, чем заранее намеченное определенное значение.
На фиг. 23 изображен способ 200 обучения п-сети 100, который был описан выше в отношении фиг. 2-22. Способ 200 начинается в фрейме 202, в котором способ включает получение через вход 102 входного сигнала 104, имеющего определенное значение. После фрейма 202 способ переходит к фрейму 204. В фрейме 204 способ включает передачу входного сигнала 104 дистрибьютору 114, операционно соединенному со входом 102. Либо в фрейме 202, либо в фрейме 204 способ 200 может включать определение каждого корректировочного веса 112 с помощью набора индексов. Как было описано выше относительно структуры п-сети 100, набор индексов может включать в себя входной индекс i, сконфигурированный, чтобы идентифицировать корректировочный вес 112, соответствующий входу 102. Набор индексов может также включать в себя индекс интервала d, сконфигурированный, чтобы определять выбранный интервал для соответствующего корректировочного веса 112, и нейронный индекс n, сконфигурированный, чтобы определять корректировочный вес 112 соответствующему нейрону 116 как Widn. Набор индексов может также включать в себя индекс доступа а, сконфигурированный, чтобы подсчитывать количество раз, когда входной сигнал 104 обращается к соответствующему корректировочному весу 112 во время обучения п-сети 100. Более того, текущее состояние/статус каждого корректировочного веса может принять номенклатуру Wldll,,.
После фрейма 204 способ переходит к фрейму 206, в котором способ включает выбор, посредством дистрибьютора 114 в соответствии с значением входного сигнала, одного или нескольких корректировочных весов 112 из множества корректировочных весов, расположенных на синапсе 118, соединенном с данным входом 102. Как было описано выше, каждый корректировочный вес 112 определяется его соответствующим весовым значением. В фрейме 206 способ может дополнительно включать в себя назначение посредством дистрибьютора 114 множества коэффициентов воздействия 134 множеству корректировочных весов 112. В фрейме 206 способ может также включать в себя назначение каждого коэффициента воздействия 134 одному из множества корректировочных весов 112 в заранее определенной пропорции, чтобы получить нейронную сумму 120. Помимо этого в фрейме 206 способ может включать суммирование посредством нейрона 116 произведения корректировочного веса 112 и назначенного коэффициента воздействия 134 для всех синапсов 118, соединенных с данным нейроном. Кроме того, в фрейме 206 метод может включать назначение посредством калькулятора коррекции веса 122 части определенной разности каждому корректировочному весу 112, использованному для получения нейронной суммы 120, согласно пропорции, установленной соответствующим коэффициентом воздействия 134.
Как было описано выше относительно структуры п-сети 100, множество коэффициентов воздействия 134 может быть определено с помощью функции распределения воздействия 136. В таком случае способ может дополнительно включать получение входного значения в диапазоне значений 138, разделенном на интервалы d в соответствии с функцией распределения интервалов 140, таким образом, что каждое входное значение поступает в соответствующий интервал, и каждый корректировочный вес 112 соответствует одному из интервалов. Кроме того, данный способ может включать использование посредством дистрибьютора 114, полученного входного значения для выбора соответствующего интервала d и для назначения соответствующего множества коэффициентов воздействия 134 корректировочному весу 112, соответствующему выбранному интервалу d и по меньшей мере одному корректировочному весу, соответствующему интервалу, примыкающему к выбранному интервалу d. Как описано выше относительно структуры п-сети 100, корректировочные веса 112, соответствующие интервалу, примыкающему к выбранному интервалу d, могут быть идентифицированы, например, как Wi d+ln или Wi d-ln.
После фрейма 206 способ переходит к фрейму 208. В фрейме 208 способ включает суммирование значений выбранных корректировочных весов 112 определенным нейроном 116, соединенным с входом 102 посредством синапса 118, чтобы создать нейронную сумму. Как описано выше относительно структуры п-сети 100, каждый нейрон 116 имеет по меньшей мере один выход 117. После фрейма 208 способ переходит к фрейму 210, в котором способ включает получение калькулятором коррекции веса 122 желаемого выходного сигнала 124, имеющего определенное значение. После фрейма 210 способ переходит к фрейму 212, в котором способ включает определение калькулятором коррекции веса 122 отклонения 128 нейронной суммы 120 от желаемого значения выходного сигнала 124.
Как сказано выше в описании п-сети 100, определение отклонения 128 нейронной суммы 120 от желаемого выходного сигнала может включать определение математической разности между ними. Кроме того, изменение соответствующих корректировочных весов 112 может включать распределение математической разности между всеми корректировочными весами, используемыми для получения ней
- 8 035114 ронной суммы 120. В качестве альтернативы распределению математической разности может быть деление определенной разности поровну между каждым корректировочным весом 112, используемым для получения нейронной суммы 120. В еще одном варианте осуществления определение отклонения 128 может также включать разделение значения желаемого выходного сигнала 124 на нейронную сумму 120, чтобы таким образом получить коэффициент отклонения. Кроме того, в таком случае изменение соответствующих корректировочных весов 112 может включать умножение каждого корректировочного веса 112, используемого для получения нейронной суммы 120, на полученный коэффициент отклонения.
После фрейма 212 способ переходит к фрейму 214. В фрейме 214 способ включает изменение посредством калькулятора коррекции веса 122 соответствующих значений корректировочных весов с использованием определенного отклонения 128. Измененные значения корректировочных весов впоследствии могут быть просуммированы, а затем использованы для определения новой нейронной суммы 120. Суммированные измененные значения корректировочных весов могут затем служить для того, чтобы минимизировать отклонение нейронной суммы 120 от значения желаемого выходного сигнала 124, тем самым обучая п-сеть 100. После фрейма 214 способ 200 может включать возвращение к фрейму 202, чтобы выполнять дополнительные обучающие эпохи до тех пор, пока отклонение нейронной суммы 120 от значения желаемого выходного сигнала 124 не будет сведено к достаточному минимуму. Другими словами, дополнительные обучающие эпохи могут быть выполнены, чтобы привести нейронную сумму 120 к желаемому выходному сигналу 124 в пределах заранее заданного отклонения или величины ошибки, таким образом, что п-сеть 100 можно будет считать обученной и готовой к работе с новыми образами.
Как правило, входные образы 106 должны быть подготовлены для обучения п-сети 100. Подготовка п-сети 100 к обучению обычно начинается с формирования набора обучающих образов, включая входные образы 106 и, во многих случаях, желаемые выходные образы 126, соответствующие данным входным образам. Входные образы 106 (показанные на фиг. 2), которые определяются входными сигналами I1, I2...Im , для обучения п-сети 100 выбираются в соответствии с задачами, для решения которых формируется п-сеть, например, для распознавания изображений людей или иных объектов, распознавания определенной деятельности, кластеризации или классификации данных, анализа статистических данных, распознавания паттернов, прогнозирования или контроля определенных процессов. Соответственно входные образы 106 могут быть представлены в любом формате, подходящем для введения в компьютер, например форматы JPEG, GIF или РРТХ, в виде таблиц, схем, диаграмм и графиков, также различные форматы документов или набор символов.
Подготовка к обучению п-сети 100 может также включать преобразование выбранных входных образов 106 для их унификации, что удобно для обработки данных образов с помощью п-сети 100, например, переводя все образы в формат, имеющий одинаковое количество сигналов, или, в случае изображений, одинаковое количество пикселей. Цветные изображения могут быть, например, представлены в виде комбинации трех основных цветов. Преобразование образов может также включать изменение характеристик, например, передвижение изображения в пространстве, изменение визуальных характеристик образа, таких как разрешение, яркость, контрастность цвета, точка просмотра, перспектива, фокусное расстояние и центр фокуса, а также добавление символов, цифр или записей.
После выбора количества интервалов определенный входной образ может быть преобразован во входной образ в формате интервалов, то есть значения реального сигнала могут быть записаны в виде номеров или обозначений интервалов, к которым принадлежат данные соответствующие сигналы. Эта процедура может проводиться в каждой обучающей эпохе для данного образа. Однако образ также может быть сформирован в виде набора интервальных чисел единожды. Например, на фиг. 7 исходный образ представлен в виде изображения, в то время как в таблице Изображение в цифровом формате то же самое изображение представлено в форме цифровых кодов, а затем в таблице Изображение в формате интервалов изображение представлено в виде набора интервальных чисел, в котором диапазон сигналов разделен на 10 интервалов.
Описанная структура р-сети 100 и обучающего алгоритма или способа 200, как указано, допускает непрерывное или итеративное обучение п-сети, таким образом нет обязательной необходимости формировать полный набор обучающих входных образов 106 в начале процесса обучения. Можно сформировать сравнительно небольшой стартовый набор обучающих образов, и данный стартовый набор может быть расширен по мере необходимости. Входные образы 106 могут быть разделены на различные категории, например набор фотографий одного человека, набор фотографий кошек или набор фотографий автомобилей, таким образом, что каждая категория соответствует одному выходному образу, как например, имя человека или конкретный знак. Желаемые выходные образы 126 представляют собой цифровое поле или таблицу, где каждая точка соответствует определенному числовому значению от -ж до +ж или аналоговому значению. Каждая точка желаемого выходного образа 126 может соответствовать выходу одного из нейронов п-сети 100. Желаемые выходные образы 126 могут быть закодированы с помощью цифровых или аналоговых кодов изображений, таблиц, текста, формул, наборов символов, таких как штрих-коды или звуки.
В простейшем случае каждый входной образ 106 может соответствовать выходному образу, кодирующему данный входной образ. Одной из точек такого выходного образа может быть назначено макси
- 9 035114 мально возможное значение, например 100%, в то время как всем остальным точкам могут быть назначены минимально допустимые значения, например ноль. В таком случае после обучения будет возможно вероятностное распознавание различных образов в форме процентного сходства с обучающими образами. На фиг. 8 показан пример того, как п-сеть 100, обученная распознаванию двух образов, квадрата и круга, может распознавать изображение, содержащее некоторые черты каждой фигуры, выраженные в процентах, причем сумма не обязательно равна 100%. Такой процесс распознавания образов, определяющий процент сходства между различными изображениями, используемыми для обучения, может быть использован для классификации конкретных изображений.
Чтобы повысить точность и исключить ошибки, кодирование может быть выполнено с использованием набора нескольких нейронных выходов, а не одного выхода (см. ниже). В простейшем случае выходные образы могут быть подготовлены до обучения. Тем не менее, также возможно, чтобы п-сеть 100 сформировала выходные образы во время обучения.
В п-сети 100 есть также возможность инвертировать входные и выходные образы. Другими словами, входные образы 106 могут быть заданы в виде поля или таблицы цифровых или аналоговых значений, где каждая точка соответствует одному входу п-сети, в то время как выходные образы могут быть представлены в любом формате, подходящем для введения в компьютер, например с использованием форматов JPEG, GIF, PPTX, в виде таблиц, схем, диаграмм и графиков, документов различных форматов или набора символов. Полученная п-сеть 100 может быть вполне пригодна для систем архивирования, а также для ассоциативного поиска изображений, музыкальных выражений, уравнений или наборов данных.
После подготовки входных образов 106, как правило, необходимо сформировать п-сеть 100 или установить параметры существующей п-сети для работы с данной задачей (задачами). Формирование псети 100 может включать определение следующих параметров:
размеры п-сети 100, определяемые числом входов и выходов;
величины синаптических весов 108 для всех входов;
количество корректировочных весов 112;
распределение коэффициентов воздействия корректировочных весов (Ci4n) для разных значений входных сигналов 104 и желаемая точность обучения.
Количество входов определяется на основании размеров входных образов 106. Например, для изображений количество входов может быть равно количеству пикселей в изображении, в то время как выбранное количество выходов может зависеть от размера желаемых выходных образов 126. В некоторых случаях выбранное количество выходов может зависеть от количества категорий обучающих изображений.
Значения отдельных синаптических весов 108 могут находиться в диапазоне от -ж до +ж. Значения синаптических весов 108, которые меньше чем 0 (ноль), могут означать усиление сигнала, которое может быть использовано для усиления воздействия сигналов от определенных входов или от определенных образов, например, для более эффективного распознавания человеческих лиц на фотографиях, содержащих большое количество разных людей или объектов. С другой стороны, значения синаптических весов 108, которые больше чем 0 (ноль), могут быть использованы для обозначения ослабления сигнала, которое может быть использовано для уменьшения количества необходимых расчетов и повышения рабочей скорости п-сети 100. Обычно, чем больше значение синаптического веса, тем более ослабленным является сигнал, передаваемый на соответствующий нейрон. Если все синаптические веса 108, соответствующие всем входам, равны и все нейроны одинаково связаны со всеми входами, нейронная сеть становится универсальной и наиболее эффективной для выполнения задач общего характера, например, когда очень мало известно о природе образов заранее. Тем не менее, такая структура, как правило, увеличивает количество необходимых расчетов во время обучения и работы.
На фиг. 9 показан вариант осуществления п-сети 100, в котором взаимодействие между входом и соответствующими нейронами уменьшается в соответствии со статистически нормальным (гауссовым) распределением. Неравномерное распределение синаптических весов 108 может привести к тому, что весь входной сигнал направляется на намеченный или центральный нейрон для данного входа, таким образом присваивая значение нуля данному синаптическому весу. Кроме того, неравномерное распределение синаптических весов может привести к тому, что другие нейроны получат сниженные значения входного сигнала, например, с использованием нормального, логонормального, синусоидального или другого распределения. Значения синаптических весов 108 для нейронов 116, получающих сниженные значения входных сигналов, могут увеличиваться вместе с увеличением их расстояния от центрального нейрона. В таком случае количество вычислений может быть уменьшено и функционирование п-сети может ускориться. Такие сети, которые представляют собой сочетание известных полносвязных и неполносвязных нейронных сетей, могут быть чрезвычайно эффективными для анализа образов с сильными внутренними паттернами, например, таких как человеческие лица или последовательные кадры кинофильма.
На фиг. 9 показан вариант п-сети 100, который эффективен для распознавания локальных паттер
- 10 035114 нов. Для того чтобы улучшить идентификацию общих паттернов, 10-20% от сильных соединений, где значения синаптических весов 108 малы или равны нулю, могут быть распределены по всей п-сети 100 в детерминистическом, например в форме сети , или случайном (вероятностном) порядке. Фактическое формирование п-сети 100, предназначенной для работы с конкретной задачей, осуществляется с помощью программы, например, написанной на объектно-ориентированном языке программирования, которая генерирует основные элементы п-сети, такие как синапсы, синаптические веса, дистрибьюторы, корректировочные веса, нейроны и т.д., как программные объекты. Такая программа может назначить отношения между отмеченными объектами и алгоритмами, определяющими их действия. В частности, синаптические и корректировочные веса могут быть сформированы в начале формирования п-сети 100 вместе с установкой их начальных значений. П-сеть 100 может быть полностью сформирована до начала ее обучения и может быть изменена или дополнена на более позднем фрейме, что необходимо, например, когда информационная емкость сети истощается или в случае фатальной ошибки. Завершение построения п-сети 100 также возможно в процессе обучения.
Если п-сеть 100 формируется заранее, количество выбранных корректировочных весов на определенном синапсе может быть равно количеству интервалов в диапазоне входных сигналов. Кроме того, корректировочные веса могут быть сгенерированы после формирования п-сети 100 в качестве ответа на появление определенных интервалов. По аналогии с классической нейронной сетью 10 выбор параметров и настроек п-сети 100 осуществляется серией направленных экспериментов. Такие эксперименты могут включать (1) формирование п-сети с одинаковыми синаптическими весами 108 на всех входах и (2) оценку значений входных сигналов для выбранных образов и первоначальный выбор количества интервалов. Например, для распознавания бинарных (одноцветных) изображений может быть достаточно иметь только 2 интервала; для качественного распознавания 8-битных изображений, может быть использовано до 256 интервалов; аппроксимация сложных статистических зависимостей может потребовать десятков или даже сотен интервалов; для больших баз данных количество интервалов может измеряться в тысячах.
В процессе обучения п-сети 100 значения входных сигналов могут округляться по мере того, как они распределяются между определенными интервалами. Таким образом, точность входных сигналов, превышающая ширину диапазона, деленного на количество интервалов, может не потребоваться. Например, если диапазон входного значения устанавливается для 100 единиц, а число интервалов 10, не потребуется точность более чем ±5. Эксперименты могут также включать (3) выбор равномерного распределения интервалов по всему диапазону значений входных сигналов и простейшее распределение для коэффициентов воздействия корректировочных весов ί',',,ι,, может приравниваться к 1 для корректировочных весов, соответствующих интервалу для конкретного входного сигнала, в то время как коэффициенты воздействия для всех остальных корректировочных весов может приравниваться к 0 (нулю). Эксперименты могут дополнительно включать (4) обучение п-сети 100 с одним, несколькими или всеми подготовленными обучающими образами с заранее определенной точностью.
Время обучения п-сети 100 для заранее определенной точности может быть установлено экспериментальным путем. Если точность и время обучение п-сети 100 являются удовлетворительными, выбранные настройки могут быть либо сохранены, либо изменены для продолжения поиска более эффективного варианта. Если требуемая точность не достигнута, в целях оптимизации может быть оценено влияние конкретных изменений, которое может проводиться по одному либо группами. Такая оценка изменений может включать изменение, либо увеличение, либо уменьшение, количества интервалов; изменение типа распределения коэффициентов воздействия корректировочных весов (Cld,n), тестирование вариантов с неравномерным распределением интервалов, таких как использование нормального, степенного, логарифмического или логонормального распределения; и изменение значений синаптических весов 108, например, их переход к неравномерному распределению.
Если требуемое время обучения для точного результата считается чрезмерным, обучение с увеличенным числом интервалов можно оценить с точки зрения его влияния на время обучения. Если в результате время обучения было сокращено, увеличение числа интервалов может повторяться до тех пор, пока желаемое время обучения не будет достигнуто без потери необходимой точности. Если время обучения растет с увеличением числа интервалов вместо того, чтобы уменьшаться, может быть проведено дополнительное обучение с уменьшенным числом интервалов. Если сокращение числа интервалов приводит к снижению времени обучения, количество интервалов может далее уменьшаться до получения желаемого времени обучения.
Формирование установок п-сети 100 может осуществляться посредством обучения с заранее определенным временем обучения и экспериментальным определением точности обучения. Параметры могут быть улучшены с помощью экспериментальных изменений, аналогичных тем, которые описаны выше. Реальная практика с различными п-сетями показала, что процедура выбора установок, как правило, не вызывает затруднений и не отнимает много времени.
Фактическое обучение п-сети 100 как часть способа 200, показанного на фиг. 23, начинается с подачи входного образа сигналов I1, I2...Im на устройства ввода сети 102, откуда они передаются на синапсы 118, проходят через синаптический вес 108 и поступают на дистрибьютор (или группу дистрибьюторов)
- 11 035114
114. В зависимости от значения входного сигнала дистрибьютор 114 устанавливает число интервала d, которому соответствует данный входной сигнал 104, и назначает коэффициенты воздействия корректировочных весов Qdn для всех корректировочных весов 112 блоков коррекции веса 110 всех синапсов 118, соединенных с соответствующим входом 102. Например, если интервалу d может быть установлено значение 3 для первого входа, для всех весов W1j3jn Cyyn=1, в то время как для всех других весов i^1 и d*3, Ci,d,n=0.
Для каждого нейрона 116, обозначенного как n в уравнении [2], приведенном ниже, выходные нейронные суммы Σ1, Σ2... Σn формируются путем умножения каждого корректировочного веса 112, обозначенного как Wijdjn в уравнении [2], на соответствующий коэффициент воздействия корректировочного веса C^dn для всех синапсов 118, вносящих вклад в определенный нейрон, и путем сложения всех полученных значений
Умножение WijdjnxCijdjn может быть выполнено различными устройствами, например дистрибьюторами 114, устройствами, хранящими веса, или напрямую нейронами 116. Суммы передаются через нейронный выход 117 на калькулятор коррекции веса 122. Желаемые выходные сигналы O1, О2... On, описывающие желаемый выходной образ 126, также направляются в калькулятор 122.
Как сказано выше, калькулятор коррекции веса 122 является вычислительным устройством для подсчета измененного значения корректировочных весов путем сравнения выходных нейронных сумм Σ1, Σ2... Σn с желаемыми выходными сигналами O1, O2... On. Фиг. 11 показывает набор корректировочных весов Wj,db вносящих вклад в нейронную выходную сумму Σ1, которые умножаются на соответствующий коэффициент воздействия корректировочного веса Cid1, и эти произведения впоследствии суммируются выходной нейронной суммой Σ
Σ1 = Wi,0,ix С1Д1. + WM,i х Сш. + Ww х С1д2Д. + ...[3]
В начале обучения, например, во время первой эпохи, корректировочные веса Wijdj1 не соответствуют входному образу 106, используемому для обучения, таким образом, выходные нейронные суммы Σ1 не равняются соответствующему желаемому выходному образу 126. На основе начальных корректировочных весов Wijdj1 система коррекции веса вычисляет корректирующее значение Δ1, которое используется для изменения всех корректировочных весов, вносящих вклад в выходную нейронную сумму Σ1 (WU1). П-сеть 100 допускает различные варианты для ее формирования и использования общих корректирующих сигналов для всех корректировочных весов Wijdjn, вносящих вклад в определенный нейрон 116.
Ниже приведены два показательных варианта, не имеющие ограничительного характера для формирования и использования общих корректирующих сигналов.
Вариант 1. Формирование и использование корректирующих сигналов на основе разности между желаемыми выходными сигналами и полученными выходными суммами следующим образом:
вычисление равного корректирующего значения Δn для всех корректировочных весов, вносящих вклад в нейрон n согласно уравнению
где
On - желаемый выходной сигнал, соответствующий выходной нейронной сумме Σπ;
S - количество синапсов, соединенных с нейроном n.
Изменение всех корректировочных весов Wljdjll, вносящих вклад в нейрон n согласно уравнению
Wi,d,n modified = Wi,d,n + Δη/ Ci>d>n [5],
Вариант 2. Формирование и использование корректирующих сигналов на основе соотношения желаемых выходных сигналов и полученных выходных сумм следующим образом:
вычисление равного корректирующего значения Δπ для всех корректировочных весов, вносящих вклад в нейрон n согласно уравнению
Δπ = Οη/Ση[6],
Изменение всех корректировочных весов Wl dn, вносящих вклад в нейрон n согласно уравнению
Wi,d,n, modified = Wi,d.n, х Δη [7],
Изменение корректировочных весов W^^n любым возможным вариантом направлено на уменьшение ошибки обучения для каждого нейрона 116 путем приближения его выходной суммы Σπ к значению желаемого выходного сигнала. Таким образом, ошибка обучения для данного образа может уменьшаться до тех пор, пока не станет равной нулю или близкой к нулю.
Пример изменения корректировочных весов Wijdjn во время обучения показан на фиг. 11. Значения корректировочных весов Wijdjn устанавливаются до начала обучения путем случайного распределения весов с весовыми значениями, установленными на 0±10% от диапазона корректировочных весов, окончательное распределение веса достигается после обучения. Описанное вычисление общих сигналов прово
- 12 035114 дится для всех нейронов 116 в п-сети 100. Описанная процедура обучения одного обучающего образа может повторяться для всех других обучающих образов. Такая процедура может привести к появлению ошибок обучения для некоторых из образов, которым сеть была обучена ранее, так как некоторые корректировочные веса W могут участвовать в нескольких образах. Соответственно обучение с другим образом может частично нарушить распределение корректировочных весов Wl>d>n, сформированных для предыдущих образов. Тем не менее, из-за того, что каждый синапс 118 включает в себя набор корректировочных весов WUn, обучение с новыми образами, несмотря на возможное увеличение ошибки обучения, не приводит к удалению образов, которым п-сеть 100 была ранее обучена. Более того, чем больше синапсов 118 вносит вклад в каждый нейрон 116 и чем больше количество корректировочных весов Wld,n на каждом синапсе, тем меньше обучение конкретному образу влияет на обучение другим образом.
Каждая обучающая эпоха обычно заканчивается с существенным уменьшением общей ошибки обучения и/или локальных ошибок обучения для всех обучающих образов. Ошибки могут быть оценены с помощью известных статистических методов, таких как, например, Средняя Квадратичная Ошибка (СКО), Средняя Абсолютная Ошибка (САО) или Средняя Стандартная Ошибка (ССО). Если общая ошибка или некоторые из локальных ошибок слишком высоки, могут проводиться дополнительные обучающие эпохи до тех пор, пока ошибка не будет снижена до значения меньшего, чем заранее заданное значение ошибки. Описанный ранее процесс распознавания образов с определением процента сходства между различными образами, использованными для обучения (как показано на фиг. 8), сам по себе является процессом классификации образов по ранее определенным категориям.
Для кластеризации, то есть разделения образов на естественные классы или группы, которые не были заранее указаны, основной алгоритм обучения способа 200 можно изменить с помощью измененного подхода Самоорганизующихся Карт Кохонена (СК). Желаемый выходной образ 126, соответствующий данному входному образу, может быть сформирован непосредственно в процессе обучения п-сети 100 на основе набора нейронов-победителей с максимальными значениями выходной нейронной суммы 120. Фиг. 22 показывает, как использование основного алгоритма способа 200 может генерировать первичный набор выходных нейронных сумм, при этом набор далее преобразуется таким образом, что несколько наибольших сумм сохраняют свое значение или увеличиваются, в то время как все другие суммы сводятся к нулю. Этот модифицированный набор выходных нейронных сумм-победителей может быть принят в качестве желаемого выходного образа 126.
Сформированный, как описано выше, набор желаемых выходных образов 126 включает в себя кластеры или группы. Таким образом, набор желаемых выходных образов 126 допускает кластеризацию линейно неразделимых образов в отличие от классической сети 10. На фиг. 13 показано, как описанный подход может помочь с кластеризацией сложных абстрактных образов кошка-машина, где разные особенности образа присваиваются разным кластерам - кошкам и автомобилям. Набор желаемых выходных образов 126, созданных как описано выше, может быть использован, например, для создания различных классификаций, статистического анализа, выбора образов на основе критериев, сформированных в результате кластеризации. Кроме того, желаемые выходные образы 126, полученные п-сетью 100, могут использоваться в качестве входных образов для другой или дополнительной п-сети, которая также может быть сформирована по типу данной описанной п-сети 100. Сформированные таким образом желаемые выходные образы 126 могут быть использованы для последующего слоя многослойной п-сети.
Обучение классической нейронной сети 10 обычно осуществляется способом обучения с учителем, который основан на предварительно подготовленных парах, состоящих из входного образа и желаемого выходного образа. Тот же общий способ также используется для обучения п-сети 100, однако увеличенная скорость обучения п-сети 100 допускает также возможность обучения с внешним учителем. Роль внешнего учителя может выполняться, например, человеком или компьютерной программой. Действуя в качестве внешнего учителя, человек может участвовать в выполнении определенной физической задачи или действовать в игровой среде. П-сеть 100 принимает входные сигналы в виде данных о конкретной ситуации и ее изменениях. Сигналы, отражающие действия учителя, могут вводиться в качестве желаемых выходных образов 126 и позволять п-сети 100 обучаться по базовому алгоритму. Таким образом, моделирование различных процессов может быть получено п-сетью 100 в режиме реального времени.
Например, п-сеть 100 можно обучить управлять транспортным средством путем получения информации о дорожных условиях и действиях водителя. С помощью моделирования большого количества разнообразных критических ситуаций, та же п-сеть 100 может быть обучена многими разными водителями и может накопить больше навыков вождения, чем обычно может накопить любой отдельный водитель. П-сеть 100 способна оценить определенное дорожное условие в 0,1 с или быстрее и аккумулировать значительный опыт вождения, который может повысить безопасность дорожного движения в различных ситуациях. П-сеть 100 также может быть обучена взаимодействию с компьютером, например с компьютером для игры в шахматы. Способность п-сети 100 легко переходить от режима обучения в режим распознавания и наоборот позволяет реализовать режим обучения на ошибках в случае обучения псети 100 с внешним учителем. В таком случае частично обученная п-сеть 100 может производить свои собственные действия, например управлять технологическим процессом. Учитель может контролировать действия п-сети 100 и корректировать эти действия в случае необходимости. Таким образом может обес
- 13 035114 печиваться дополнительное обучение п-сети 100.
Информационная емкость п-сети 100 очень большая, но не безграничная. С установленными параметрами п-сети 100, такими как количество входов, выходов и интервалов, и с увеличением количества образов, которым обучается п-сеть, после определенного количества образов величина ошибок обучения также может увеличиться. Когда обнаруживается такое увеличение получаемых ошибок, количество и/или величина ошибки могут быть снижены за счет увеличения размера п-сети 100, так как п-сеть позволяет увеличивать количество нейронов 116 и/или количество интервалов d на п-сети или в ее компонентах между обучающими эпохами. Расширение п-сети 100 может обеспечиваться за счет добавления новых нейронов 116, добавления новых входов 102 и синапсов 118, изменения распределения коэффициентов воздействия корректировочных весов Q дп и деления существующих интервалов d.
В большинстве случаев п-сеть 100 будет обучаться, чтобы обеспечить ее способность распознавать образы, паттерны и корреляции, присущие образу или набору образов. Процесс распознавания в простейшем случае повторяет первые этапы процесса обучения в соответствии с основным алгоритмом, описанным как часть способа 200. В частности:
прямое распознавание начинается с форматирования образа в соответствии с теми же правилами, которые используются для форматирования образов для обучения;
образ передается на входы обученной п-сети 100, дистрибьюторы назначают корректировочные веса W d... соответствующие значениям входных сигналов, которые были установлены в процессе обучения, а нейроны генерируют соответствующие нейронные суммы, как показано на фиг. 8;
если полученные выходные суммы, представляющие выходной образ 126, полностью соответствуют одному из образов, которым п-сеть 100 обучалась, происходит точное распознавание объекта; и если выходной образ 126 частично соответствует нескольким образам, на которых обучалась п-сеть 100, результат показывает степень сходства с разными образами в процентах. Фиг. 13 показывает, что в процессе распознавания сложного образа, который сделан на основе комбинации образов кошки и автомобиля, выходной образ 126 представляет собой комбинацию данного образа, и показывает процент вклада каждого исходного образа в комбинацию.
Например, если для обучения были использованы несколько фотографий определенного человека, распознанное изображение может соответствовать 90% первого изображения, 60% второго изображения и 35% третьего изображения. Может быть такое, что распознанный образ будет соответствовать с определенной вероятностью изображениям других людей или даже животных, это означает, что между изображениями есть некоторое сходство. Тем не менее, вероятность такого сходства скорее всего будет не велика. На основании таких вероятностей может быть определена достоверность распознавания, например, на основе теоремы Байеса.
С помощью п-сети 100 также возможно реализовать многоступенчатое распознавание, которое сочетает в себе преимущества алгоритмических и нейросетевых способов распознавания. Такое многоступенчатое распознавание может включать первоначальное распознавание образа с помощью предварительно обученной сети посредством использования не всех, а только 1-10% входов, которые будут здесь обозначены как основные входы. Такая часть входов может быть распределена в п-сети 100 либо равномерно, либо случайным образом, либо с помощью какой-либо другой функции распределения. Например, так может быть осуществлено точное распознавание человека на фотографии, которая содержит множество других объектов;
выбор наиболее информативных объектов или частей объектов для дальнейшего детального распознавания. Такой выбор может быть проведен в соответствии со структурами определенных объектов, которые предварительно установлены в памяти, как в алгоритмическом способе, или в соответствии с градиентом цвета, яркостью и/или глубиной изображения. Например, при распознавании портретов могут быть выбраны следующие зоны распознавания: глаза, уголки рта, форма носа, а также некоторые специфические особенности, такие как татуировки, номера транспортных средств или номера домов, тоже могут быть выбраны и распознаны, используя аналогичный подход; и детальное распознавание выбранных образов при необходимости также возможно.
Формирование компьютерной эмуляции п-сети 100 и ее обучение могут быть проведены на основе изложенного выше описания при использовании любого языка программирования. Например, может быть использовано объектно-ориентированное программирование, в котором синаптические веса 108, корректировочные веса 112, дистрибьюторы 114 и нейроны 116 представляют объекты программирования или классы объектов, отношения между классами объектов устанавливаются посредством ссылок и/или сообщений, а алгоритмы взаимодействия устанавливаются между объектами и между классами объектов.
Формирование и обучение программной эмуляции п-сети 100 может включать в себя следующее:
1. Подготовку к формированию и обучению п-сети 100, в частности преобразование наборов обучающих входных образов в цифровую форму в соответствии с данной задачей;
анализ полученных цифровых образов, в том числе выбор параметров входных сигналов, которые будут использоваться для обучения, например, частот, величин, фаз или координат; а также установка
- 14 035114 диапазона для обучающих сигналов, количества интервалов в пределах этого диапазона и распределения коэффициентов воздействия корректировочного веса CijdA
2. Формирование программной эмуляции п-сети, включая формирование набора входов для п-сети 100. Например, количество входов может быть равно количеству сигналов во соответствующем обучающем образе;
формирование набора нейронов, где каждый нейрон представляет собой суммирующее устройство;
формирование набора синапсов с синаптическими весами, где каждый синапс соединен с одним входом п-сети и одним нейроном;
формирование блоков коррекции веса в каждом синапсе, где блоки коррекции веса включают дистрибьюторы и корректировочные веса, и где каждый корректировочный вес имеет следующие характеристики:
входной индекс корректировочного веса (i);
нейронный индекс корректировочного веса (n);
индекс интервала корректировочного веса (d) и начальное значение корректировочного веса (WiAn);
назначение корреляции между интервалами и корректировочными весами.
3. Обучение каждого нейрона одним входным образом, включая назначение коэффициентов воздействия корректировочных весов Ci d n, включая определение интервала, соответствующего входному сигналу входного обучающего образа, принимаемого каждым входом; и назначение величины коэффициентов воздействия корректировочных весов Cidn всем корректировочным весам на всех синапсах.
Вычисление выходной нейронной суммы (Zn) для каждого нейрона n путем сложения значения корректировочного веса Wi d n всех синаптических весов, вносящих вклад в нейрон, помноженный на соответствующие коэффициенты воздействия корректировочных весов Cidn
Вычисление отклонения или ошибки обучения (Tn) посредством вычитания выходной нейронной суммы Σ„ из соответствующего желаемого выходного сигнала On τη = οηη:
Вычисление равного корректирующего значения (An) для всех корректировочных весов, вносящих вклад в нейрон n посредством деления ошибки обучения на количество синапсов S, соединенных с нейроном n
An = Tn/S
Изменение всех корректировочных весов Wi dn, вносящих вклад в соответствующий нейрон, путем прибавления к каждому корректировочному весу корректирующего значения An; деленного на соответствующие коэффициенты воздействия корректировочных весов Q d п
Wi,d,n изменённые = Wi,n,d + Δη / Сщ,п.
Другой способ вычисления равного корректирующего значения (Δ) и изменения корректировочных весов WiAn для всех корректировочных весов, вносящих вклад в нейрон n, может включать следующее:
деление сигнала желаемого выходного образа On на выходную нейронную сумму Σ„
An = On/£n изменение корректировочных весов WiAdj, вносящих вклад в нейрон, путем умножения корректировочных весов на корректирующее значение Δ
Wj,d,n изменённые = Wj,d,n х Δη
Обучение п-сети 100, используя все обучающие образы, включая повторение описанного выше процесса для всех выбранных обучающих образов, которые включены в одну учебную эпоху; и определение ошибки или ошибок определенной эпохи обучения путем сравнения этой ошибки (этих ошибок) с заранее установленным приемлемым уровнем ошибки и повторение обучающих эпох до тех пор, пока ошибки обучения не станут меньше заранее заданного допустимого уровня ошибки.
Реальный пример программной эмуляции п-сети 100 с использованием объектно-ориентированного программирования описывается ниже и показан на фиг. 14-21.
Формирование класса объектов нейронного блока может включать формирование набора объектов класса синапсов;
нейрона 116, представляющего переменную величину, в котором в процессе обучения выполняется прибавление; и калькулятора 122, представляющего набор переменных величин, в котором хранятся значения же
- 15 035114 лаемых нейронных сумм 120, и в процессе обучения выполняется вычисление корректирующих значений Δη.
Класс нейронного блока, выполняющего обучение п-сети 100, может включать формирование нейронных сумм 120;
установку желаемых сумм;
вычисление корректирующего значения Δη и прибавление вычисленного корректирующего значения ΔΙ1 к корректировочным весам Wind.
Формирование объектов класса синапсов может включать набор корректировочных весов Wind; и указатель, обозначающий вход, соединенный с синапсом 118. Класс синапсов может выполнять следующие функции: инициализацию корректировочных весов Wind;
умножение этих весов Wind на коэффициенты Q dn и коррекцию данных весов Wind.
Формирование класса объектов входного сигнала может включать набор индексов на синапсах 118, соединенных с данным входом 102; переменную величину, которая включает значение входного сигнала 104; значения возможного минимума и максимума входного сигнала; количество интервалов d и длину интервала.
Класс входного сигнала может выполнять следующие функции:
формирование структуры п-сети 100, включая добавление и удаление связей между входом 102 и синапсами 118 и и установку количества интервалов d для синапсов 118 конкретного входа 102.
установку параметров минимального и максимального входного сигнала 104;
вклад в функционирование п-сети 100:
установка входного сигнала 104 и установка коэффициентов воздействия корректировочных весов CI>d>n.
Формирование класса объектов п-сети включает набор объектных классов нейронный блок и входной сигнал.
Класс п-сети выполняет следующие функции:
установка количества объектов класса входного сигнала;
установка количества объектов класса нейронного блока и групповой запрос функций объектов нейронного блока и входного сигнала. Во время процесса обучения могут быть сформированы циклы, где нейронная выходная сумма, равная нулю, формируется до начала цикла; все синапсы, вносящие вклад в данный нейронный блок, корректируются. Для каждого синапса 118:
на основании входного сигнала 102 дистрибьютор формирует набор коэффициентов воздействия корректировочных весов CI>d>n;
все веса Wind указанного синапса 118 корректируются, и для каждого веса значение веса Wind умножается на соответствующий коэффициент воздействия корректировочного веса C1,d,n;
результат умножения прибавляется к формирующейся выходной нейронной сумме; вычисляется корректирующее значение Δ^ корректирующее значение ΔΙ1 делится на коэффициент воздействия корректировочного веса Cidn, то есть Δn /Cidn; и все синапсы 118, вносящие вклад в данный нейронный блок, корректируются. Для каждого синапса 118 все веса W1 n d данного синапса корректируются, и для каждого веса его значение изменяется на соответствующее корректирующее значение Δ^
Ранее обозначенная возможность дополнительного обучения п-сети 100 позволяет сочетать обучение с распознаванием образов, что способствует ускорению процесса обучения и улучшению его точности. При обучении п-сети 100 на наборе последовательно меняющихся образов, как, например, обучение на последовательных кадрах фильма, которые немного отличаются друг от друга, дополнительное обучение может включать обучение с первым образом;
распознавание следующего образа и установление процента сходства между новым образом и образом, на котором сеть обучалась изначально. Дополнительное обучение не требуется, если ошибка распознавания меньше ее заранее заданного значения; и если ошибка обучения превышает заранее заданное значение, проводится дополнительное обуче- 16 035114 ние.
Обучение п-сети 100 посредством приведенного выше основного обучающего алгоритма является эффективным для решения задач распознавания образов, но не исключает потери или искажения данных из-за перекрытия образов. Таким образом, использование п-сети 100 для целей памяти, хотя и возможно, но может быть не совсем надежным. Настоящий вариант осуществления описывает обучение п-сети 100, которая обеспечивает защиту от потери или искажения информации. В основной обучающий алгоритм сети может быть введено дополнительное ограничение, которое требует, чтобы каждый корректировочный вес WjAd мог быть обучен только один раз. После первого обучающего цикла значение веса W^nd остается зафиксированным или постоянным. Этого можно добиться путем ввода дополнительного индекса доступа а для каждого корректировочного веса, который является описанным выше индексом, представляющим количество доступов к данному корректировочному весу W^nd во время процесса обучения.
Как описано выше, каждый корректировочный вес может принять номенклатуру Wjnd а, где а - количество доступов к данному весу во время процесса обучения. В простейшем случае для неизмененного, то есть незафиксированного веса, а=0, в то время как для весов, которые были изменены или зафиксированы с помощью описанного основного алгоритма, а=1. Более того, при применении основного алгоритма корректировочные веса W^n^a с фиксированным значением а=1 могут быть исключены из весов, на которых делаются изменения. В таком случае уравнения [5], [6] и [7] можно преобразовать следующим образом:
Значение Основной алгоритм Обучающий алгоритм с зафиксированными весами
Равное корректирующее значение - Вариант 1 Δη = (On - Ση) / s [4], Δη = (On - Ση) / So [8], где So - сумма Ci,d,n,a всех корректировочных весов Wi,n,d,a, вносящих вклад в данный нейрон и имеющих индекс а = 0
Изменённый корректировочный вес - Вариант 1 Wi,n,d изменённый = Wi,n,d + Δη / Cild,n [5], изменённый = Wi,n,d,o + Δ„ / €γη,ο [9], где Wi^d,o являются весами, вносящими вклад в данный нейрон и имеющими индекс а ~ 0, и СД,п,о являются коэффициентами воздействия корректировочных весов для корректировочных весов, вносящих вклад в данный нейрон и имеющих индекс а = 0
Изменённый корректировочный вес - Вариант 2 Wi,n,d изменённый = Wi,n,d x Δη [7] Wi>n,d,o изменённый = Wj,n,d,o х Δη [10]
Ограничение, указанное выше, может быть частично применено к коррекции ранее обученных корректировочных весов W^n^a, но только тех весов, которые образуют наиболее важные образы. Например, в рамках обучения на наборе портретов одного человека одно конкретное изображение может быть объявлено первичным и ему может быть назначен приоритет. После обучения на таких приоритетных образах все корректировочные веса Wj n d а, которые изменились в процессе обучения, могут быть зафиксированы, то есть их индекс а=1, таким образом обозначая вес как Wjnd1, и другие изображения того же человека могут оставаться изменяемыми. Такой приоритет может включать другие образы, например те, которые используются в качестве ключей шифрования и/или содержат важные числовые данные.
Изменения корректировочных весов WjAdja могут также быть не полностью запрещены, а ограничены ростом индекса а. То есть каждое последующее использование веса WjAdja может быть использовано для уменьшения его способности изменяться. Чем чаще определенный корректировочный вес W^n^a используется, тем меньше вес изменяется с каждым доступом, и, таким образом, в процессе обучения на последующих образах, предыдущие, сохраненные образы изменяются меньше и подвергаются меньшим искажениям. Например, если а=0, то любое изменение в весе W^n^a возможно; при а=1 возможность изменения веса может быть снижена до ±50% от значения веса; при а=2 возможность изменения может быть снижена до ±25% от значения веса.
После достижения заранее определенного количества доступов, как указано индексом а, например, при а=5, дальнейшее изменение веса W^n^a может быть запрещено. Такой подход может обеспечить сочетание высокого интеллекта и информационной безопасности в пределах одной п-сети 100. С помощью сетевого механизма расчета ошибки уровни допустимых ошибок могут быть установлены таким образом, что информация с потерями в пределах заранее определенного диапазона точности может быть
- 17 035114 сохранена, при этом диапазон точности может быть назначен в соответствии с конкретной задачей. Другими словами, для п-сети 100, работающей с визуальными образами, ошибка может быть установлена на уровне, который не может быть обнаружен невооруженным глазом, что обеспечит существенный запас прочности и увеличение емкости памяти. Все вышеперечисленное может сделать возможным обеспечение высокоэффективного хранения визуальной информации, например, фильмов.
Возможность выборочно очищать память компьютера может быть ценной для дальнейшего функционирования п-сети 100 на высоком уровне. Такая выборочная очистка памяти может быть сделана путем удаления некоторых образов без потери или искажения остальной части хранящейся информации. Такая очистка может быть проведена следующим образом:
определение всех корректировочных весов Win4a, которые участвуют в формировании образа, например, введением образа в сеть или составлением списка корректировочных весов, использованных для каждого образа;
сокращение индекса а для соответствующих корректировочных весов W1>n>4a; и замена корректировочных весов Wind,a нулем или случайным значением, близким к среднему значению диапазона возможных значений для данного веса, когда индекс а сокращен до нуля.
Надлежащий порядок и последовательность сокращения индекса а могут быть экспериментально выбраны, чтобы определить сильные паттерны, скрытые в последовательности образов. Например, для каждых 100 образов, вводимых в п-сеть 100 в процессе обучения, индекс а может снижаться на единицу, пока он не достигнет нулевого значения. В таком случае значение а может расти соответственно с введением новых образов. Состязание между ростом и сокращением а может привести к ситуации, когда случайные изменения постепенно удаляются из памяти, в то время как корректировочные веса W; n да, которые использовались и подтвердились много раз, могут быть сохранены. Когда п-сеть 100 обучается на большом количестве образов с одинаковыми атрибутами, например одинаковыми предметами или аналогичной средой, часто использующиеся корректировочные веса Win4a постоянно подтверждают свое значение и информация в этих областях становится очень стабильной. Кроме того, случайные помехи будут постепенно исчезать. Другими словами, п-сеть 100 с постепенным уменьшением индекса а может служить в качестве эффективного фильтра помех.
Описанные варианты осуществления п-сети 100, обучающейся без потери информации, позволяют создать память п-сети с большой емкостью и надежностью. Такая память может использоваться в качестве высокоскоростной компьютерной памяти большой емкости, обеспечивающей скорость большую, даже чем система кэш-памяти, при этом подобная память не увеличит стоимость и сложность компьютера, как это обычно бывает с системой кэш-памяти. Согласно опубликованным данным во время записи фильма с помощью нейронных сетей память может быть сжата в десятки или сотни раз без существенной потери качества записи. Другими словами, нейронная сеть способна работать как очень эффективная программа архивирования (компрессии данных). Комбинируя эту способность нейронных сетей с высокой скоростью обучения п-сети 100, можно обеспечить создание системы высокоскоростной передачи данных, памяти с высокой емкостью, а также обеспечить высокоскоростное дешифрование программных мультимедийных файлов, т.е. реализовать высокоэффективные кодеки (устройства кодирования - декодирования) .
В п-сети 100 данные хранятся в виде набора корректировочных весов Winda, что представляет собой кодированную запись. Это делает маловероятным или просто невозможным декодирование записей или несанкционированный доступ к п-сети без использования идентичной сети и ключа посредством существующих хакерских способов. Таким образом, п-сеть 100 может обеспечить высокую степень защиты данных. Кроме того, в отличие от обычной компьютерной памяти повреждение отдельных элементов памяти п-сети 100 представляет незначительный негативный эффект, так как другие элементы в значительной степени компенсируют утраченные функции. В процессе распознавания образов внутренние паттерны использованного образа практически не искажаются в результате повреждения одного или нескольких элементов. Все вышеперечисленное может значительно повысить надежность компьютеров и позволить использовать блоки памяти, которые при обычных условиях считались бы неисправными. Кроме того, этот тип памяти менее уязвим для атак хакеров из-за отсутствия постоянного адреса(ов) для критических байтов в п-сети 100, что делает ее непроницаемой для атаки с помощью различных компьютерных вирусов.
Ранее обозначенный процесс распознавания образов с определением процентного сходства между разными образами, используемыми при обучении, может также быть использован в качестве процесса классификации образов в соответствии с заранее определенными категориями, как было отмечено выше. Для кластеризации, то есть разделения образов на заранее не определенные естественные классы или группы, основной процесс обучения может быть изменен. Данный вариант осуществления может включать:
подготовку набора входных образов для обучения без добавления подготовленных выходных образов;
формирование и обучение сети с формированием выходных нейронных сумм, как это происходит в соответствии с основным алгоритмом;
- 18 035114 выбор из полученных выходных образов тех, у которых максимальная выходная сумма, то есть выбор выхода-победителя или группы выходов-победителей, которые могут быть организованы по аналогии с сетью Кохонена;
создание желаемого выходного образа, в котором выход-победитель или группа выходовпобедителей получают максимальные значения. В то же время количество выбранных победивших выходов может быть определено заранее, например, в диапазоне от 1 до 10, или победившие выходы могут быть выбраны в соответствии с правилом не менее чем N% от максимальной нейронной суммы, где N может быть, например, в пределах 90-100%; и все остальные выходы могут быть приведены к нулю;
обучение в соответствии с основным алгоритмом, используя созданные желаемые выходные образы, фиг. 13; и повторение всех процедур для других образов с формированием для каждого образа различных победителей или групп-победителей.
Набор выходных желаемых образов, сформированных вышеуказанным способом, может быть использован для описания кластеров или групп, в которых множество входных образов может естественным образом разделиться. Такой набор желаемых выходных образов может быть использован для проведения различных классификаций, например, для выбора образов в соответствии с установленными критериями, и в статистическом анализе. Вышесказанное также может быть использовано для вышеупомянутой инверсии входных и выходных образов. Другими словами, сформированные выходные образы псети могут быть использованы в качестве входных образов для другой, то есть дополнительной сети или слоя многослойной сети, а выходом дополнительной сети могут быть образы, представленные в любой форме, подходящей для ввода в компьютер.
В п-сети 100 после одного цикла обучения с описанным выше алгоритмом желаемые выходные образы могут быть получены с небольшим варьированием (разбросом точек) выходной суммы, что может замедлить процесс обучения, а также может уменьшить его точность. Для улучшения обучения п-сети 100 начальное варьирование точек может быть искусственно увеличено или расширено, так что варьирование величины точек будет охватывать весь диапазон возможных выходных значений, например от -50 до +50, как показано на фиг. 21. Такое расширение исходного варьирования точек может быть как линейным, так и нелинейным.
Ситуация может сложиться так, что максимальное значение определенного выхода окажется исключением или ошибкой, например, из-за проявления помех. Такое может проявляться в появлении максимального значения, окруженного множеством малых сигналов. При выборе выходов-победителей малыми значениями сигнала можно пренебречь путем выбора в качестве победителей наибольших сигналов, окруженных другими достаточно большими сигналами. Для этой цели могут быть использованы известные статистические способы уменьшения дисперсии, такие как выборка по значимости. Такой подход может обеспечить удаление помех, сохраняя при этом основные ценные паттерны. Создание групп-победителей обеспечивает кластеризацию линейно неразделимых образов, т.е. образов, которые относятся к более чем одному кластеру, как показано на фиг. 13. Вышесказанное может обеспечить значительное повышение точности и уменьшить количество ошибок при кластеризации.
В процессе обучения п-сети 100 типичными ошибками, подвергающимися коррекции, являются
Типичная ошибка нейронной сети Способ коррекции п-сети 100
Ошибки при выборе обучающих образов. Например, набор изображений людей включает изображение кошки Удаление соответствующего желаемого выходного образа или введение ограничения на его демонстрацию
Ошибки сети, которые не были исправлены в процессе обучения. Например, определённый образ распознан неверно из-за того, что сеть не может разделить некоторые характеристики объекта (эффект линейной неотделимости). Дополнительное обучение псети 100 после обнаружения ошибки; введение дополнительных желаемых выходных образов
Снижение точности из-за достижения предела информационной ёмкости сети Расширение п-сети 100
Исправление ошибок также возможно при помощи вышеописанного алгоритма обучения с внешним учителем.
Подробное описание и фигуры обеспечивают и подкрепляют раскрытие изобретения, но объем раскрытия определяется исключительно формулой изобретения. Хотя некоторые из лучших образов дейст- 19 035114 вия и других вариантов осуществления заявленного раскрытия были подробно описаны, существуют и другие различные альтернативные образцы и варианты для практического осуществления изобретения, определенного в прилагаемой формуле изобретения. Кроме того, варианты осуществления, показанные на чертежах или характеристики различных вариантов осуществления, упомянутые в настоящем описании, не следует обязательно понимать как варианты осуществления, независимые друг от друга. Скорее возможно, что каждая из характеристик, описанных в одном из примеров варианта осуществления, может быть объединена с одной или несколькими другими желаемыми характеристиками из других вариантов осуществления, что может привести к другим вариантам осуществления, не описанным в тексте или на чертежах. Соответственно такие другие варианты осуществления попадают в рамки объема прилагаемой формулы изобретения.

Claims (16)

  1. ФОРМУЛА ИЗОБРЕТЕНИЯ
    1. Нейронная сеть, включающая множество входов нейронной сети, каждый вход сконфигурирован для приема входного сигнала, имеющего входное значение;
    множество синапсов, в котором каждый синапс соединен с одним из множества входов и включает в себя множество корректировочных весов, где каждый корректировочный вес определяется весовым значением;
    набор распределителей, в котором каждый распределитель функционально соединен с одним из множества входов с обеспечением приема соответствующего входного сигнала и сконфигурирован для выбора одного или более корректировочных весов из множества корректировочных весов в соответствии с входным значением сигнала так, что входные значения помещаются в диапазон значений, разделенный на интервалы в соответствии с функцией распределения интервалов таким образом, что каждое входное значение помещается в соответствующий интервал, а каждый корректировочный вес соответствует одному из интервалов;
    набор нейронов, в котором каждый нейрон имеет по меньшей мере один выход и соединен по меньшей мере с одним из множества входов через один из множества синапсов и в котором каждый нейрон сконфигурирован так, чтобы суммировать весовые значения выбранных распределителем корректировочных весов синапсов, связанных с данным нейроном, с обеспечением формирования нейронной суммы; а также вычислитель коррекции веса, выполненный с обеспечением приема желаемого выходного сигнала, имеющего значение, определения отклонения нейронной суммы от желаемого значения выходного сигнала и изменения соответствующих значений корректировочных весов с использованием определенного отклонения, таким образом, что добавление значений измененных корректировочных весов для определения нейронной суммы уменьшает до минимума отклонение нейронной суммы от желаемого значения выходного сигнала при обучении нейронной сети.
  2. 2. Нейронная сеть по п.1, в которой определение отклонения нейронной суммы от желаемого выходного сигнала содержит деление желаемого значения выходного сигнала на нейронную сумму с получением коэффициента отклонения; а изменение значений соответствующих корректировочных весов содержит умножение каждого корректировочного веса, используемого для получения нейронной суммы, на коэффициент отклонения.
  3. 3. Нейронная сеть по п.1, в которой отклонение нейронной суммы от желаемого выходного сигнала представляет собой математическую разность между ними и в которой получение соответствующих измененных корректировочных весов включает пропорциональное распределение математической разности между всеми корректировочными весами, используемыми для получения этой нейронной суммы.
  4. 4. Нейронная сеть по п.3, в которой распределение математической разности включает деление определенной разности поровну между всеми корректировочными весами, использованными для получения нейронной суммы.
  5. 5. Нейронная сеть по п.3, в которой каждый распределитель дополнительно сконфигурирован назначающим множество коэффициентов воздействия соответствующему множеству корректировочных весов таким образом, что каждый коэффициент воздействия назначается одному из множества корректировочных весов в заранее определенной пропорции для получения нейронной суммы;
    каждый нейрон сконфигурирован с обеспечением суммирования произведения корректировочного веса и назначенного коэффициента воздействия для всех синапсов, связанных с ним; а вычислитель коррекции веса сконфигурирован так, чтобы назначать часть определенной разности каждому корректировочному весу, используемому для получения нейронной суммы, согласно пропорции, установленной соответствующим коэффициентом воздействия.
  6. 6. Нейронная сеть по п.5, в которой каждое соответствующее множество коэффициентов воздействия определяется функцией распределения воздействия;
    - 20 035114 каждый распределитель использует соответствующее полученное входное значение для выбора соответствующего интервала и для назначения соответствующего множества коэффициентов воздействия корректировочному весу, соответствующему выбранному интервалу и по меньшей мере одному корректировочному весу, соответствующему интервалу, примыкающему к выбранному соответствующему интервалу.
  7. 7. Нейронная сеть по п.6, в которой каждый корректировочный вес дополнительно определяется набором индексов, содержащим входной индекс, сконфигурированный с обеспечением идентификации корректировочного веса, соответствующего входу;
    индекс интервала, сконфигурированный с обеспечением определения выбранного интервала для соответствующего корректировочного веса; а также нейронный индекс, сконфигурированный с обеспечением определения корректировочного веса, соответствующего нейрону.
  8. 8. Нейронная сеть по п.7, в которой каждый корректировочный вес дополнительно определяется с помощью индекса доступа, сконфигурированного с возможностью подсчета количества раз, когда входной сигнал обращается к соответствующему корректировочному весу во время обучения нейронной сети.
  9. 9. Способ обучения нейронной сети, включающий получение через вход в нейронную сеть входного сигнала, имеющего входное значение; передача входного сигнала распределителю, функционально соединенному со входом;
    выбор посредством распределителя в соответствии с входным значением одного или нескольких корректировочных весов из множества корректировочных весов так, что обеспечивается получение входных значений в диапазоне значений, разделенном на интервалы в соответствии с функцией распределения интервалов таким образом, что каждое входное значение помещается в соответствующий интервал, и каждый корректировочный вес соответствует одному из интервалов, где каждый корректировочный вес определяется значением веса, и расположен на синапсе, подключенном к входу;
    суммирование значений выбранных корректировочных весов нейроном, соединенным с входом посредством синапса и имеющим по меньшей мере один выход, с формированием нейронной суммы;
    получение вычислителем коррекции веса желаемого выходного сигнала, имеющего значение;
    определение вычислителем коррекции веса отклонения нейронной суммы от желаемого значения выходного сигнала; а также изменение вычислителем коррекции веса значений соответствующих корректировочных весов с помощью определенного отклонения так, что суммирование измененных значений корректировочных весов для определения нейронной суммы минимизирует отклонение нейронной суммы от желаемого значения выходного сигнала при обучении нейронной сети.
  10. 10. Способ по п.9, в котором вышеуказанное определение отклонения нейронной суммы от желаемого значения выходного сигнала содержит деление желаемого значения выходного сигнала на нейронную сумму с получением коэффициента отклонения; а вышеуказанное изменение соответствующих корректировочных весов содержит умножение каждого корректировочного веса, используемого для получения нейронной суммы, на коэффициент отклонения.
  11. 11. Способ по п.9, в котором вышеупомянутое определение отклонения нейронной суммы от желаемого значения выходного сигнала содержит определение математической разности между ними и в котором вышеуказанное изменение соответствующих корректировочных весов содержит распределение математической разности между всеми корректировочными весами, используемыми для получения нейронной суммы.
  12. 12. Способ по п.11, в котором вышесказанное распределение математической разности содержит деление определенной разности поровну между всеми корректировочными весами, использованными для получения нейронной суммы.
  13. 13. Способ по п.9, далее содержащий назначение посредством распределителя множества коэффициентов воздействия множеству корректировочных весов и содержащий назначение каждого коэффициента воздействия одному из множества корректировочных весов в заранее определенной пропорции с получением нейронной суммы;
    суммирование посредством нейрона произведений корректировочного веса и назначенного коэффициента воздействия для каждого синапса, связанного с ним;
    а также добавление посредством вычислителя коррекции веса части определенной разности к каждому корректировочному весу, используемому для получения нейронной суммы согласно пропорции, установленной соответствующим коэффициентом воздействия.
  14. 14. Способ по п.13, в котором множество коэффициентов воздействия определяется функцией распределения воздействия; способ дополнительно содержит использование посредством распределителя полученного входного значения для выбора соответст- 21 035114 вующего интервала и для назначения множества коэффициентов воздействия корректировочным весам, соответствующим выбранному интервалу и по меньшей мере одному корректировочному весу, соответствующему интервалу, примыкающему к выбранному соответствующему интервалу.
  15. 15. Способ по п.14, далее содержащий дополнительное определение каждого корректировочного веса набором индексов, в котором набор индексов включает входной индекс, сконфигурированный, чтобы идентифицировать корректировочный вес, соответствующий входу;
    индекс интервала, сконфигурированный, чтобы определять выбранный интервал для соответствующего корректировочного веса; а также нейронный индекс, сконфигурированный, чтобы определять корректировочный вес, соответствующий нейрону.
  16. 16. Способ по п.15, далее содержащий дополнительное определение каждого корректировочного веса с помощью индекса доступа, сконфигурированного с обеспечением подсчета количества раз, когда входной сигнал обращается к соответствующему корректировочному весу во время обучения нейронной сети.
EA201600637A 2014-03-06 2015-03-06 Нейронная сеть и способ обучения нейронной сети EA035114B1 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201461949210P 2014-03-06 2014-03-06
US201562106389P 2015-01-22 2015-01-22
PCT/US2015/019236 WO2015134900A1 (en) 2014-03-06 2015-03-06 Neural network and method of neural network training

Publications (2)

Publication Number Publication Date
EA201600637A1 EA201600637A1 (ru) 2016-12-30
EA035114B1 true EA035114B1 (ru) 2020-04-29

Family

ID=54055917

Family Applications (1)

Application Number Title Priority Date Filing Date
EA201600637A EA035114B1 (ru) 2014-03-06 2015-03-06 Нейронная сеть и способ обучения нейронной сети

Country Status (14)

Country Link
US (1) US9390373B2 (ru)
EP (1) EP3114540B1 (ru)
JP (1) JP6382354B2 (ru)
KR (1) KR102166105B1 (ru)
CN (1) CN106104406B (ru)
AU (1) AU2015226983A1 (ru)
CA (1) CA2941352C (ru)
DK (1) DK3114540T3 (ru)
EA (1) EA035114B1 (ru)
ES (1) ES2864149T3 (ru)
IL (1) IL247533B (ru)
MX (1) MX357374B (ru)
SG (1) SG11201608265XA (ru)
WO (1) WO2015134900A1 (ru)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3185184A1 (en) 2015-12-21 2017-06-28 Aiton Caldwell SA The method for analyzing a set of billing data in neural networks
US10824945B2 (en) 2016-04-15 2020-11-03 Agreeya Mobility Inc. Machine-learning system and method thereof to manage shuffling of input training datasets
CN106022221B (zh) * 2016-05-09 2021-11-30 腾讯科技(深圳)有限公司 一种图像处理方法及处理系统
EP3459017B1 (en) * 2016-05-20 2023-11-01 Deepmind Technologies Limited Progressive neural networks
EP3469521A4 (en) * 2016-06-09 2020-02-26 Progress, Inc. NEURONAL NETWORK AND LEARNING METHOD OF NEURONAL NETWORK
KR102335955B1 (ko) * 2016-11-07 2021-12-08 한국전자통신연구원 컨볼루션 신경망 시스템 및 그것의 동작 방법
US10599976B2 (en) 2016-11-07 2020-03-24 International Business Machines Corporation Update of attenuation coefficient for a model corresponding to time-series input data
CN106875010B (zh) * 2017-01-20 2019-11-22 清华大学 神经元权重信息处理方法和系统
WO2018133567A1 (zh) * 2017-01-20 2018-07-26 清华大学 神经元权重信息处理方法和系统、神经元信息处理方法和系统及计算机设备
US11568224B2 (en) * 2017-06-21 2023-01-31 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device having neural network
CN110785709B (zh) * 2017-06-30 2022-07-15 科磊股份有限公司 从低分辨率图像产生高分辨率图像以用于半导体应用
KR20190044878A (ko) 2017-10-23 2019-05-02 삼성전자주식회사 뉴럴 네트워크에서 파라미터를 처리하는 방법 및 장치
US11468297B2 (en) 2017-10-26 2022-10-11 Uber Technologies, Inc. Unit-level uncertainty and propagation
KR102459487B1 (ko) * 2017-11-03 2022-10-26 주식회사 케이티 컨볼루션 신경망에 기반한 제스처 분류장치 및 방법
WO2019098418A1 (ko) * 2017-11-16 2019-05-23 삼성전자 주식회사 뉴럴 네트워크 학습 방법 및 디바이스
WO2019112084A1 (ko) * 2017-12-06 2019-06-13 한국과학기술원 Cnn을 이용한 압축 왜곡 제거 방법
CN108256681A (zh) * 2018-01-15 2018-07-06 吉浦斯信息咨询(深圳)有限公司 一种收入水平预测方法、装置、存储介质和系统
US11887003B1 (en) * 2018-05-04 2024-01-30 Sunil Keshav Bopardikar Identifying contributing training datasets for outputs of machine learning models
KR102183305B1 (ko) * 2018-08-03 2020-11-26 국민대학교산학협력단 신경망 피처 벡터 결정 장치 및 방법
CN108962247B (zh) * 2018-08-13 2023-01-31 南京邮电大学 基于渐进式神经网络多维语音信息识别系统及其方法
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
CN109447258B (zh) * 2018-09-19 2021-09-14 北京市商汤科技开发有限公司 神经网络模型的优化方法及装置、电子设备和存储介质
JP6521207B1 (ja) * 2018-11-08 2019-05-29 Tdk株式会社 積和演算器、積和演算方法、論理演算デバイスおよびニューロモーフィックデバイス
CN111208865B (zh) * 2018-11-22 2021-10-08 南京大学 光电计算单元、光电计算阵列及光电计算方法
FR3090953B1 (fr) 2018-12-21 2020-12-04 Psa Automobiles Sa Méthode de vérification de la robustesse d’un réseau neuronal
CN109620269B (zh) * 2019-01-28 2021-10-22 锦图计算技术(深圳)有限公司 疲劳检测方法、装置、设备及可读存储介质
KR102675806B1 (ko) 2019-05-03 2024-06-18 삼성전자주식회사 영상 처리 장치 및 그 영상 처리 방법
KR102514795B1 (ko) * 2020-03-12 2023-03-29 한국과학기술원 심층 인공 신경망에서 자연 발생되는 선택적 신경 반응을 기반으로 시각적 자극을 인식하기 위한 전자 장치 및 그의 동작 방법
US20220019909A1 (en) * 2020-07-14 2022-01-20 Adobe Inc. Intent-based command recommendation generation in an analytics system
KR102642528B1 (ko) * 2020-11-18 2024-03-04 한국전자통신연구원 인공 지능 시스템의 그것의 인공 신경망 학습 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5299285A (en) * 1992-01-31 1994-03-29 The United States Of America As Represented By The Administrator, National Aeronautics And Space Administration Neural network with dynamically adaptable neurons
US20100088263A1 (en) * 2005-09-29 2010-04-08 Gustavo Deco Method for Computer-Aided Learning of a Neural Network and Neural Network
US7904398B1 (en) * 2005-10-26 2011-03-08 Dominic John Repici Artificial synapse component using multiple distinct learning means with distinct predetermined learning acquisition times
US20120166374A1 (en) * 2006-12-08 2012-06-28 Medhat Moussa Architecture, system and method for artificial neural network implementation

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4918618A (en) 1988-04-11 1990-04-17 Analog Intelligence Corporation Discrete weight neural network
US4979124A (en) 1988-10-05 1990-12-18 Cornell Research Foundation Adaptive, neural-based signal processor
JP3088171B2 (ja) 1991-02-12 2000-09-18 三菱電機株式会社 自己組織型パタ−ン分類システム及び分類方法
US5493688A (en) 1991-07-05 1996-02-20 Booz, Allen & Hamilton, Inc. Pattern categoritzation system having self-organizing analog fields
US5253329A (en) 1991-12-26 1993-10-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Neural network for processing both spatial and temporal data with time based back-propagation
JP3328953B2 (ja) * 1992-05-25 2002-09-30 烈 山川 非線形シナプスニューロン、そのデバイス及びそれを用いた予測方法
JPH06266868A (ja) 1992-12-24 1994-09-22 Olympus Optical Co Ltd ニューロン素子
US5566273A (en) 1993-12-30 1996-10-15 Caterpillar Inc. Supervised training of a neural network
US7577631B2 (en) 2001-09-10 2009-08-18 Feldhake Michael J Cognitive image filtering
EP1515270A1 (en) * 2003-09-09 2005-03-16 Semeion An artificial neural network
US7814038B1 (en) 2007-12-06 2010-10-12 Dominic John Repici Feedback-tolerant method and device producing weight-adjustment factors for pre-synaptic neurons in artificial neural networks
KR101831247B1 (ko) * 2012-01-31 2018-02-22 한국전자통신연구원 다층 신경망을 이용한 시선 추적 시스템의 초점 측정 장치
US10346962B2 (en) * 2012-02-10 2019-07-09 Corning Incorporated Nondestructive method to predict isostatic strength in ceramic substrates

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5299285A (en) * 1992-01-31 1994-03-29 The United States Of America As Represented By The Administrator, National Aeronautics And Space Administration Neural network with dynamically adaptable neurons
US20100088263A1 (en) * 2005-09-29 2010-04-08 Gustavo Deco Method for Computer-Aided Learning of a Neural Network and Neural Network
US7904398B1 (en) * 2005-10-26 2011-03-08 Dominic John Repici Artificial synapse component using multiple distinct learning means with distinct predetermined learning acquisition times
US20120166374A1 (en) * 2006-12-08 2012-06-28 Medhat Moussa Architecture, system and method for artificial neural network implementation

Also Published As

Publication number Publication date
AU2015226983A1 (en) 2016-10-06
CA2941352A1 (en) 2015-09-11
MX2016011438A (es) 2017-04-06
CN106104406A (zh) 2016-11-09
US20160012330A1 (en) 2016-01-14
IL247533B (en) 2019-06-30
JP6382354B2 (ja) 2018-08-29
EP3114540A4 (en) 2017-11-08
KR20160131071A (ko) 2016-11-15
SG11201608265XA (en) 2016-11-29
US9390373B2 (en) 2016-07-12
DK3114540T3 (da) 2021-04-19
MX357374B (es) 2018-07-04
EP3114540A1 (en) 2017-01-11
ES2864149T3 (es) 2021-10-13
EP3114540B1 (en) 2021-03-03
WO2015134900A1 (en) 2015-09-11
JP2017511948A (ja) 2017-04-27
KR102166105B1 (ko) 2020-10-16
IL247533A0 (en) 2016-11-30
CA2941352C (en) 2022-09-20
CN106104406B (zh) 2018-05-08
EA201600637A1 (ru) 2016-12-30

Similar Documents

Publication Publication Date Title
EA035114B1 (ru) Нейронная сеть и способ обучения нейронной сети
US9619749B2 (en) Neural network and method of neural network training
KR102558300B1 (ko) 신경망 및 신경망 트레이닝 방법
TWI655587B (zh) 神經網路及神經網路訓練的方法
KR102276339B1 (ko) Cnn의 근사화를 위한 학습 장치 및 방법
US20190095798A1 (en) Stochastic categorical autoencoder network
CN109726045A (zh) 用于块稀疏递归神经网络的系统和方法
JP2021006980A (ja) スパース性制約及び知識の蒸留に基づくスパースかつ圧縮されたニューラルネットワーク
JP2021502650A5 (ru)
US11727717B2 (en) Data-driven, photorealistic social face-trait encoding, prediction, and manipulation using deep neural networks
EP3598288A1 (en) System and method for generating photorealistic synthetic images based on semantic information
JP2022016316A (ja) 生徒対教師の不一致を最大化する入力を用いて、教師役ニューラルネットワークを模倣するように生徒役ニューラルネットワークを訓練する方法
Sunitha et al. Political optimizer-based automated machine learning for skin lesion data
JP7148078B2 (ja) 属性推定装置、属性推定方法、属性推定器学習装置、及びプログラム
WO2020075462A1 (ja) 学習器推定装置、学習器推定方法、リスク評価装置、リスク評価方法、プログラム
Jaszcz et al. Human-AI collaboration to increase the perception of VR
JP2019219756A (ja) 制御装置、制御方法、プログラム、ならびに、情報記録媒体
JP7405148B2 (ja) 情報処理装置、学習方法、及び、プログラム
Fujiwara et al. A surrogate-assisted selection scheme for genetic algorithms employing multi-layer neural networks
CN114091104A (zh) 用于保护图像样本集的隐私信息的方法和装置
CN116957058A (zh) 时空交通预测模型的对抗训练方法、装置、设备及介质
CN115577107A (zh) 一种基于分类神经网络的学生画像生成方法
CN116362322A (zh) 基于知识蒸馏的生成式模型迁移学习方法、设备及介质
CN117095227A (zh) 基于非交集差分隐私联邦学习的卷积神经网络训练方法
CN117957549A (zh) 用于元少样本类增量学习的方法和设备

Legal Events

Date Code Title Description
MM4A Lapse of a eurasian patent due to non-payment of renewal fees within the time limit in the following designated state(s)

Designated state(s): AM AZ KG TJ TM