RU2269155C2 - Neuron model, realizing logical nonequivalence function - Google Patents

Neuron model, realizing logical nonequivalence function Download PDF

Info

Publication number
RU2269155C2
RU2269155C2 RU2003125926/09A RU2003125926A RU2269155C2 RU 2269155 C2 RU2269155 C2 RU 2269155C2 RU 2003125926/09 A RU2003125926/09 A RU 2003125926/09A RU 2003125926 A RU2003125926 A RU 2003125926A RU 2269155 C2 RU2269155 C2 RU 2269155C2
Authority
RU
Russia
Prior art keywords
neuron
function
output
model
logical
Prior art date
Application number
RU2003125926/09A
Other languages
Russian (ru)
Other versions
RU2003125926A (en
Inventor
Евгений Александрович Самойлин (RU)
Евгений Александрович Самойлин
Original Assignee
Евгений Александрович Самойлин
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Евгений Александрович Самойлин filed Critical Евгений Александрович Самойлин
Priority to RU2003125926/09A priority Critical patent/RU2269155C2/en
Publication of RU2003125926A publication Critical patent/RU2003125926A/en
Application granted granted Critical
Publication of RU2269155C2 publication Critical patent/RU2269155C2/en

Links

Images

Landscapes

  • Complex Calculations (AREA)
  • Devices For Executing Special Programs (AREA)

Abstract

FIELD: neuro-cybernetics, possible use as functional unit for various artificial neuron networks.
SUBSTANCE: device has two inputs, signals from which are multiplied with appropriate weight coefficients and are sent to adder, total outputted by which is further transformed in activation block by modular activation function, and then by threshold function at the output of neuron.
EFFECT: prevented problem of impossible realization of logical nonequivalence function by known neuron models.
7 dwg, 1 tbl

Description

Изобретение относится к нейрокибернетике и может использоваться в качестве функциональной единицы различных искусственных нейронных сетей.The invention relates to neurocybernetics and can be used as a functional unit of various artificial neural networks.

Известна техническая и математическая модель искусственного нейрона [1-4]. Первая модель предложена в работе [1]. Позже [2], на основе таких моделей нейронов, реализованы первые искусственные нейронные сети (персептроны) для решения задач распознавания изображений букв. Подобные искусственные нейроны используются в качестве функциональной единицы всех современных искусственных нейронных сетей [3, 4] и представляют собой устройства с несколькими входами и одним выходом. Входные сигналы, поступая на входы, перемножаются с соответствующими весовыми коэффициентами, суммируются и преобразуются функцией передачи, в качестве которой может использоваться пороговая, линейная, сигмоидальная, гиперболическая и др. [3, 4]. Такая модель нейрона позволяет, хотя и достаточно грубо, воспроизводить некоторые из функций естественного нейрона. Объединяя искусственные нейроны в слои и сети, в совокупности с алгоритмами обучения, можно добиться приемлемого решения нейронной сетью сложных задач, не поддающихся адекватной формализации [3, 4].Known technical and mathematical model of an artificial neuron [1-4]. The first model was proposed in [1]. Later [2], on the basis of such neuron models, the first artificial neural networks (perceptrons) were implemented to solve letter image recognition problems. Such artificial neurons are used as a functional unit of all modern artificial neural networks [3, 4] and are devices with several inputs and one output. The input signals arriving at the inputs are multiplied with the corresponding weighting coefficients, summed and transformed by the transfer function, which can be used as a threshold, linear, sigmoidal, hyperbolic, etc. [3, 4]. Such a model of a neuron allows, although roughly enough, to reproduce some of the functions of a natural neuron. Combining artificial neurons into layers and networks, together with learning algorithms, it is possible to achieve an acceptable solution by a neural network of complex problems that cannot be adequately formalized [3, 4].

Наиболее близкой по техническому исполнению к предлагаемой модели нейрона является модель простейшего персептронного нейрона с двумя входами, парой весовых коэффициентов, сумматором и активационным блоком [3, 4]. Достоинством такой модели является возможность реализации ею большинства логических булевых функций. Так, для двух переменных, согласно [5], существует набор из 16 функций алгебры логики. Известная модель нейрона с двумя входами реализует 14 из них [4], т.е. все, за исключением логических булевых функций неравнозначности (или "суммы по модулю 2") и эквивалентности (равнозначности), которые рассмотрены, например, в [6]. Невозможность реализации двух данных логических функций является существенным недостатком такой модели нейрона и носит название проблемы ИСКЛЮЧАЮЩЕГО ИЛИ, которая впервые обнаружена в работе [7]. Данная проблема является фундаментальной в теории искусственных нейронных сетей и наглядно изложена в ряде современных научных изданий [4, 8, 9].The closest in technical execution to the proposed neuron model is the model of the simplest perceptron neuron with two inputs, a pair of weighting factors, an adder and an activation unit [3, 4]. The advantage of this model is the ability to implement most of the logical Boolean functions. So, for two variables, according to [5], there is a set of 16 functions of the algebra of logic. The well-known model of a neuron with two inputs implements 14 of them [4], ie all, with the exception of logical Boolean functions of unequality (or “sum modulo 2”) and equivalence (equivalence), which are considered, for example, in [6]. The impossibility of realizing two of these logical functions is a significant drawback of such a neuron model and is called the EXCLUSIVE OR problem, which was first discovered in [7]. This problem is fundamental in the theory of artificial neural networks and is clearly stated in a number of modern scientific publications [4, 8, 9].

Предлагаемая модель направлена на устранение рассмотренного недостатка (проблемы нереализуемости логической функции неравнозначности) известной модели нейрона.The proposed model is aimed at eliminating the considered drawback (the problem of the unrealizability of the logical function of unequality) of the known neuron model.

Проблема нереализуемости нейроном логической функции неравнозначности заключается в следующем [4, 8, 9].The problem of the unrealizability of the logical function of unequality by a neuron is as follows [4, 8, 9].

Рассмотрим известную модель нейрона, функциональная схема которой приведена на фиг.1. Входные сигналы х1 и х2 при поступлении в блоки 1 и 2 перемножаются с соответствующими весовыми коэффициентами w1 и w2. Блоки 1 и 2 осуществляют перемножение с учетом знаковых разрядов сигналов [10]. Затем перемноженные сигналы х1w1 и х2w2 поступают на вход сумматора со знаковыми входами/выходом [10], который обозначен блоком 3 на фиг.1. С выхода сумматора сигнал s=(х1w12w2) поступает на активационный блок 4 [10], в котором преобразуется пороговой функцией передачи [4, 8, 9]:Consider the well-known model of a neuron, a functional diagram of which is shown in figure 1. The input signals x 1 and x 2 upon receipt of blocks 1 and 2 are multiplied with the corresponding weighting factors w 1 and w 2 . Blocks 1 and 2 carry out multiplication taking into account the sign bits of the signals [10]. Then the multiplied signals x 1 w 1 and x 2 w 2 are fed to the input of the adder with sign inputs / output [10], which is indicated by block 3 in figure 1. From the output of the adder, the signal s = (x 1 w 1 + x 2 w 2 ) goes to activation block 4 [10], in which it is converted by the threshold transfer function [4, 8, 9]:

Figure 00000002
Figure 00000002

где Р - величина порога. Выход блока 4 является выходом модели нейрона. Требуемые выходные значения модели нейрона для реализации функции неравнозначности, в зависимости от х1 и х2, приведены в таблице 1.where P is the threshold value. The output of block 4 is the output of a neuron model. The required output values of the neuron model for the implementation of the ambiguity function, depending on x 1 and x 2 , are shown in table 1.

Таблица 1Table 1 Вход x1 Input x 1 Вход х2 Input x 2 Выход у(х1, х2)Output y (x 1 , x 2 ) 00 00 00 00 1one 1one 1one 00 1one 1one 1one 00

Рассмотрим сумму s как функцию двух переменных (поверхность) от х1 и х2 над плоскостью входных значений Ох1x2, как показано на фиг.2 [4]. Каждая точка этой поверхности находится над соответствующей точкой плоскости Ох1x2 на расстоянии, равном значению s в этой точке. Точки, в которых значение s равно величине порога Р, устанавливаемого в блоке 4, образуют прямую на плоскости Px1х2, параллельную Ох1х2 (на фиг.2 Рх1х2 - полупрозрачным тоном; Р равно 0.5) и проектируются в некоторую разделяющую одномерную гиперплоскость (прямую) на плоскости входных значений Ох1х2. Данная разделяющая прямая на плоскости Ох1х2 приведена на фиг.3, где стрелками к углам (возможным значениям х1 и х2) указаны требуемые значения выхода нейрона для реализации логической функции неравнозначности.Consider the sum of s as a function of two variables (surface) of x 1 and x 2 over the plane of input values Ox 1 x 2 , as shown in figure 2 [4]. Each point of this surface is located above the corresponding point of the plane Ox 1 x 2 at a distance equal to the value of s at this point. Points at which the value of s is equal to the threshold value P set in block 4 form a straight line in the Px 1 x 2 plane parallel to Ox 1 x 2 (in Fig. 2 Px 1 x 2 - in a translucent tone; P is 0.5) and projected into some dividing one-dimensional hyperplane (straight line) on the plane of the input values Ox 1 x 2 . This dividing line on the plane Ox 1 x 2 is shown in figure 3, where the arrows to the corners (possible values of x 1 and x 2 ) indicate the required output values of the neuron to implement the logical function of unequality.

Все точки по одну сторону разделяющей прямой проецируются в значения s, большие порога, а точки по другую сторону дают меньшие значения s, т.е. пороговая прямая разбивает плоскость Ох1x2 на две области. В одной из них активность нейрона равна единице, в другой - нулю. Таким образом, невозможно провести прямую так, чтобы двухвходовым нейроном в соответствии с табл. 1 разделить нули и единицы на плоскости Ох1х2, т.е. реализовать логическую функцию неравнозначности.All points on one side of the dividing line are projected into s values greater than the threshold, and points on the other side give smaller s values, i.e. the threshold line divides the plane Ox 1 x 2 into two regions. In one of them, the activity of the neuron is unity, in the other - zero. Thus, it is impossible to draw a straight line so that a two-input neuron in accordance with table. 1 divide zeros and ones on the plane Ox 1 x 2 , i.e. implement a logical function of disambiguation.

Рассмотрим сущность предлагаемой модели нейрона, реализующей логическую функцию неравнозначности.Consider the essence of the proposed neuron model that implements the logical function of unequality.

Функциональная схема устройства приведена на фиг.4.Functional diagram of the device shown in figure 4.

Предлагаемая модель нейрона, как и известная, содержит два перемножителя (блоки 1 и 2), осуществляющих перемножение входных сигналов с весовыми коэффициентами с учетом их знаков. В модели могут использоваться любые из известных, описанных в [10] перемножителей подобного типа. Как и в известной модели, перемноженные сигналы x1w1 и x2w2 поступают на вход сумматора (блок 3) со знаковыми входами/выходом [10]. В качестве знакового сумматора могут использоваться любые устройства подобного типа, например приведенные в [10]. Предлагаемая модель отличается от модели прототипа тем, что активационный блок состоит из двух последовательно соединенных блоков, как показано на фиг.4. При этом сумма s с выхода сумматора поступает сначала на вход блока 4 (фиг.4), в котором преобразуется модульной функцией активации вида

Figure 00000003
, а затем с выхода блока 4 поступает на вход блока 5, где преобразуется пороговой функцией (1). В качестве блоков 4 и 5 могут быть использованы описанные в [10] технические устройства, реализующие соответствующие математические функции. Выход блока 5 предлагаемой модели является ее выходом. Таким образом, выход модели нейрона у(х12) является результатом подстановки модуля суммы s в пороговую функцию (1). Полная функция передачи модели будет выглядетьThe proposed neuron model, as well as the known one, contains two multipliers (blocks 1 and 2) that multiply the input signals with weight coefficients taking into account their signs. Any of the well-known multipliers of this type described in [10] can be used in the model. As in the known model, the multiplied signals x 1 w 1 and x 2 w 2 are fed to the input of the adder (block 3) with significant inputs / outputs [10]. As a symbolic adder, any devices of a similar type can be used, for example, those given in [10]. The proposed model differs from the prototype model in that the activation unit consists of two series-connected units, as shown in figure 4. In this case, the sum s from the output of the adder first goes to the input of block 4 (Fig. 4), in which it is transformed by a modular activation function of the form
Figure 00000003
, and then from the output of block 4 goes to the input of block 5, where it is converted by a threshold function (1). As blocks 4 and 5, technical devices described in [10] that implement the corresponding mathematical functions can be used. The output of block 5 of the proposed model is its output. Thus, the output of the neuron model y (x 1 , x 2 ) is the result of substituting the modulus of the sum s into the threshold function (1). The full model transfer function will look

Figure 00000004
Figure 00000004

Математическая модель нейрона в этом случае будет описыватьсяThe mathematical model of the neuron in this case will be described

следующим выражением:the following expression:

Figure 00000005
Figure 00000005

Сумма s=(x1w12w2) должна быть нулевой при равенстве значений х1 и х2, что достижимо при w1=1, w2=-1, как показано на фиг.2. В этом случае, модуль суммы (сигнал на выходе блока 4 фиг.4) как функция от двух переменных х1 и х2 будет иметь вид, в отличие от прототипа, не одной поверхности, а двух подповерхностей под некоторым углом между собой, как показано на фиг.5. Если в этом случае модуль суммы преобразовать пороговой функцией (2) в блоке 5 фиг.4, т.е. ограничить плоскостью Рх1х2, которая на фиг.5 показана полупрозрачным тоном, то пересечение поверхности модуля с плоскостью Рх1x2 образует не одну, как у прототипа, а две разделяющие прямые.The sum s = (x 1 w 1 + x 2 w 2 ) should be zero if the values of x 1 and x 2 are equal, which is achievable with w 1 = 1, w 2 = -1, as shown in figure 2. In this case, the modulus of the sum (the signal at the output of block 4 of Fig. 4) as a function of two variables x 1 and x 2 will have the form, in contrast to the prototype, not one surface, but two subsurfaces at some angle between them, as shown figure 5. If, in this case, the modulus of the sum is transformed by the threshold function (2) in block 5 of Fig. 4, i.e. limit the plane Px 1 x 2 , which is shown in figure 5 in a translucent tone, the intersection of the surface of the module with the plane Px 1 x 2 forms not one, as in the prototype, but two dividing lines.

Математически уравнение разделяющей прямой из выражения (3) будет выглядеть

Figure 00000006
, откуда, в соответствии со свойством модуля, образуются два уравнения разделяющих прямыхMathematically, the equation of the dividing line from expression (3) will look
Figure 00000006
, where, in accordance with the module property, two equations of dividing lines are formed

Figure 00000007
Figure 00000007

где х1(1) - первая прямая; х1(2) - вторая прямая, т.е. две проекции пересечения поверхности s с плоскостью Рх1х2, полученные на плоскости Ох1x2, которые и разделяют ее на три области так, как показано на фиг.6.where x 1 (1) is the first line; x 1 (2) is the second straight line, i.e. two projections of the intersection of the surface s with the plane Px 1 x 2 , obtained on the plane Ox 1 x 2 , which divide it into three areas as shown in Fig.6.

Полный вид зависимости выхода нейрона у(х12) как функции двух переменных от х1 и х2 в рассматриваемом случае, показан на фиг.7.A full view of the dependence of the neuron output y (x 1 , x 2 ) as a function of two variables as x 1 and x 2 in the case under consideration is shown in Fig. 7.

На фиг.2, 3, 5-7 размерности всех координатных осей приведены в сотых.In figure 2, 3, 5-7 the dimensions of all coordinate axes are given in hundredths.

Из фиг.5-7 видно, что при x12 (или х1≈x2) нейрон на выходе будет давать нуль, а при х1≠х2 - единицу. Таким образом, отделяя нулевые входные значения от единичных на плоскости Ox1x2 в отличие от прототипа не одной, а двумя прямыми, нейроном реализуется логическая функция неравнозначности.Figure 5-7 shows that for x 1 = x 2 (or x 1 ≈ x 2 ), the output neuron will give zero, and for x 1 ≠ x 2 it will give one. Thus, separating the zero input values from the unit values on the Ox 1 x 2 plane, unlike the prototype, not one, but two straight lines, the neuron implements a logical function of unequality.

Для подтверждения возможности осуществления заявленного изобретения рассмотрим работу предлагаемой модели нейрона.To confirm the feasibility of the claimed invention, we consider the operation of the proposed neuron model.

Весовые коэффициенты имеют постоянные значения во всех случаях: w1=1, w2=-1. Величину порога примем равной, например, 0,5. Результат подстановки модульной функции в пороговую будет выглядеть аналогично (2):Weighting factors have constant values in all cases: w 1 = 1, w 2 = -1. The threshold value is taken equal to, for example, 0.5. The result of substituting a modular function into a threshold will look similar to (2):

Figure 00000008
Figure 00000008

Так как математическая модель нейрона имеет видSince the mathematical model of a neuron has the form

Figure 00000009
Figure 00000009

то при подаче на его входы х1 и х2 сигналов, равных нулю, сумма (выход блока 3 фиг.4) будет равна нулю. Преобразуясь модульной функцией активации в блоке 4, сигнал на его выходе будет также нулевым, как и после блока 5 на выходе у(х1, х2) нейрона. При поступлении на входы x1=1, х2=0 сумма будет равна единице; модуль (выход блока 4) - также единице, что превысит порог Р=0.5 в блоке 5 и на выходе нейрона будет единица. При входной комбинации х1=0, х2=1 сумма будет равна минус единице; модуль - единице, что также превысит порог Р=0.5 в блоке 5 и даст единицу на выходе нейрона. В случае х1=1, x2=1, сумма станет нулевой; модуль суммы будет также равен нулю, что даст на выходе нейрона нуль.then when applying to its inputs x 1 and x 2 signals equal to zero, the sum (output of block 3 of FIG. 4) will be zero. Transformed by the modular activation function in block 4, the signal at its output will also be zero, as after block 5 at the output of the y (x 1 , x 2 ) neuron. When entering the inputs x 1 = 1, x 2 = 0, the sum will be equal to one; module (block 4 output) - also one, which will exceed the threshold P = 0.5 in block 5 and there will be one at the output of the neuron. With the input combination x 1 = 0, x 2 = 1, the sum will be equal to minus one; the module is unity, which will also exceed the threshold P = 0.5 in block 5 and will give unity at the output of the neuron. In the case x 1 = 1, x 2 = 1, the sum will become zero; the modulus of the sum will also be zero, which will give zero at the output of the neuron.

Таким образом, предлагаемой моделью нейрона, в соответствии с таблицей 1, реализуется логическая функция неравнозначности.Thus, the proposed neuron model, in accordance with table 1, implements the logical function of unequality.

Входные сигналы нейрона х1 и х2 могут быть не только дискретными, но и непрерывными (от нуля до единицы), так как поверхность модуля суммы s, показанная на фиг.5, существует для всех непрерывных х1 и х2.The input signals of the neuron x 1 and x 2 can be not only discrete, but also continuous (from zero to unity), since the surface of the modulus of the sum s, shown in Fig. 5, exists for all continuous x 1 and x 2 .

Таким образом, предлагаемая модель нейрона, реализуя логическую функцию неравнозначности, преодолевает проблему ИСКЛЮЧАЮЩЕЕ ИЛИ.Thus, the proposed neuron model, realizing the logical function of unequality, overcomes the EXCLUSIVE OR problem.

Источники информацииInformation sources

1. McCulloch W.S., Pitts W. A logical calculus of the ideas imminent in nervous activity. // Bulletin of Mathematical Biophysics, vol.5, 1943, pp.115-133. (Рус. перевод: Маккаллок У.С., Питтс У. Логическое исчисление идей, относящихся к нервной деятельности. Автоматы. / Под ред. К.Э.Шеннона, Дж.Маккарти. - М.: ИЛ, 1956).1. McCulloch W.S., Pitts W. A logical calculus of the ideas imminent in nervous activity. // Bulletin of Mathematical Biophysics, vol. 5, 1943, pp. 115-133. (Russian translation: McCullock, W.S., Pitts, W., The Logical Calculus of Ideas Related to Nervous Activity. Automata. / Ed. By K.E. Shannon, J. McCarthy. - M.: IL, 1956).

2. Rosenblatt F. Principles of neurodinamics. Perceptrons and the theory of brain mechanisms. Spartan Books, Washington, 1962. (Рус. перевод: Розенблатт Ф. Принципы нейродинамики. Перцептроны и теория механизмов мозга. / Под ред. С.М.Осовца. - М: Мир, 1965 - 480 с.).2. Rosenblatt F. Principles of neurodinamics. Perceptrons and the theory of brain mechanisms. Spartan Books, Washington, 1962. (Russian translation: Rosenblatt F. Principles of neurodynamics. Perceptrons and theory of brain mechanisms. / Under the editorship of S.M. Osovets. - M: Mir, 1965 - 480 p.).

3. Галушкин А.И. Теория нейронных сетей. Кн.1: Учеб. пособие для вузов / Общая ред. А.И.Галушкина. - М.: ИПРЖР, 2000. - 416 с.3. Galushkin A.I. Theory of neural networks. Book 1: Textbook. manual for universities / General ed. A.I. Galushkina. - M .: IPRZhR, 2000 .-- 416 p.

4. Wasserman P. Neurocomputing. Theory and practice, Nostram Reinhold, 1990. (Рус. перевод: Уоссермен Ф. Нейрокомпьютерная техника: теория и практика. / Пер. с англ. Ю.А. уев, В.А.Точенов. - М.: Мир, 1992. - 240 с.).4. Wasserman P. Neurocomputing. Theory and practice, Nostram Reinhold, 1990. (Russian translation: Wassermen F. Neurocomputer technology: theory and practice. / Transl. - 240 p.).

5. Куринной Г.Ч. Математика: Справочник. - Харьков: Фолио; Ростов н/Д: Феникс, 1997. - 463 с.5. Kurinnoy G.Ch. Mathematics: Reference. - Kharkov: Folio; Rostov n / a: Phoenix, 1997 .-- 463 p.

6. Залманзон Л.А. Беседы об автоматике и кибернетике. -М.: Наука. Гл. ред. физ.-мат. лит., 1981. - 416 с.6. Zalmanzon L.A. Conversations about automation and cybernetics. -M .: Science. Ch. ed. Phys.-Math. lit., 1981. - 416 p.

7. Minsky М., Papert S. Perceptrons. An introduction to computational geometry, MIT Press, 1969. (Рус.перевод: Минский М., Пейперт С. Персептроны. / Под ред. В.А.Ковалевского. - М.: Мир, 1971. - 261 с.).7. Minsky M., Papert S. Perceptrons. An introduction to computational geometry, MIT Press, 1969. (Russian translation: Minsky M., Peypert S. Perceptrons. / Ed. By V.A. Kovalevsky. - M .: Mir, 1971. - 261 p.).

8. Круглов В.В., Борисов В.В. Искусственные нейронные сети. Теория и практика. - М.: Горячая линия - Телеком, 2001. - 382 с.8. Kruglov VV, Borisov VV Artificial neural networks. Theory and practice. - M .: Hot line - Telecom, 2001 .-- 382 p.

9. Дьяконов В., Круглов В. Математические пакеты расширения MATLAB. Специальный справочник. - СПб.: Питер, 2001. - 480 с.9. Dyakonov V., Kruglov V. Mathematical extension packages MATLAB. Special reference. - St. Petersburg: Peter, 2001 .-- 480 p.

10. Галушкин А.И. Нейрокомпьютеры. Кн.3: Учеб. пособие для вузов / Общая ред. А.И.Галушкина. - М.: ИПРЖР, 2000. - 528 с.10. Galushkin A.I. Neurocomputers. Book 3: Textbook. manual for universities / General ed. A.I. Galushkina. - M .: IPRZhR, 2000 .-- 528 s.

Claims (1)

Модель нейрона, реализующая логическую функцию неравнозначности, содержащая два входа, сигналы х1 и х2, принимающие значения 0 или 1, с которых перемножаются с соответствующими весовыми коэффициентами ω1 и ω2, где ω1=1, а ω2=-1,и поступают на сумматор, причем s∈(-1, 0, 1), где s - сумма с выхода сумматора, s=х1ω12ω2, отличающаяся тем, что сумма s преобразуется в активационном блоке модульной функцией активации вида
Figure 00000010
a затем пороговой функцией
A neuron model that implements a logical function of ambiguity, containing two inputs, signals x 1 and x 2 , taking values 0 or 1, from which are multiplied with the corresponding weighting factors ω 1 and ω 2 , where ω 1 = 1, and ω 2 = -1 , and arrive at the adder, moreover, s∈ (-1, 0, 1), where s is the sum from the output of the adder, s = x 1 ω 1 + x 2 ω 2 , characterized in that the sum s is transformed in the activation unit by a modular function view activation
Figure 00000010
a then threshold function
Figure 00000011
Figure 00000011
где Р - величина порога, Р=0,5, f(x) - функция на выходе нейрона. where P is the threshold value, P = 0.5, f (x) is the function at the output of the neuron.
RU2003125926/09A 2003-08-22 2003-08-22 Neuron model, realizing logical nonequivalence function RU2269155C2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2003125926/09A RU2269155C2 (en) 2003-08-22 2003-08-22 Neuron model, realizing logical nonequivalence function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2003125926/09A RU2269155C2 (en) 2003-08-22 2003-08-22 Neuron model, realizing logical nonequivalence function

Publications (2)

Publication Number Publication Date
RU2003125926A RU2003125926A (en) 2005-02-20
RU2269155C2 true RU2269155C2 (en) 2006-01-27

Family

ID=35218444

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2003125926/09A RU2269155C2 (en) 2003-08-22 2003-08-22 Neuron model, realizing logical nonequivalence function

Country Status (1)

Country Link
RU (1) RU2269155C2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2597495C2 (en) * 2014-11-07 2016-09-10 Михаил Ефимович Мазуров Neuron simulation of real neuron properties
RU2597497C2 (en) * 2015-01-13 2016-09-10 Михаил Ефимович Мазуров Single-layer perceptron based on selective neurons
RU2597496C1 (en) * 2015-02-24 2016-09-10 Михаил Ефимович Мазуров Single-layer perceptron, simulating real perceptron properties
CN109035163A (en) * 2018-07-09 2018-12-18 南京信息工程大学 A kind of adaptive denoising method based on deep learning
RU2724784C2 (en) * 2018-05-18 2020-06-25 Федеральное государственное бюджетное образовательное учреждение высшего образования "Московский авиационный институт (национальный исследовательский университет)" Control method of neuroprocessor response to input signals

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Нейрокомпьютерная техника: теория и практика / Пер. с анг. Ю.А.Зуев и др. М.: Мир, 1992, 240 с. *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2597495C2 (en) * 2014-11-07 2016-09-10 Михаил Ефимович Мазуров Neuron simulation of real neuron properties
RU2597497C2 (en) * 2015-01-13 2016-09-10 Михаил Ефимович Мазуров Single-layer perceptron based on selective neurons
RU2597496C1 (en) * 2015-02-24 2016-09-10 Михаил Ефимович Мазуров Single-layer perceptron, simulating real perceptron properties
RU2724784C2 (en) * 2018-05-18 2020-06-25 Федеральное государственное бюджетное образовательное учреждение высшего образования "Московский авиационный институт (национальный исследовательский университет)" Control method of neuroprocessor response to input signals
CN109035163A (en) * 2018-07-09 2018-12-18 南京信息工程大学 A kind of adaptive denoising method based on deep learning
CN109035163B (en) * 2018-07-09 2022-02-15 南京信息工程大学 Self-adaptive image denoising method based on deep learning

Also Published As

Publication number Publication date
RU2003125926A (en) 2005-02-20

Similar Documents

Publication Publication Date Title
Poggio et al. Networks for approximation and learning
Neyshabur et al. Norm-based capacity control in neural networks
Graupe Principles of artificial neural networks: basic designs to deep learning
Davidson et al. Theory of morphological neural networks
Hwang et al. Optical multiplication and division using modified-signed-digit symbolic substitution
Yuan et al. Optimization approximation solution for regression problem based on extreme learning machine
Hecht-Nielsen Performance limits of optical, electro-optical, and electronic neurocomputers
Zhang et al. Max-plus operators applied to filter selection and model pruning in neural networks
Verstraeten et al. Reservoir computing with stochastic bitstream neurons
Li et al. A hardware/software co-design approach for face recognition
RU2269155C2 (en) Neuron model, realizing logical nonequivalence function
Kersten et al. Associative learning of scene parameters from images
Frasconi et al. Successes and failures of backpropagation: A theoretical investigation
Guest et al. Designs and devices for optical bidirectional associative memories
Brugiapaglia et al. Invariance, encodings, and generalization: learning identity effects with neural networks
Löhr et al. Complex neuron dynamics on the IBM TrueNorth neurosynaptic system
Shriver Guest Editor's Introduction: Artificial Neural Systems
Muezzinoglu et al. RBF-based neurodynamic nearest neighbor classification in real pattern space
EP0841621B1 (en) Learning method in binary systems
Solomon et al. Stability of Pareto-Zipf law in non-stationary economies
Ritter et al. Recursion and feedback in image algebra
RU2308758C1 (en) Method for realizing logical nonequivalence function by a neuron
Chen Analysis and design of the multilayer perceptron using polynomial basis functions
Krasilenko et al. Simulation of cells for signals intensity transformation in mixed image processors and activation functions of neurons in neural networks
Knudson et al. Discrete Stratified Morse Theory: A User's Guide

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20060823