RU2269155C2 - Neuron model, realizing logical nonequivalence function - Google Patents
Neuron model, realizing logical nonequivalence function Download PDFInfo
- Publication number
- RU2269155C2 RU2269155C2 RU2003125926/09A RU2003125926A RU2269155C2 RU 2269155 C2 RU2269155 C2 RU 2269155C2 RU 2003125926/09 A RU2003125926/09 A RU 2003125926/09A RU 2003125926 A RU2003125926 A RU 2003125926A RU 2269155 C2 RU2269155 C2 RU 2269155C2
- Authority
- RU
- Russia
- Prior art keywords
- neuron
- function
- output
- model
- logical
- Prior art date
Links
Images
Landscapes
- Complex Calculations (AREA)
- Devices For Executing Special Programs (AREA)
Abstract
Description
Изобретение относится к нейрокибернетике и может использоваться в качестве функциональной единицы различных искусственных нейронных сетей.The invention relates to neurocybernetics and can be used as a functional unit of various artificial neural networks.
Известна техническая и математическая модель искусственного нейрона [1-4]. Первая модель предложена в работе [1]. Позже [2], на основе таких моделей нейронов, реализованы первые искусственные нейронные сети (персептроны) для решения задач распознавания изображений букв. Подобные искусственные нейроны используются в качестве функциональной единицы всех современных искусственных нейронных сетей [3, 4] и представляют собой устройства с несколькими входами и одним выходом. Входные сигналы, поступая на входы, перемножаются с соответствующими весовыми коэффициентами, суммируются и преобразуются функцией передачи, в качестве которой может использоваться пороговая, линейная, сигмоидальная, гиперболическая и др. [3, 4]. Такая модель нейрона позволяет, хотя и достаточно грубо, воспроизводить некоторые из функций естественного нейрона. Объединяя искусственные нейроны в слои и сети, в совокупности с алгоритмами обучения, можно добиться приемлемого решения нейронной сетью сложных задач, не поддающихся адекватной формализации [3, 4].Known technical and mathematical model of an artificial neuron [1-4]. The first model was proposed in [1]. Later [2], on the basis of such neuron models, the first artificial neural networks (perceptrons) were implemented to solve letter image recognition problems. Such artificial neurons are used as a functional unit of all modern artificial neural networks [3, 4] and are devices with several inputs and one output. The input signals arriving at the inputs are multiplied with the corresponding weighting coefficients, summed and transformed by the transfer function, which can be used as a threshold, linear, sigmoidal, hyperbolic, etc. [3, 4]. Such a model of a neuron allows, although roughly enough, to reproduce some of the functions of a natural neuron. Combining artificial neurons into layers and networks, together with learning algorithms, it is possible to achieve an acceptable solution by a neural network of complex problems that cannot be adequately formalized [3, 4].
Наиболее близкой по техническому исполнению к предлагаемой модели нейрона является модель простейшего персептронного нейрона с двумя входами, парой весовых коэффициентов, сумматором и активационным блоком [3, 4]. Достоинством такой модели является возможность реализации ею большинства логических булевых функций. Так, для двух переменных, согласно [5], существует набор из 16 функций алгебры логики. Известная модель нейрона с двумя входами реализует 14 из них [4], т.е. все, за исключением логических булевых функций неравнозначности (или "суммы по модулю 2") и эквивалентности (равнозначности), которые рассмотрены, например, в [6]. Невозможность реализации двух данных логических функций является существенным недостатком такой модели нейрона и носит название проблемы ИСКЛЮЧАЮЩЕГО ИЛИ, которая впервые обнаружена в работе [7]. Данная проблема является фундаментальной в теории искусственных нейронных сетей и наглядно изложена в ряде современных научных изданий [4, 8, 9].The closest in technical execution to the proposed neuron model is the model of the simplest perceptron neuron with two inputs, a pair of weighting factors, an adder and an activation unit [3, 4]. The advantage of this model is the ability to implement most of the logical Boolean functions. So, for two variables, according to [5], there is a set of 16 functions of the algebra of logic. The well-known model of a neuron with two inputs implements 14 of them [4], ie all, with the exception of logical Boolean functions of unequality (or “
Предлагаемая модель направлена на устранение рассмотренного недостатка (проблемы нереализуемости логической функции неравнозначности) известной модели нейрона.The proposed model is aimed at eliminating the considered drawback (the problem of the unrealizability of the logical function of unequality) of the known neuron model.
Проблема нереализуемости нейроном логической функции неравнозначности заключается в следующем [4, 8, 9].The problem of the unrealizability of the logical function of unequality by a neuron is as follows [4, 8, 9].
Рассмотрим известную модель нейрона, функциональная схема которой приведена на фиг.1. Входные сигналы х1 и х2 при поступлении в блоки 1 и 2 перемножаются с соответствующими весовыми коэффициентами w1 и w2. Блоки 1 и 2 осуществляют перемножение с учетом знаковых разрядов сигналов [10]. Затем перемноженные сигналы х1w1 и х2w2 поступают на вход сумматора со знаковыми входами/выходом [10], который обозначен блоком 3 на фиг.1. С выхода сумматора сигнал s=(х1w1+х2w2) поступает на активационный блок 4 [10], в котором преобразуется пороговой функцией передачи [4, 8, 9]:Consider the well-known model of a neuron, a functional diagram of which is shown in figure 1. The input signals x 1 and x 2 upon receipt of
где Р - величина порога. Выход блока 4 является выходом модели нейрона. Требуемые выходные значения модели нейрона для реализации функции неравнозначности, в зависимости от х1 и х2, приведены в таблице 1.where P is the threshold value. The output of
Рассмотрим сумму s как функцию двух переменных (поверхность) от х1 и х2 над плоскостью входных значений Ох1x2, как показано на фиг.2 [4]. Каждая точка этой поверхности находится над соответствующей точкой плоскости Ох1x2 на расстоянии, равном значению s в этой точке. Точки, в которых значение s равно величине порога Р, устанавливаемого в блоке 4, образуют прямую на плоскости Px1х2, параллельную Ох1х2 (на фиг.2 Рх1х2 - полупрозрачным тоном; Р равно 0.5) и проектируются в некоторую разделяющую одномерную гиперплоскость (прямую) на плоскости входных значений Ох1х2. Данная разделяющая прямая на плоскости Ох1х2 приведена на фиг.3, где стрелками к углам (возможным значениям х1 и х2) указаны требуемые значения выхода нейрона для реализации логической функции неравнозначности.Consider the sum of s as a function of two variables (surface) of x 1 and x 2 over the plane of input values Ox 1 x 2 , as shown in figure 2 [4]. Each point of this surface is located above the corresponding point of the plane Ox 1 x 2 at a distance equal to the value of s at this point. Points at which the value of s is equal to the threshold value P set in
Все точки по одну сторону разделяющей прямой проецируются в значения s, большие порога, а точки по другую сторону дают меньшие значения s, т.е. пороговая прямая разбивает плоскость Ох1x2 на две области. В одной из них активность нейрона равна единице, в другой - нулю. Таким образом, невозможно провести прямую так, чтобы двухвходовым нейроном в соответствии с табл. 1 разделить нули и единицы на плоскости Ох1х2, т.е. реализовать логическую функцию неравнозначности.All points on one side of the dividing line are projected into s values greater than the threshold, and points on the other side give smaller s values, i.e. the threshold line divides the plane Ox 1 x 2 into two regions. In one of them, the activity of the neuron is unity, in the other - zero. Thus, it is impossible to draw a straight line so that a two-input neuron in accordance with table. 1 divide zeros and ones on the plane Ox 1 x 2 , i.e. implement a logical function of disambiguation.
Рассмотрим сущность предлагаемой модели нейрона, реализующей логическую функцию неравнозначности.Consider the essence of the proposed neuron model that implements the logical function of unequality.
Функциональная схема устройства приведена на фиг.4.Functional diagram of the device shown in figure 4.
Предлагаемая модель нейрона, как и известная, содержит два перемножителя (блоки 1 и 2), осуществляющих перемножение входных сигналов с весовыми коэффициентами с учетом их знаков. В модели могут использоваться любые из известных, описанных в [10] перемножителей подобного типа. Как и в известной модели, перемноженные сигналы x1w1 и x2w2 поступают на вход сумматора (блок 3) со знаковыми входами/выходом [10]. В качестве знакового сумматора могут использоваться любые устройства подобного типа, например приведенные в [10]. Предлагаемая модель отличается от модели прототипа тем, что активационный блок состоит из двух последовательно соединенных блоков, как показано на фиг.4. При этом сумма s с выхода сумматора поступает сначала на вход блока 4 (фиг.4), в котором преобразуется модульной функцией активации вида , а затем с выхода блока 4 поступает на вход блока 5, где преобразуется пороговой функцией (1). В качестве блоков 4 и 5 могут быть использованы описанные в [10] технические устройства, реализующие соответствующие математические функции. Выход блока 5 предлагаемой модели является ее выходом. Таким образом, выход модели нейрона у(х1,х2) является результатом подстановки модуля суммы s в пороговую функцию (1). Полная функция передачи модели будет выглядетьThe proposed neuron model, as well as the known one, contains two multipliers (
Математическая модель нейрона в этом случае будет описыватьсяThe mathematical model of the neuron in this case will be described
следующим выражением:the following expression:
Сумма s=(x1w1+х2w2) должна быть нулевой при равенстве значений х1 и х2, что достижимо при w1=1, w2=-1, как показано на фиг.2. В этом случае, модуль суммы (сигнал на выходе блока 4 фиг.4) как функция от двух переменных х1 и х2 будет иметь вид, в отличие от прототипа, не одной поверхности, а двух подповерхностей под некоторым углом между собой, как показано на фиг.5. Если в этом случае модуль суммы преобразовать пороговой функцией (2) в блоке 5 фиг.4, т.е. ограничить плоскостью Рх1х2, которая на фиг.5 показана полупрозрачным тоном, то пересечение поверхности модуля с плоскостью Рх1x2 образует не одну, как у прототипа, а две разделяющие прямые.The sum s = (x 1 w 1 + x 2 w 2 ) should be zero if the values of x 1 and x 2 are equal, which is achievable with w 1 = 1, w 2 = -1, as shown in figure 2. In this case, the modulus of the sum (the signal at the output of
Математически уравнение разделяющей прямой из выражения (3) будет выглядеть , откуда, в соответствии со свойством модуля, образуются два уравнения разделяющих прямыхMathematically, the equation of the dividing line from expression (3) will look , where, in accordance with the module property, two equations of dividing lines are formed
где х1 (1) - первая прямая; х1 (2) - вторая прямая, т.е. две проекции пересечения поверхности s с плоскостью Рх1х2, полученные на плоскости Ох1x2, которые и разделяют ее на три области так, как показано на фиг.6.where x 1 (1) is the first line; x 1 (2) is the second straight line, i.e. two projections of the intersection of the surface s with the plane Px 1 x 2 , obtained on the plane Ox 1 x 2 , which divide it into three areas as shown in Fig.6.
Полный вид зависимости выхода нейрона у(х1,х2) как функции двух переменных от х1 и х2 в рассматриваемом случае, показан на фиг.7.A full view of the dependence of the neuron output y (x 1 , x 2 ) as a function of two variables as x 1 and x 2 in the case under consideration is shown in Fig. 7.
На фиг.2, 3, 5-7 размерности всех координатных осей приведены в сотых.In figure 2, 3, 5-7 the dimensions of all coordinate axes are given in hundredths.
Из фиг.5-7 видно, что при x1=х2 (или х1≈x2) нейрон на выходе будет давать нуль, а при х1≠х2 - единицу. Таким образом, отделяя нулевые входные значения от единичных на плоскости Ox1x2 в отличие от прототипа не одной, а двумя прямыми, нейроном реализуется логическая функция неравнозначности.Figure 5-7 shows that for x 1 = x 2 (or x 1 ≈ x 2 ), the output neuron will give zero, and for x 1 ≠ x 2 it will give one. Thus, separating the zero input values from the unit values on the Ox 1 x 2 plane, unlike the prototype, not one, but two straight lines, the neuron implements a logical function of unequality.
Для подтверждения возможности осуществления заявленного изобретения рассмотрим работу предлагаемой модели нейрона.To confirm the feasibility of the claimed invention, we consider the operation of the proposed neuron model.
Весовые коэффициенты имеют постоянные значения во всех случаях: w1=1, w2=-1. Величину порога примем равной, например, 0,5. Результат подстановки модульной функции в пороговую будет выглядеть аналогично (2):Weighting factors have constant values in all cases: w 1 = 1, w 2 = -1. The threshold value is taken equal to, for example, 0.5. The result of substituting a modular function into a threshold will look similar to (2):
Так как математическая модель нейрона имеет видSince the mathematical model of a neuron has the form
то при подаче на его входы х1 и х2 сигналов, равных нулю, сумма (выход блока 3 фиг.4) будет равна нулю. Преобразуясь модульной функцией активации в блоке 4, сигнал на его выходе будет также нулевым, как и после блока 5 на выходе у(х1, х2) нейрона. При поступлении на входы x1=1, х2=0 сумма будет равна единице; модуль (выход блока 4) - также единице, что превысит порог Р=0.5 в блоке 5 и на выходе нейрона будет единица. При входной комбинации х1=0, х2=1 сумма будет равна минус единице; модуль - единице, что также превысит порог Р=0.5 в блоке 5 и даст единицу на выходе нейрона. В случае х1=1, x2=1, сумма станет нулевой; модуль суммы будет также равен нулю, что даст на выходе нейрона нуль.then when applying to its inputs x 1 and x 2 signals equal to zero, the sum (output of
Таким образом, предлагаемой моделью нейрона, в соответствии с таблицей 1, реализуется логическая функция неравнозначности.Thus, the proposed neuron model, in accordance with table 1, implements the logical function of unequality.
Входные сигналы нейрона х1 и х2 могут быть не только дискретными, но и непрерывными (от нуля до единицы), так как поверхность модуля суммы s, показанная на фиг.5, существует для всех непрерывных х1 и х2.The input signals of the neuron x 1 and x 2 can be not only discrete, but also continuous (from zero to unity), since the surface of the modulus of the sum s, shown in Fig. 5, exists for all continuous x 1 and x 2 .
Таким образом, предлагаемая модель нейрона, реализуя логическую функцию неравнозначности, преодолевает проблему ИСКЛЮЧАЮЩЕЕ ИЛИ.Thus, the proposed neuron model, realizing the logical function of unequality, overcomes the EXCLUSIVE OR problem.
Источники информацииInformation sources
1. McCulloch W.S., Pitts W. A logical calculus of the ideas imminent in nervous activity. // Bulletin of Mathematical Biophysics, vol.5, 1943, pp.115-133. (Рус. перевод: Маккаллок У.С., Питтс У. Логическое исчисление идей, относящихся к нервной деятельности. Автоматы. / Под ред. К.Э.Шеннона, Дж.Маккарти. - М.: ИЛ, 1956).1. McCulloch W.S., Pitts W. A logical calculus of the ideas imminent in nervous activity. // Bulletin of Mathematical Biophysics, vol. 5, 1943, pp. 115-133. (Russian translation: McCullock, W.S., Pitts, W., The Logical Calculus of Ideas Related to Nervous Activity. Automata. / Ed. By K.E. Shannon, J. McCarthy. - M.: IL, 1956).
2. Rosenblatt F. Principles of neurodinamics. Perceptrons and the theory of brain mechanisms. Spartan Books, Washington, 1962. (Рус. перевод: Розенблатт Ф. Принципы нейродинамики. Перцептроны и теория механизмов мозга. / Под ред. С.М.Осовца. - М: Мир, 1965 - 480 с.).2. Rosenblatt F. Principles of neurodinamics. Perceptrons and the theory of brain mechanisms. Spartan Books, Washington, 1962. (Russian translation: Rosenblatt F. Principles of neurodynamics. Perceptrons and theory of brain mechanisms. / Under the editorship of S.M. Osovets. - M: Mir, 1965 - 480 p.).
3. Галушкин А.И. Теория нейронных сетей. Кн.1: Учеб. пособие для вузов / Общая ред. А.И.Галушкина. - М.: ИПРЖР, 2000. - 416 с.3. Galushkin A.I. Theory of neural networks. Book 1: Textbook. manual for universities / General ed. A.I. Galushkina. - M .: IPRZhR, 2000 .-- 416 p.
4. Wasserman P. Neurocomputing. Theory and practice, Nostram Reinhold, 1990. (Рус. перевод: Уоссермен Ф. Нейрокомпьютерная техника: теория и практика. / Пер. с англ. Ю.А. уев, В.А.Точенов. - М.: Мир, 1992. - 240 с.).4. Wasserman P. Neurocomputing. Theory and practice, Nostram Reinhold, 1990. (Russian translation: Wassermen F. Neurocomputer technology: theory and practice. / Transl. - 240 p.).
5. Куринной Г.Ч. Математика: Справочник. - Харьков: Фолио; Ростов н/Д: Феникс, 1997. - 463 с.5. Kurinnoy G.Ch. Mathematics: Reference. - Kharkov: Folio; Rostov n / a: Phoenix, 1997 .-- 463 p.
6. Залманзон Л.А. Беседы об автоматике и кибернетике. -М.: Наука. Гл. ред. физ.-мат. лит., 1981. - 416 с.6. Zalmanzon L.A. Conversations about automation and cybernetics. -M .: Science. Ch. ed. Phys.-Math. lit., 1981. - 416 p.
7. Minsky М., Papert S. Perceptrons. An introduction to computational geometry, MIT Press, 1969. (Рус.перевод: Минский М., Пейперт С. Персептроны. / Под ред. В.А.Ковалевского. - М.: Мир, 1971. - 261 с.).7. Minsky M., Papert S. Perceptrons. An introduction to computational geometry, MIT Press, 1969. (Russian translation: Minsky M., Peypert S. Perceptrons. / Ed. By V.A. Kovalevsky. - M .: Mir, 1971. - 261 p.).
8. Круглов В.В., Борисов В.В. Искусственные нейронные сети. Теория и практика. - М.: Горячая линия - Телеком, 2001. - 382 с.8. Kruglov VV, Borisov VV Artificial neural networks. Theory and practice. - M .: Hot line - Telecom, 2001 .-- 382 p.
9. Дьяконов В., Круглов В. Математические пакеты расширения MATLAB. Специальный справочник. - СПб.: Питер, 2001. - 480 с.9. Dyakonov V., Kruglov V. Mathematical extension packages MATLAB. Special reference. - St. Petersburg: Peter, 2001 .-- 480 p.
10. Галушкин А.И. Нейрокомпьютеры. Кн.3: Учеб. пособие для вузов / Общая ред. А.И.Галушкина. - М.: ИПРЖР, 2000. - 528 с.10. Galushkin A.I. Neurocomputers. Book 3: Textbook. manual for universities / General ed. A.I. Galushkina. - M .: IPRZhR, 2000 .-- 528 s.
Claims (1)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2003125926/09A RU2269155C2 (en) | 2003-08-22 | 2003-08-22 | Neuron model, realizing logical nonequivalence function |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2003125926/09A RU2269155C2 (en) | 2003-08-22 | 2003-08-22 | Neuron model, realizing logical nonequivalence function |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2003125926A RU2003125926A (en) | 2005-02-20 |
RU2269155C2 true RU2269155C2 (en) | 2006-01-27 |
Family
ID=35218444
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2003125926/09A RU2269155C2 (en) | 2003-08-22 | 2003-08-22 | Neuron model, realizing logical nonequivalence function |
Country Status (1)
Country | Link |
---|---|
RU (1) | RU2269155C2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2597495C2 (en) * | 2014-11-07 | 2016-09-10 | Михаил Ефимович Мазуров | Neuron simulation of real neuron properties |
RU2597497C2 (en) * | 2015-01-13 | 2016-09-10 | Михаил Ефимович Мазуров | Single-layer perceptron based on selective neurons |
RU2597496C1 (en) * | 2015-02-24 | 2016-09-10 | Михаил Ефимович Мазуров | Single-layer perceptron, simulating real perceptron properties |
CN109035163A (en) * | 2018-07-09 | 2018-12-18 | 南京信息工程大学 | A kind of adaptive denoising method based on deep learning |
RU2724784C2 (en) * | 2018-05-18 | 2020-06-25 | Федеральное государственное бюджетное образовательное учреждение высшего образования "Московский авиационный институт (национальный исследовательский университет)" | Control method of neuroprocessor response to input signals |
-
2003
- 2003-08-22 RU RU2003125926/09A patent/RU2269155C2/en not_active IP Right Cessation
Non-Patent Citations (1)
Title |
---|
Нейрокомпьютерная техника: теория и практика / Пер. с анг. Ю.А.Зуев и др. М.: Мир, 1992, 240 с. * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2597495C2 (en) * | 2014-11-07 | 2016-09-10 | Михаил Ефимович Мазуров | Neuron simulation of real neuron properties |
RU2597497C2 (en) * | 2015-01-13 | 2016-09-10 | Михаил Ефимович Мазуров | Single-layer perceptron based on selective neurons |
RU2597496C1 (en) * | 2015-02-24 | 2016-09-10 | Михаил Ефимович Мазуров | Single-layer perceptron, simulating real perceptron properties |
RU2724784C2 (en) * | 2018-05-18 | 2020-06-25 | Федеральное государственное бюджетное образовательное учреждение высшего образования "Московский авиационный институт (национальный исследовательский университет)" | Control method of neuroprocessor response to input signals |
CN109035163A (en) * | 2018-07-09 | 2018-12-18 | 南京信息工程大学 | A kind of adaptive denoising method based on deep learning |
CN109035163B (en) * | 2018-07-09 | 2022-02-15 | 南京信息工程大学 | Self-adaptive image denoising method based on deep learning |
Also Published As
Publication number | Publication date |
---|---|
RU2003125926A (en) | 2005-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Poggio et al. | Networks for approximation and learning | |
Neyshabur et al. | Norm-based capacity control in neural networks | |
Graupe | Principles of artificial neural networks: basic designs to deep learning | |
Davidson et al. | Theory of morphological neural networks | |
Hwang et al. | Optical multiplication and division using modified-signed-digit symbolic substitution | |
Yuan et al. | Optimization approximation solution for regression problem based on extreme learning machine | |
Hecht-Nielsen | Performance limits of optical, electro-optical, and electronic neurocomputers | |
Zhang et al. | Max-plus operators applied to filter selection and model pruning in neural networks | |
Verstraeten et al. | Reservoir computing with stochastic bitstream neurons | |
Li et al. | A hardware/software co-design approach for face recognition | |
RU2269155C2 (en) | Neuron model, realizing logical nonequivalence function | |
Kersten et al. | Associative learning of scene parameters from images | |
Frasconi et al. | Successes and failures of backpropagation: A theoretical investigation | |
Guest et al. | Designs and devices for optical bidirectional associative memories | |
Brugiapaglia et al. | Invariance, encodings, and generalization: learning identity effects with neural networks | |
Löhr et al. | Complex neuron dynamics on the IBM TrueNorth neurosynaptic system | |
Shriver | Guest Editor's Introduction: Artificial Neural Systems | |
Muezzinoglu et al. | RBF-based neurodynamic nearest neighbor classification in real pattern space | |
EP0841621B1 (en) | Learning method in binary systems | |
Solomon et al. | Stability of Pareto-Zipf law in non-stationary economies | |
Ritter et al. | Recursion and feedback in image algebra | |
RU2308758C1 (en) | Method for realizing logical nonequivalence function by a neuron | |
Chen | Analysis and design of the multilayer perceptron using polynomial basis functions | |
Krasilenko et al. | Simulation of cells for signals intensity transformation in mixed image processors and activation functions of neurons in neural networks | |
Knudson et al. | Discrete Stratified Morse Theory: A User's Guide |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM4A | The patent is invalid due to non-payment of fees |
Effective date: 20060823 |