RU2003124041A - NEURAL NETWORK FOR EXTENDING THE NUMBER OF DEDUCTION SYSTEM - Google Patents

NEURAL NETWORK FOR EXTENDING THE NUMBER OF DEDUCTION SYSTEM Download PDF

Info

Publication number
RU2003124041A
RU2003124041A RU2003124041/09A RU2003124041A RU2003124041A RU 2003124041 A RU2003124041 A RU 2003124041A RU 2003124041/09 A RU2003124041/09 A RU 2003124041/09A RU 2003124041 A RU2003124041 A RU 2003124041A RU 2003124041 A RU2003124041 A RU 2003124041A
Authority
RU
Russia
Prior art keywords
neural network
inputs
ring
final
output
Prior art date
Application number
RU2003124041/09A
Other languages
Russian (ru)
Other versions
RU2256226C2 (en
Inventor
ков Николай Иванович Черв (RU)
Николай Иванович Червяков
Original Assignee
Ставропольский государственный университет (RU)
Ставропольский государственный университет
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ставропольский государственный университет (RU), Ставропольский государственный университет filed Critical Ставропольский государственный университет (RU)
Priority to RU2003124041/09A priority Critical patent/RU2256226C2/en
Publication of RU2003124041A publication Critical patent/RU2003124041A/en
Application granted granted Critical
Publication of RU2256226C2 publication Critical patent/RU2256226C2/en

Links

Landscapes

  • Complex Calculations (AREA)
  • Devices For Executing Special Programs (AREA)

Claims (1)

Нейронная сеть для расширения кортежа числовой системы вычетов машинного диапазона модулярного нейрокомпьютера, содержит входной слой нейронов, входы которого являются входами нейронной сети, усеченную треугольную матрицу нейронных сетей конечного кольца по модулям системы остаточных классов, нейронной сети конечного кольца для выполнения модульного суммирования и нейронной сети для выполнения финального шага вычисления вычета по дополнительно расширяемому основанию, отличающаяся тем, что, с целью повышения скорости расширения системы вычетов, сокращения оборудования и расширения функциональных возможностей в ней выходы нейронов входного слоя разветвлены на входы нейронных сетей конечного кольца усеченной треугольной матрицы, с синаптическими весами, в виде распределенной памяти, выходы которых соединены с входами нейронных сетей конечного кольца с единичными синаптическими весами для выполнения модульного суммирования, а выход, в дополнительном коде, нейронной сети конечного кольца по расширяемому модулю соединен с входом нейронной сети финального шага, с синаптическим весом, равным обратной мультипликативной величине ортогонального базиса, представленного в обобщенной позиционной системе счисления по расширяемому основанию, выход которой является выходом нейронной сети.A neural network for expanding a tuple of the numerical residue system of a machine range of a modular neurocomputer contains an input neuron layer whose inputs are inputs of a neural network, a truncated triangular matrix of a finite ring neural network in terms of the modules of the residual class system, a finite ring neural network for modular summation, and a neural network for performing the final step of calculating the deduction on an additionally expandable base, characterized in that, in order to increase the speed of expansion of s the system of deductions, reduction of equipment and expansion of functionality in it, the outputs of the neurons of the input layer are branched into the inputs of the neural networks of the final ring of a truncated triangular matrix, with synaptic weights, in the form of distributed memory, the outputs of which are connected to the inputs of the neural networks of the final ring with single synaptic scales to perform modular summation, and the output, in an additional code, of the neural network of the final ring via an expandable module is connected to the input of the neural network of the final step, with synaptic weight equal to the inverse multiplicative value of the orthogonal basis, presented in a generalized positional number system on an expandable base, the output of which is the output of a neural network.
RU2003124041/09A 2003-07-30 2003-07-30 Neuron network for broadening tuple of numeric subtractions system RU2256226C2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2003124041/09A RU2256226C2 (en) 2003-07-30 2003-07-30 Neuron network for broadening tuple of numeric subtractions system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2003124041/09A RU2256226C2 (en) 2003-07-30 2003-07-30 Neuron network for broadening tuple of numeric subtractions system

Publications (2)

Publication Number Publication Date
RU2003124041A true RU2003124041A (en) 2005-01-27
RU2256226C2 RU2256226C2 (en) 2005-07-10

Family

ID=35138807

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2003124041/09A RU2256226C2 (en) 2003-07-30 2003-07-30 Neuron network for broadening tuple of numeric subtractions system

Country Status (1)

Country Link
RU (1) RU2256226C2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2562366C1 (en) * 2014-03-12 2015-09-10 Федеральное государственное автономное образовательное учреждение высшего профессионального образования "Северо-Кавказский федеральный университет" Apparatus for expanding modular code bases
RU2584495C1 (en) * 2015-05-14 2016-05-20 Федеральное государственное автономное образовательное учреждение высшего профессионального образования "Северо-Кавказский федеральный университет" Device for calculating factor of generalised polyadic error correction
RU2744815C1 (en) * 2020-06-22 2021-03-16 федеральное государственное автономное образовательное учреждение высшего образования "Северо-Кавказский федеральный университет" Device for transferring numbers from residue number system and base-radix extensions

Also Published As

Publication number Publication date
RU2256226C2 (en) 2005-07-10

Similar Documents

Publication Publication Date Title
Salamat et al. Rnsnet: In-memory neural network acceleration using residue number system
JP2663996B2 (en) Virtual neurocomputer architecture for neural networks
CN105830036A (en) Neural watchdog
Sirois et al. Learning, development, and nativism: Connectionist implications
CN103914711B (en) A kind of improved very fast learning device and its method for classifying modes
JP2666830B2 (en) Triangle Scalable Neural Array Processor
Bilski et al. Parallel approach to learning of the recurrent Jordan neural network
KR102396447B1 (en) Deep learning apparatus for ANN with pipeline architecture
RU2003124041A (en) NEURAL NETWORK FOR EXTENDING THE NUMBER OF DEDUCTION SYSTEM
Domingos et al. An efficient and scalable architecture for neural networks with backpropagation learning
CN116362314A (en) Integrated storage and calculation device and calculation method
US5146420A (en) Communicating adder tree system for neural array processor
Ortigosa et al. FPGA implementation of multi-layer perceptrons for speech recognition
Bohrn et al. Field programmable neural array for feed-forward neural networks
Sapounaki et al. A high-performance neuron for artificial neural network based on izhikevich model
Atibi et al. Parallel and mixed hardware implementation of artificial neuron network on the FPGA platform
Magoulas et al. A new method in neural network supervised training with imprecision
Fiesler High-order topologies
Lucas Evolving neural network learning behaviours with set-based chromosomes.
CN113554162B (en) Axon input extension method, device, equipment and storage medium
Ortigosa et al. FPGA implementation of a perceptron-like neural network for embedded applications
Tawfiq Improve Levenberg-Marquardt Training Algorithm For Feed Forward Neural Networks
Huang et al. The derivation of iterative convergence calculation for a nonlinear MIMO approximate dynamic programming approach
Wang et al. A design and implementation of reconfigurable architecture for neural networks based on systolic arrays
Bonaiuto et al. ConvNets Architecture for Complex Mixed Analogue-Digital Simulations

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20080731