JPH04505678A - Parallel distributed processing network featuring information storage matrix - Google Patents

Parallel distributed processing network featuring information storage matrix

Info

Publication number
JPH04505678A
JPH04505678A JP2508502A JP50850290A JPH04505678A JP H04505678 A JPH04505678 A JP H04505678A JP 2508502 A JP2508502 A JP 2508502A JP 50850290 A JP50850290 A JP 50850290A JP H04505678 A JPH04505678 A JP H04505678A
Authority
JP
Japan
Prior art keywords
matrix
distributed processing
processing network
parallel distributed
information storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2508502A
Other languages
Japanese (ja)
Inventor
サマージャ,ニコラ
Original Assignee
イー・アイ・デュポン・ドゥ・ヌムール・アンド・カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by イー・アイ・デュポン・ドゥ・ヌムール・アンド・カンパニー filed Critical イー・アイ・デュポン・ドゥ・ヌムール・アンド・カンパニー
Publication of JPH04505678A publication Critical patent/JPH04505678A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Complex Calculations (AREA)
  • Multi Processors (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるため要約のデータは記録されません。 (57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 情報記憶マトリックスを特徴とした 並列分散処理ネットワーク 発明の分野 本発明は、接続の重みが次の行列式を満足する[NXN]情報記憶マトリックス [A]によって定義されることを特徴とした並列分散処理ネットワークに関する 。[Detailed description of the invention] Features an information storage matrix parallel distributed processing network field of invention The present invention provides an [NXN] information storage matrix in which connection weights satisfy the following determinant: Regarding a parallel distributed processing network characterized by being defined by [A] .

[A] [TI = [TI [Δ] (1)ただし、[Δ]はその要素がマト リックス[A]の固有値になっている[N X N]対角行列であり、[TIは その列がある所定数Mの目標ベクトル(ただし、M<=N)から形成され、残り の列がある所定数Qのスラック・ベクトル(ただし、Q=N−M)から形成され た[NXN]類似変形行列であり、その両方が一緒になって、[A]の固有値を 構成している。[A] [TI = [TI [Δ] (1) However, [Δ] means that the element is [TI is a diagonal matrix [N The column is formed from a certain number M of target vectors (where M<=N), and the remaining is formed from a predetermined number Q slack vectors (where Q = N-M) with columns of [N It consists of

発明の背景 並列分散処理ネットワーク(広く「ヌーロン・ネットワーク」とも呼ばれている )は、複雑な問題を広範囲にわたってアナログ方式で解決するのに有用であるこ とは知られている。これらのネットワークは、複数の線形増幅器と非線形増幅器 を備えた一種の高度並列計算回路であり、各増幅器の出力を一部またはすべての 増幅器の入力に接続するネットワークにおいて入出力関係を定義した伝達関数を もっている。この種のネットワークはハードウェア(ディスクリート部品または 集積回路の形体で)に実装されているか、あるいは従来のフォンノイマン型ディ ジタル・コンビ二一夕を使用したシミュレーシゴンによって実現されている。Background of the invention Parallel distributed processing network (also widely called ``Nuron network'') ) has proven to be useful in solving a wide range of complex problems in an analog manner. is known. These networks consist of multiple linear and nonlinear amplifiers is a type of highly parallel computing circuit with The transfer function that defines the input-output relationship in the network connected to the input of the amplifier is I have it. This type of network consists of hardware (discrete components or integrated circuits) or traditional von Neumann-type devices. This is realized by a simulation using a digital combination computer.

ある種の問題の場合には、この種のネットワークが従来のフォンノイマン型ディ ジタル・コンビ二一夕よりも適している考えられている。並列分散処理ネットワ ークが使用されている種類の問題の例として、連想メモリ、分類アプリケーショ ン、特徴抽出、パターン認識、論理回路実現などがある。これらのアプリケーシ ョンは、プロセス制御、信号やデータ処理を目的としたシステムによく見られる ものである。例えば、本出願の発明者が1989年2月28日(ED−0373 )に出願した係属中の米国特許出願(第07/316,717号、本出願にかか る発明の被譲渡人に譲渡済)は、学習並列分散処理ネットワークを使用してプロ セスを制御する装置と方法を開示している。For certain problems, this type of network can Digital combinations are considered more suitable than Niichiyo. parallel distributed processing network Examples of the kinds of problems where networks are used include associative memory, classification applications, and so on. These include processing, feature extraction, pattern recognition, and logic circuit implementation. These applications are commonly found in systems intended for process control, signal and data processing. It is something. For example, if the inventor of this application ), pending U.S. patent application no. 07/316,717, (Assigned to the Assignee of the Invention) is being developed using a learning parallel distributed processing network. Discloses an apparatus and method for controlling a process.

上に挙げた分野における問題を解決するために従来から使用されている並列分散 処理ネットワークの例としては、多種類のものが知られている。よく使用されて いる並列分散処理ネットワーク設計思想としては、ホップフィールド(Hopf ield)アルゴリズム(J、J、Hopfield、「応答がグレード化され たヌーロンは2状態ヌーロンのそれと似た集合計算特性をもっているJ Pro ceeclingNational Academy ofScience、U SA Vol、81.pages3088−3092.May 1984゜Bi ophysics)と背面伝播アルゴリズム(例えば、Rumelhart、H inton、andWilliams著「誤差伝播による内部表現の学習J、P arallel DistributedProcessing Explor ationsin the Microstructure ofCognit ion Volume I。Parallel distribution is traditionally used to solve problems in the areas listed above. Many types of processing networks are known. commonly used Hopffield's design philosophy for parallel distributed processing networks is ield) algorithm (J, J. Hopfield, ``Response graded The neuron has set computational properties similar to those of the two-state neuron. ceeclingNational Academy of Science, U SA Vol, 81. pages3088-3092. May 1984゜Bi physics) and backpropagation algorithms (e.g. Rumelhart, H. inton, and Williams, “Learning internal representations by error propagation, J.P. Arallel Distributed Processing Explorer ations in the Microstructure of Cognit ion Volume I.

Foundations、Rumelhartand McClelland  editors。Foundations, Rumelhart and McClelland editors.

MIT Press、Cambridge。MIT Press, Cambridge.

Massachusetts (1986))によって説明されている2つがあ る。Massachusetts (1986)). Ru.

並列分散処理ネットワークを、区域(basin)で囲まれた1つまたは2つ以 上の局所化エネルギ最小点または平衡点からなるトポロジ形状のN次元ベクトル 空間で表して概念化し、未知の入力が与えられたとき、ネットワーク動作がエネ ルギ最小点または平衡点に集中するようにすると、好都合であることは知られて いる。さらに、行列数学は他の分野におけるn次元ベクトルの特性を正確に予測 することがすでに実証されているので、この種の並列分散処理ネットワークを特 徴づけたり、従来の行列手法を用いてその挙動を分析したりすると、好都合であ ることも知られている。A parallel distributed processing network is divided into one or more areas surrounded by a basin. N-dimensional vector of topology shape consisting of localized energy minimum points or equilibrium points on It can be conceptualized as a spatial representation, and when unknown inputs are given, network behavior is energy efficient. It is known that it is advantageous to concentrate on the minimum point or equilibrium point. There is. Furthermore, matrix mathematics accurately predicts the properties of n-dimensional vectors in other fields. Since it has already been demonstrated that It is advantageous to characterize it and analyze its behavior using traditional matrix techniques. It is also known that

ホップフィールドと背面伝播ネットワークはどちらも、以下に説明する原理を共 用するアルゴリズムを使用する設計になっている。(1)必要とする出力量(所 望出力ベクトル、または目標ベクトルとも呼ばれる)に基づいて、ネットワーク 動作は、ある(または任意の)入力コード(入力ベクトル)が与えられたとき、 ネットワークから目標ベクトルの1つを出力するようになっている。(2)ネッ トワークは線形的な演算子(A)(これは一定の係数からなる行列である)とV (、)で表された非線形的なしきい値設定装置によって特徴づけることができる 0行列(A)の係数は、ネットワーク内の増幅器間の接続重みを決定し、ν(、 )は各増幅器の入力側と出力側のシナプス作用を表している。 この種の並列分 散処理ネットワークを設計する際の基本的な問題は、ある(または任意の)入力 ベクトルX Inが与えられたとき、[A]とV(、)からある所望の出力X0 が得られるような線形的演算子(A)を見つけることである。すなわち、 [A] X、、l−>X、 (2) 上式において、ν(、)による演算は暗黙に想定されている。Both Hopfield and backpropagation networks share the principles described below. It is designed to use the same algorithm. (1) Required output amount (location) the desired output vector (also called the goal vector) The behavior is that given some (or any) input code (input vector), The network outputs one of the target vectors. (2) Net The network is a linear operator (A) (which is a matrix of constant coefficients) and V can be characterized by a nonlinear thresholding device denoted by (,) The coefficients of the 0 matrix (A) determine the connection weights between amplifiers in the network, ν(, ) represents the synaptic action on the input and output sides of each amplifier. This kind of parallelism A fundamental problem in designing distributed processing networks is that some (or any) input When the vector X In is given, a certain desired output X0 from [A] and V(,) The goal is to find a linear operator (A) that yields . That is, [A] X, , l->X, (2) In the above equation, the operation using ν(,) is implicitly assumed.

ホップフィールドと背面伝播モデルは、い(つかの異なる手法を用いて行列演算 子[A]をめている。Hopfield and backpropagation models perform matrix operations using several different techniques. I am pregnant with my child [A].

ホップフィールド・アルゴリズムでは、演算子[A1は、基本的に、所望出力ベ クトルまたは目標ベクトルに対して外積の演算によって得られた行列の和をとる ことによって得られる。つまり、Xol、X、、21.、、Xonが所望目標ベ クトルならば、次のようになる。In the Hopfield algorithm, the operator [A1 basically represents the desired output vector. calculate the sum of the matrices obtained by the cross product operation for the vector or target vector obtained by That is, Xol,X,,21. ,,Xon reaches the desired target base. If it is a vector, it will be as follows.

A=X−1X”−+ X−*Xtat +、 、 、 +X、rlXt−7ただ し、X t61はX 01の配置行列であり、X alX ”61は1=11− 0.+ nのときの外積を表している。この場合、演算子[A]は対角線上にゼ ロを置くことによって変更される。このような行列演算子[A]が作られると、 入力ベクトルX−のとき、繰返しプロシージャを用いて、所望出力を得ることが できる。すなわち、 [A]XII、=x1 [A] X、=X! (4) 上式の場合も、ν(、)による演算は暗黙に想定されている。A=X-1X”-+ X-*Xtat +, , , +X, rlXt-7 Then, Xt61 is the arrangement matrix of X01, and XalX”61 is 1=11− 0. + represents the cross product when n. In this case, operator [A] is Changed by placing . When such a matrix operator [A] is created, Given an input vector X-, we can use an iterative procedure to obtain the desired output. can. That is, [A]XII, =x1 [A] X, =X! (4) In the case of the above equation as well, the operation using ν(,) is implicitly assumed.

残念ながら、このアルゴリズムは、所望目標ベクトルでない結果に収束する可能 性があり、これはこのアルゴリズムがそのように作られているためである。さら に、このアルゴリズムのもう1つの制約は、ネットワークが与えられた入力の連 想メモリとして挙動するとき、ネットワークが安定状態に収束するのは、その入 力が安定状態に近接(ハミング距離が)しているときだけである。これは、ホッ プフィールド・ネットワークの重大な制約の1つである。さらに、結果が収束す る速度とその方法に対する制御が非常に劣っている。これは、行列の中の係数( 並列分散処理ネットワーク内の増幅器間の接続重み)が、出力ベクトルと外積演 算によって「固定的に」判断されるためである。つまり、[A]を柔軟に再構築 できないためである。特に(外積演算を行うと、[A]が常に左右対称になるこ とである。Unfortunately, this algorithm can converge to a result that is not the desired target vector. This is because this algorithm is designed that way. Sara Another limitation of this algorithm is that the network is When the network behaves as a virtual memory, convergence to a stable state depends on its input. Only when the force is close to the steady state (Hamming distance). This is a relief. This is one of the important limitations of the Pfield network. Furthermore, the results converge There is very little control over how quickly and how it is done. This means that the coefficients in the matrix ( The connection weights between amplifiers in a parallel distributed processing network are This is because it is determined "fixed" by calculation. In other words, flexibly reconstruct [A] This is because it cannot be done. In particular, (when performing a cross product operation, [A] always becomes symmetrical). That is.

米国特許第4.660,166号 (Hopfield)に開示されている連想メモリ・ネットワークは、相互接続 方式を採用して、各増幅器出力を、その増幅器を除く他のすべての増幅器の入力 に接続している。上記特許に開示されているホップフィールドのネットワークで は、接続重みを特徴づける接続行列は左右対称であることが必要であり、対角線 上の要素をゼロに等しくする必要がある。(上に引用したホップフィールド論文 の図2には、ある増幅器が逆流してその入力に接続されているが、これは間違い であると思われる。上記特許の図2は、ホップフィールドの相互接続方式を正し く表していると思われる。) ホップフィールドのネットワークはさまざまなアプリケーションの基礎となって いる0例えば、米国特許第4,719,591号(HopfieldとTank )では、信号を成分信号に分解するという問題にネットワークが応用されている 。米国特許第4.731,747号と第4,737,929号(共にDenke r)は、ホップフィールドのネットワークを改善するために、収束速度を制御す るように増幅器の時定数を調節し、単一出力をもつ負利得増幅器を使用し、少な いリード線でネットワークの構築を可能にするように2つの値だけをもつクリッ プした接続行列を使用している。U.S. Patent No. 4.660,166 (Hopfield), the associative memory network is an interconnected The output of each amplifier is connected to the inputs of all other amplifiers except that one. is connected to. In the Hopfield network disclosed in the above patent, requires that the connection matrix characterizing the connection weights be symmetrical, and the diagonal We need the elements above to be equal to zero. (Hopfield paper cited above In Figure 2, an amplifier is connected to its input with reverse current, which is incorrect. It seems to be. Figure 2 of the above patent corrects Hopfield's interconnection scheme. This seems to be a good representation. ) Hopfield's network is the basis for a variety of applications. For example, U.S. Pat. No. 4,719,591 (Hopfield and Tank ), networks are applied to the problem of decomposing signals into component signals. . U.S. Patent Nos. 4,731,747 and 4,737,929 (both Denke r) to control the convergence speed to improve the Hopfield network. Adjust the amplifier time constant so that the Clicks with only two values allow the construction of networks with narrow leads. The connection matrix that was created is used.

米国特許第4,752,906号 (Kleinfeld)は、入力相互接続ネットワーりにフィードバックされる 遅延要素を出力なかで使用することによって、一時的連想を行うことのできない ホップフィールドのネットワークの欠点を解消している。米国特許第4,755 ,963号(Denker、Howard、およびJackel)は、ホップフ ィールドのネットワークで解決可能な問題の範囲をさらに拡張している。U.S. Patent No. 4,752,906 (Kleinfeld) is fed back into the input interconnection network. Temporary associations cannot be made by using delayed elements in the output. It eliminates the shortcomings of Hopfield's network. U.S. Patent No. 4,755 , No. 963 (Denker, Howard, and Jackel) We are further expanding the range of problems that can be solved with field networks.

背面伝播ネットワーク・アルゴリズムでは、多層フィードフォワード・ネットワ ークが構築され、このネットワークは性能基準を使用して、Aを評価している( Aの中の係数を調整して出力誤差を最小化している)、この手法からは良好な結 果が得られるが、これは計算集中手法である。このことは、収束学習に時間がか かることを意味する。背面伝播ネットワークでは、記憶すべき情報の学習に非常 に時間を要する。この学習時間を短縮するために、多数の手法が開発されている 。例えば、本願発明者が出願した係属中の米国特許出順環07/285.34号 (1988年12月16日出願(ED−9367))では、非線形微分方程式を 用いて、背面伝播ネットワークの学習を行っている。The backpropagation network algorithm uses a multilayer feedforward network. A network is constructed and this network evaluates A using performance criteria ( The coefficients in A are adjusted to minimize the output error), and this method yields good results. However, this is a computationally intensive method. This means that convergent learning takes time. means to earn money. Backpropagation networks are extremely difficult to learn information to be memorized. It takes time. Many techniques have been developed to reduce this learning time. . For example, pending U.S. patent application Ser. No. 07/285.34 filed by the present inventor (filed on December 16, 1988 (ED-9367)) describes a nonlinear differential equation. We are using this to train backpropagation networks.

発明の概要 本発明は、単一の層に接続された複数の増幅器、っまり、ノードからなり、各増 幅器は入力とaカをもっている並列分散処理ネットワークに関する。これらのノ ードの各々の出力は、所定の接続重みをもつそれぞれのラインによって、ネット ワーク内の他のノードの一部または全部の入力(フィードバックされる自身の入 力も含む)に接続されている。接続重みは、「情報記憶マトリックス」と呼ばれ る[N X Nlマトリックス[A]によって定義される。このマトリックスで は、情報記憶マトリックスA、Jの要素が5番目の入力ノードと1番目の出力ノ ード間の接続重みになっている。Summary of the invention The present invention consists of multiple amplifiers, or nodes, connected in a single layer, each amplifier A spreader relates to a parallel distributed processing network that has an input and a power. These The output of each node is connected to the net by each line with a predetermined connection weight. Some or all of the inputs of other nodes in the work (including their own inputs that are fed back) (including power). The connection weights are called the "information storage matrix" is defined by the [N X Nl matrix [A]. in this matrix The elements of the information storage matrices A and J are the fifth input node and the first output node. connection weight between the nodes.

本発明によれば、情報記憶マトリックス[A]は、次の行列式を満足している。According to the present invention, the information storage matrix [A] satisfies the following determinant.

[A] [:T] = [T] [Δ] (1)マトリックス[A]は[NXN ]マトリックスであり、これは類似変形マトリックスと呼ばれ、その列は所定数 (M)の[NXl]Xlへクトルに、所定数(Q)の[NX1]不定または「ス ラック」ベクトルを加えたものから形成されている。各目標ベクトルは並列分散 処理ネットワークの出力の1つを表している0Mの値は<=NおよびQ= (N −M)をとることができる。好ましくは、類似変形マトリックスの中のベクトル の各々は、そのマトリックス内の他のすべてのベクトルから線形的に独立してい る。類似変形マトリックス内の各ベクトルは、そのマトリックス内の他のすべて のベクトルに直交している場合と、直交していない場合とがある。[A] [:T] = [T] [Δ] (1) Matrix [A] is [NXN ] matrix, which is called a similarity deformation matrix, whose columns are a predetermined number of columns. In the [NXl]Xl hector of (M), a predetermined number (Q) of [NX1] undefined or rack vector. Each target vector is parallel distributed The value of 0M representing one of the outputs of the processing network is <=N and Q=(N -M) can be taken. Preferably, a vector in a similar deformation matrix each is linearly independent from all other vectors in that matrix. Ru. Each vector in a similar deformation matrix is There are cases where it is orthogonal to the vector of , and cases where it is not orthogonal to the vector.

マトリックス[T]が単数でなく、マトリックス[T]−’が存在する場合は、 情報記憶マトリックス[A]はマトリックス積と定義される。If matrix [T] is not singular and matrix [T]-' exists, The information storage matrix [A] is defined as a matrix product.

[A] = [T] [A] [T] −’ (5)マトリックス[A]は[N XN]対角行列であり、対角線上の各要素は目標またはスラック・ベクトルの所 定の1つに対応している。[A]マトリックスの対角線上の各要素の相対値は、 並列分散処理ネットワークの出力が対応する目標ベクトルに向かって収束する速 度に対応している。一般的に、目標ベクトルに対応する対角行列の要素の値は、 スラック・ベクトルに対応する対角行列の要素の値よりも大きいことが好ましい 。具体的には、目標ベクトルに対応する対角行列の要素は、1より大きい絶対値 をもつのに対し、スラック・ベクトルに対応する対角行列の要素はlより小さい 絶対値をもっている。[A] = [T] [A] [T] -’ (5) Matrix [A] is [N XN] is a diagonal matrix, where each element on the diagonal represents the location of the target or slack vector. corresponds to one of the [A] The relative value of each element on the diagonal of the matrix is The speed at which the output of a parallel distributed processing network converges toward the corresponding target vector It corresponds to the degree. Generally, the value of the element of the diagonal matrix corresponding to the target vector is preferably larger than the value of the element of the diagonal matrix corresponding to the slack vector . Specifically, the elements of the diagonal matrix corresponding to the target vector have an absolute value greater than 1. , whereas the elements of the diagonal matrix corresponding to the slack vector are smaller than l It has an absolute value.

本発明によるネットワークは、上述した従来ネットワークに対していくつかの利 点をもっている。The network according to the present invention has several advantages over the conventional network described above. have points.

情報記憶マトリックス[A]はより一般化されている。つまり、左右対称にする 必要がなく、また近似的に左右対称にする必要もない。また、対角線上の要素を 、ホップフィールド・ネットワークのようにゼロに等しくする必要もない。この ことは、ハードウェアによる実現も、より一般化していることを意味する。情報 記憶マトリックスの認識に基づく挙動は、従来技術よりも理解がしやすくなって いる。ある入力ベクトルがネットワークに与えられ、ネットワークが所望のまた は目標のベクトルでない解に収束したときは、認識に基づく解まで到達しており 、これは、一般的には、目標ベクトルを線形的に組み合わせたものである。Information storage matrix [A] is more generalized. In other words, make it symmetrical There is no need, and there is no need to make it approximately symmetrical. Also, the elements on the diagonal are , does not need to be equal to zero as in the Hopfield network. this This means that hardware implementation is also becoming more common. information The recognition-based behavior of the memory matrix is easier to understand than previous techniques. There is. An input vector is given to the network, and the network When converges to a solution that is not the target vector, it means that the solution based on recognition has been reached. , which is generally a linear combination of target vectors.

類似変形マトリックスの形成に不定ベクトルを含めると、目標ベクトルの区域を 柔軟性をもって作り上げることができる。このようなスラック・ベクトルはホッ プフィールドのネットワークには存在していない。Including an indeterminate vector in the formation of a similar deformation matrix reduces the area of the target vector. It can be created with flexibility. Such a slack vector is It does not exist in Pfield's network.

情報記憶マトリックスを形成するとき、行列[ΔJを要因の1つとして含めるこ とは、ホップフィールドのネットワークには見られない特徴である。ある目標の 解に収束する速度は、[A1行列の値を選択することで制御可能である。When forming the information storage matrix, the matrix [ΔJ can be included as one of the factors. This is a feature not found in Hopfield's network. of a certain goal The speed of convergence to a solution can be controlled by selecting the values of the [A1 matrix.

以上のほかに、情報記憶マトリックスの構成要素の計算は、背面伝播アルゴリズ ムを用いた接続行列よりも、高速化され、計算効率が向上している。これは、背 面伝播アルゴリズムが概念化されたデルタ・ルールを採用して、接続行列をめて いるためである。しかし、このルールは、情報記憶マトリックスで使用されてい る数値手法よりも、少なくとも数倍も計算集中型である。In addition to the above, the calculation of the components of the information storage matrix is performed using the back propagation algorithm. It is faster and more computationally efficient than a connection matrix using a system. This is the back The surface propagation algorithm adopts the conceptualized delta rule to construct the connectivity matrix. This is because there is. However, this rule is not used in the information storage matrix. It is at least several times more computationally intensive than numerical methods.

図面の簡単な説明 以下、本明細書の一部である添付図面を参照して、本発明について詳しく説明す る。Brief description of the drawing The present invention will now be described in detail with reference to the accompanying drawings, which are a part of this specification. Ru.

第1図は、本発明による情報記憶マトリックスの構成要素によって特徴づけられ た接続重みをもつ並列分散処理ネットワークの一部を示した概略概念図である。FIG. 1 is characterized by the components of an information storage matrix according to the invention. FIG. 2 is a schematic conceptual diagram showing a part of a parallel distributed processing network with connection weights.

第2A図は、ネットワーク内でゼロより大きい値をもつ要素に対応する任意の増 幅器を、フィードバック抵抗とバイアス抵抗と共に示した概略図である。Figure 2A shows any increment corresponding to elements in the network with values greater than zero. FIG. 2 is a schematic diagram showing a width transducer together with a feedback resistor and a bias resistor.

第2B図は、ネットワーク内でゼロより小さい値をもつ要素に対応する任意の増 幅器を、フィードバック抵抗とバイアス抵抗と共に示した概略図である。Figure 2B shows any increment corresponding to elements in the network with values less than zero. FIG. 2 is a schematic diagram showing a width transducer together with a feedback resistor and a bias resistor.

第3図は、関数ν(、)のシナプス作用を実現した非線形しきい値増幅器を示し た概略図である。Figure 3 shows a nonlinear threshold amplifier that realizes the synaptic action of the function ν(,). FIG.

第4図は、例IIで使用されている本発明による並列分散処理ネットワークを示 した概略図である。FIG. 4 shows a parallel distributed processing network according to the invention used in Example II. FIG.

本明細書の一部となっている付録には、従来のフォンノイマン型ディジタル・コ ンピュータに本発明による並列分散処理ネットワークを実装するためのプログラ ムをFortran言語で書いたコード・リストが記載されている。このコード ・リストは、例IIで使用されているネットワークをコーディングしたものであ る。The appendix, which is part of this specification, contains information on traditional von Neumann digital computers. A program for implementing a parallel distributed processing network according to the present invention on a computer A code list of the program written in Fortran language is provided. this code - The list is a coding of the network used in Example II. Ru.

発明の詳細な説明 以下の詳細な説明において、図中の類似要素には、類似の参照符号をつけて示し ている。Detailed description of the invention In the following detailed description, similar elements in the figures are designated with similar reference numerals. ing.

まず、本発明による並列分散処理ネットワークを、その基礎となる理論と数学的 手法の観点から説明し、次に、並列分散処理ネットワークの各種実施例を示した 図面を参照して、説明する。その後で、本発明による並列分散処理ネットワーク の動作をい(っがの例を示して説明する。First, we will explain the underlying theory and mathematics of the parallel distributed processing network according to the present invention. We will explain it from the perspective of the method, and then show various examples of parallel distributed processing networks. This will be explained with reference to the drawings. After that, a parallel distributed processing network according to the present invention The operation of is explained using an example.

前述したように、並列分散処理ネットワークをN次元ベクトル空間の形に概念化 すると、好都合であることは知られている。このような空間は、各々が区域で囲 まれた1つまたは2つ以上の局所的平衡点からなるトポロジ構造になっており、 未知の入力が与えられたときネットワーク動作がその平衡点に集中するようにな っている。入力はディジタル・コードの形でネットワークに与えられるのが通常 である。N次元空間は、2N個の入力コードを収容できる。As mentioned above, we conceptualize a parallel distributed processing network in the form of an N-dimensional vector space. This is known to be convenient. Each such space is surrounded by an area. It has a topological structure consisting of one or more local equilibrium points, When an unknown input is given, the network behavior becomes concentrated at its equilibrium point. ing. Inputs are typically provided to the network in the form of digital codes. It is. An N-dimensional space can accommodate 2N input codes.

本発明によるネットワークは、[NXN]行列(以下では「情報記憶マトリック ス」と呼ぶ)を使用して、並列分散処理ネットワークを実現する増幅器間に接続 重みを指定するようにしたことを特徴としている。情報記憶マトリックスを使用 するとき、動作が左右対称になっているので、識別できるのは、2N個の入力コ ードの半分だけである。残りのコード(2N−1個)は補足的なものである。The network according to the invention consists of an [NXN] matrix (hereinafter "information storage matrix") connection between amplifiers to realize a parallel distributed processing network. The feature is that the weight can be specified. Uses information storage matrix When doing so, the movements are symmetrical, so only 2N input commands can be identified. only half of the code. The remaining codes (2N-1) are supplementary.

一般的に、情報記憶マトリックス[A]は次の行列式を満足する[N X N1 行列になっている。Generally, the information storage matrix [A] satisfies the following determinant [N X N1 There is a line.

[A] [T] = [T] [Δ] (1)式(1)は、各λ、つまり、[Δ ]行列の各要素が固有値であり、類似変形行列[T]内の各列ベクトルが関連の 固有ベクトルであるという、固有値の問題を定義している。式(1)は、最大n 個の解のベアをもつことができる。この行列式は、ガウス除去法またはデルタ・ ルールを用いて解をめることができる。[A] [T] = [T] [Δ] (1) Equation (1) is based on each λ, that is, [Δ ] Each element of the matrix is an eigenvalue, and each column vector in the similar transformation matrix [T] is an associated eigenvalue. We define the problem of eigenvalues, which are eigenvectors. Equation (1) has the maximum n can have solution bears. This determinant can be calculated using Gaussian elimination or delta You can solve the problem using rules.

[T]−’が存在するとき、情報記憶マトリックス[A]は次の行列積によって 形成される。When [T]-' exists, the information storage matrix [A] is obtained by the following matrix product It is formed.

[A]=[T] [L] [T]−’ (5)行列[T]は「類似変形行列」と 呼ばれ、所定数(M)の[NX11目標ベクトルから形成される列をもつ[N  X N]行列である。各目標ベクトルは、ネットワークを表すN次元空間に収容 可能な2N個のコードの1つの形体になっている。各目標ベクトルは並列分散処 理ネットワークの所望出力、つまり、目標値の1つを表わしている。各目標ベク トルは、何らかの方法でストアしておき、将来のある時期に取り出すことが望ま しい情報を収めており、M=N目標ベクトルの[X+ 、Xs 、−、−、XM  ]の集合が、ネットワークの情報の基礎となっている。好ましくは、集合の中 の各目標ベクトルは、他の目標ベクトルから線形的に独立しているので、N次元 空間の中のどのベクトルxlも、目標ベクトルの集合を線形的に組み合わせたも のとして表わすことができる。この場合には、類似変形行列[T]の逆数が存在 する。M個の目標ベクトルの一部または全部は、必要に応じて、相互に直交させ ることも、直交させないこともできる。[A] = [T] [L] [T] -' (5) Matrix [T] is a "similar transformation matrix" called [N XN] matrix. Each target vector is contained in an N-dimensional space representing the network. It is in the form of one of 2N possible codes. Each target vector is processed in parallel and distributed represents one of the desired outputs, ie, target values, of the physical network. Each target vector It is desirable to store it in some way and retrieve it at some point in the future. It contains new information, and the M=N target vector [X+, Xs, -, -, XM ] is the basis of network information. Preferably in a set Since each target vector in is linearly independent from other target vectors, it is N-dimensional. Any vector xl in space is a linear combination of a set of target vectors. It can be expressed as In this case, the reciprocal of the similar transformation matrix [T] exists do. Some or all of the M target vectors may be made orthogonal to each other as necessary. You can also make them orthogonal.

目標ベクトルの数Mは情報記憶マトリックスの次元数であるN以下にすることが できる。目標ベクトルをN以下の個数に指定したときは(つまり、M<N)、類 似変形行列(T)の残りの目標ベクトルは、所定数Qの[NX1]不定ベクトル 、つまり、スラック・ベクトルによって完成される(ただし、Q=N−M)。The number M of target vectors can be less than or equal to N, which is the number of dimensions of the information storage matrix. can. When the number of target vectors is specified as N or less (that is, M<N), the type The remaining target vectors of the similar deformation matrix (T) are [NX1] indefinite vectors of a predetermined number Q. , that is, completed by the slack vector (where Q=NM).

スラック・ベクトルは、目標ベクトルを表わすデータ形式を必要としないので、 記憶という観点から見たときは想像上のものである。しかし、多(のアプリケー ションでは、スラック・ベクトルが重要であることが実証されている。スラック ・ベクトルの選択は、スラック・ベクトルがネットワークの可能な限りのコード の1つを表わさないような形で行なわれる。例えば、ある代表的な事例において は、目標ベクトルは、各々がnビット長(すなわち、2進数の1と−1、つまり 、[1−11,、、−1−11]からなる)のディジタル文字列で表現されてい る。同じ2進数からスラック・ベクトルを形成すると、対応するコードは抑止さ れることになる。従って、2N個の目標ベクトルとも明確に区別される2進数で スラック・ベクトルを形成する必要がある。一般的には、小数点以下の値、ゼロ の値、正または負の整数値をもつ要素の1つ(または2つ以上)で形成すること が可能である。Slack vectors do not require a data format to represent the target vector; When viewed from the perspective of memory, it is imaginary. However, many (applications) The slack vector has been demonstrated to be important in this application. slack ・Select the vector so that the slack vector is the best code for the network. It is done in such a way that it does not represent one of the For example, in a typical case , the target vectors are each n bits long (i.e., binary 1 and -1, i.e. , [1-11,, -1-11]) Ru. Forming slack vectors from the same binary digits suppresses the corresponding code. It will be. Therefore, it is a binary number that is clearly distinguished from the 2N target vectors. A slack vector needs to be formed. Generally, values after the decimal point, zero formed by one (or more) of elements with positive or negative integer values is possible.

スラック・ベクトルが重要であるのは、トポロジを輪郭付け、ネットワークに対 応づけてN次元空間の区域を形作ることができるからである。The slack vector is important because it delineates the topology and This is because the area of N-dimensional space can be formed accordingly.

以上を要約すれば、個数Mの値に依存して、目標ベクトルは行列[A]の情報記 憶スペクトルの全部または一部を形成することができる。目標ベクトルをN個以 下に指定したときは、変形行列の中の残りのベクトルは不定またはスラック・ベ クトルとなる。どの場合においても、類似変形行列[T]の中のベクトルは、情 報記憶マトリックス[A]を幾何学的スペクトル形状に形成する(つまり、[A ]の固有ベクトルとなる)。To summarize the above, depending on the value of the number M, the target vector is the information record of the matrix [A]. can form all or part of the storage spectrum. Set the target vector to N or more. When specified below, the remaining vectors in the deformation matrix are indeterminate or slack vectors. Becomes Kutle. In all cases, the vectors in the similarity transformation matrix [T] are Form the information storage matrix [A] into a geometric spectral shape (i.e. [A ).

[A3行列は、情報記憶マトリックス[A]のすべての固有値の集合を表わした [N X N]対角行列であり、[A]の代数スペクトルとして知られている。[The A3 matrix represents the set of all eigenvalues of the information storage matrix [A] [N X N] is a diagonal matrix and is known as the algebraic spectrum of [A].

[A1行列の各要素は、目標またはスラック・ベクトルのそれぞれの1つに対応 している。[A1行列の要素に酎り当てられた値により、ネットワークの収束特 性が決まる。[A1行列の値の選択に自由度があるので、ネットワークの速度を 制御できる。従って、初期設定後に、ネットワークがある決定に到達するまでの 時間あるいはある目標値に収束するまでの時間は、[A1行列の値を適宜に選択 することで制御が可能である。[Each element of the A1 matrix corresponds to a respective one of the objectives or slack vectors are doing. [The convergence characteristic of the network is determined by the values assigned to the elements of the A1 matrix.] Gender is determined. [Since there is a degree of freedom in selecting the value of the A1 matrix, the speed of the network can be Can be controlled. Therefore, after the initial setup, the network has to reach a certain decision. The time or the time until convergence to a certain target value is determined by selecting the value of the A1 matrix as appropriate. Control is possible by doing this.

[A1行列の要素に割り当てられた値は、本発明のネットワークでは影響力をも っている。事前に割り当てられた値がλ1〉1ならば、対応する固有ベクトルT 、(所望の出力情報を収めている)により、N次元情報空間における漸近線が決 まり、所望事象の発生が刺激されることになる。事前に割り当てられた値がλ1 く1ならば、対応する固有ベクトルT、により、N次元情報空間におけろ漸近線 が決まり、事象の発生は抑止されることになる。事前に割り当てられた値がλ1 〉〉1ならば、ネットワークは対応する目標ベクトルに急速に収束し、背面伝播 ネットワークのフィードフォワード作用に近似することになる。[The values assigned to the elements of the A1 matrix have influence in the network of the present invention.] ing. If the pre-assigned value is λ1〉1, then the corresponding eigenvector T , (which contains the desired output information) determines the asymptote in the N-dimensional information space. Therefore, the occurrence of the desired event is stimulated. The pre-assigned value is λ1 1, then the asymptote in the N-dimensional information space is determined by the corresponding eigenvector T. will be determined, and the occurrence of the event will be suppressed. The pre-assigned value is λ1 〉〉1, the network rapidly converges to the corresponding target vector and back propagation This approximates the feedforward effect of a network.

好ましくは、目標ベクトルに対応する[A1行列の要素に割り当てられた値は、 スラック・ベクトルに対応する[A1行列の要素の値よりも大きくなっている。Preferably, the values assigned to the elements of the [A1 matrix corresponding to the target vector are It is larger than the value of the element of the [A1 matrix corresponding to the slack vector.

具体的には、目標ベクトルに対応する対角行列の要素は、1より大きい絶対値を もち、スラック・ベクトルに対応する対角行列の要素は1より小さい絶対値をも っている。Specifically, the elements of the diagonal matrix corresponding to the target vector have an absolute value greater than 1. , and the elements of the diagonal matrix corresponding to the slack vector also have an absolute value less than 1. ing.

以上を要約すると、λ、を割り当て、スラツク・ベクトルを選択することにより 、ネットワークの収束速度が向上し、固定平衡点に関連する区域を柔軟性をもっ て形成することができる。To summarize the above, by assigning λ, and choosing the slack vector, , the convergence speed of the network is increased and the area associated with a fixed equilibrium point is made more flexible. It can be formed by

情報記憶マトリックス[A]を評価するには、2つの方法が使用できる。これら の方法としては、ガウス除去手法とデルタ・ルール手法がある。Two methods can be used to evaluate the information storage matrix [A]. these Methods include the Gaussian removal method and the delta rule method.

ガウス除去手法を用いた情報記憶マトリックス[A]の評価について、最初に説 明することにする。We first explain the evaluation of the information storage matrix [A] using the Gaussian removal method. I will clarify.

X + + X * + 、−I X M < Z v+□1 + −I Z  sをRNの基底とすると(つまり、Xlは目標ベクトルを表わし、ZIはスラッ ク・ベクトルである)。ただし、RNはN次元の現実のベクトル空間を表わして いる。X + + X * +, -I Let s be the basis of RN (i.e., Xl represents the target vector and ZI is the slack vector). However, RN represents the N-dimensional real vector space. There is.

この基底構造を使用すると、類似変形行列[T]=EX1.Xs9.、、XM、 Zm−+、、、、Zs]となる。これに対角行列を関連づけると、次のようにな る。Using this basis structure, the similarity transformation matrix [T]=EX1. Xs9. ,,XM, Zm-+, , , Zs]. If we relate this to a diagonal matrix, we get the following Ru.

この対角行列は、基底の中の各要素に対して事前定義した固有値を含んでいる。This diagonal matrix contains predefined eigenvalues for each element in the basis.

次に、次のように行列式を作り、 [A] [T] = [T] [Δ] (1)ガウス除去法を用いて[A]の解 をめる。これは問題を解決するのに非常に便利である。Next, create the determinant as follows, [A] [T] = [T] [Δ] (1) Solution of [A] using Gaussian removal method I put it on. This is very useful in solving problems.

[T] t [A] ’= [Δ][T]” (6)式(1)を上記のように転 置すると、行列係数が[A]の係数に対して自然の形になるからである。式(1 )または式(6)からは、N2線形結合式が得られ、これによって[A]のN2 係数がめられる。[T] t [A]’= [Δ] [T]” (6) Transfer equation (1) as above. This is because the matrix coefficients take a natural form with respect to the coefficients of [A]. Formula (1 ) or from equation (6), an N2 linear combination equation is obtained, which allows N2 of [A] The coefficient is calculated.

もう1つの方法はデルタ・ルール法である。次は、線形方程式の集合である。Another method is the delta rule method. Next is a set of linear equations.

A X l=見IXI AXM=λ、X、 (7) AZw+r=λいや、λ、Zう。1 AZイ=λNZ?1 上式において、λ1は事前定義の固有値である。A X l=See IXI AXM=λ,X, (7) AZw+r=λ No, λ, Z. 1 AZi=λNZ? 1 In the above equation, λ1 is a predefined eigenvalue.

いま、線形方程式[7]に繰り返してデルタ・ルールを適用すると、[A]を評 価することができる。Now, if we repeatedly apply the delta rule to the linear equation [7], we can evaluate [A]. can be valued.

デルタ・ルールは、W、P、JonesおよびJ、Ho5kins著rBack − propagatton」、Byte、pages155−162,0ctob er 1987に解説されている。The Delta Rule is by W. P. Jones and J. Ho5kins rBack − "propagatton", Byte, pages 155-162, 0ctob er 1987.

上記2方法を比較すれば分かるように、ガウス除去法のほうがデルタ・ルールよ りも高速である。[T]行列の逆数が存在すれば、情報記憶マトリックスは、式 (5)の行列積をめることで請求めることができる。As you can see by comparing the above two methods, the Gaussian removal method is better than the delta rule. It is also fast. [T] If the reciprocal of the matrix exists, the information storage matrix can be expressed as It can be obtained by calculating the matrix product in (5).

第1図は、本発明による並列分散処理ネットワークの一部を概念化した概略図で ある。全体を符号10で示しているネットワークは複数の増幅器、またはノード 12が単一の層14内に接続されている。ネットワーク10はN個の増幅器12 −1〜12−Nを備えている。ただし、Nは前述した方法でめた情報記憶マトリ ックス[A]の次元数に対応している。FIG. 1 is a schematic diagram conceptualizing a part of the parallel distributed processing network according to the present invention. be. The network, generally designated 10, includes a plurality of amplifiers or nodes. 12 are connected within a single layer 14. The network 10 includes N amplifiers 12 -1 to 12-N. However, N is the information storage matrix obtained using the method described above. It corresponds to the number of dimensions of the box [A].

第1図には、増幅器12が4個しか示されていない。つまり、最初の増幅器12 −1、i番目の増幅器12−i、j番目の増幅器12−j、最後の増幅器12− Nである。ネットワークを構成するN個の増幅器のうちの他の増幅器の接続関係 は、第1図を見れが当然に理解されるはずである。もっと具体的に示したのが第 4図の概略図である。第4図は、例2で使用されている並列分散処理ネットワー ク10の具体例を示している。この場合、Nは4に等しく、完全に接続されたネ ットワーク10を示している。第4図に示すネットワークで使用されている抵抗 の具体値も示されている。Only four amplifiers 12 are shown in FIG. That is, the first amplifier 12 -1, i-th amplifier 12-i, j-th amplifier 12-j, last amplifier 12- It is N. Connection relationship of other amplifiers among the N amplifiers configuring the network This should naturally be understood by looking at Figure 1. The more concrete example is FIG. 4 is a schematic diagram of FIG. Figure 4 shows the parallel distributed processing network used in Example 2. A specific example of H.10 is shown. In this case, N is equal to 4 and the fully connected A network 10 is shown. Resistors used in the network shown in Figure 4 Specific values of are also shown.

各増幅器12は反転入力ボート16と、非反転入力ポート18と、出力ポート2 0とを備えている。各増幅器12の出力ポート20は、フィードバック抵抗22 が置かれているラインを経由して自身の反転入力ボート16に接続されている。Each amplifier 12 has an inverting input port 16, a non-inverting input port 18, and an output port 2. 0. The output port 20 of each amplifier 12 has a feedback resistor 22 is connected to its own inverting input port 16 via the line where it is placed.

さらに、各増幅器12の出力ポート20は、前述したしきい値の非線形性または シナプスのスカッシェ機能ν(、)をもつスヵッシャ26に接続されている。こ のスカッシャ26の詳細図は、第3図に示されている。N個の増幅器12の各々 の出力ポート20に現われた信号は、スヵッシャ26によって演算されたあと、 接続ライン3oを通してネットワーク10内の他の増幅器12の一部または全部 の反転入力ボート16か非反転入力ポート18のどちらかに接続される。これに ついては、後述する。Additionally, the output port 20 of each amplifier 12 may be affected by the threshold nonlinearity or It is connected to a squasher 26 having a synaptic squash function ν(,). child A detailed view of the squasher 26 is shown in FIG. Each of the N amplifiers 12 The signal appearing at the output port 20 of is processed by the squasher 26, and then Some or all of the other amplifiers 12 in the network 10 through the connection line 3o is connected to either the inverting input port 16 or the non-inverting input port 18 of. to this This will be discussed later.

ある増幅器の出力と別の増幅器の入力との接続は、情報記憶マトリックス[A] 内の対応する要素の値によって決まり、要素値がゼロの時は、接続なしを意味し 、要素値が正の時は、非反転入力に接続されることを意味し、要素値が負の時は 、反転入力に接続されることを意味する。The connection between the output of one amplifier and the input of another amplifier is connected to the information storage matrix [A] Determined by the value of the corresponding element in , an element value of zero means no connection. , when the element value is positive, it means that it is connected to the non-inverting input, and when the element value is negative, it means that it is connected to the non-inverting input. , means connected to the inverting input.

各接続ライン30には、接続抵抗34があり、これは同一変数i、jの添え字を つけて示されている。この添え字は、その添え字をもつ接続抵抗34が、j番目 の入力増幅器とi番目の出力増幅器とを結んでいるライン30に接続されている ことを意味する。接続抵抗34の値は、情報記憶マトリックス内の対応する添え 字付き変数と関係づけられている。これについては、後述する。Each connection line 30 has a connection resistance 34, which has the same variables i and j subscripts. It is shown with This subscript indicates that the connection resistance 34 with that subscript is the jth is connected to the line 30 connecting the input amplifier of and the i-th output amplifier. It means that. The value of the connection resistor 34 is determined by the corresponding addition in the information storage matrix. It is associated with a labeled variable. This will be discussed later.

ライン34の各々には、遅延要素38も設けられている。この遅延要素は、所定 の信号遅延時間が設定されており、これは、繰返し作用(式(4)で数学的に定 義されている)を実現するために必要な各繰返しの時間シーケンスを可能にする ためのもので、ある増幅器12がその出力状態に達するまでの時間である。遅延 ラインにも、接続ラインおよびその抵抗に付けた添え字変数と同じものが付けら れている。前述したように、行列[Δ]の中の固有値先に割り当てられた値は、 ネットワーク10がある決定に到達するまでに必要な時間(または繰返し回数) に対応している。Each of the lines 34 is also provided with a delay element 38. This delay element is A signal delay time of allow the time sequence of each iteration necessary to realize This is the time it takes for a certain amplifier 12 to reach its output state. delay The line has the same subscript variables as the connecting line and its resistance. It is. As mentioned above, the value assigned to the eigenvalue in the matrix [Δ] is The time (or number of iterations) required for the network 10 to reach a certain decision It corresponds to

情報記憶マトリックス[A]の対応する要素およびネットワーク10内の増幅器 12の利得からめられる、接続抵抗34の値がどのように実現されるかについて 、以下第2A図と第2B図を参照して説明する。Corresponding elements of the information storage matrix [A] and amplifiers in the network 10 Regarding how the value of the connection resistance 34 is realized based on the gain of 12 , will be explained below with reference to FIGS. 2A and 2B.

ネットワーク10に入力される入力ベクトルは次のような形式になっている。The input vector input to the network 10 has the following format.

情報記憶マトリックス[A]は、前述した方法で評価されると、次のような形に なる。When the information storage matrix [A] is evaluated using the method described above, it has the following form: Become.

上式において、情報記憶マトリックス[A]の各要素A + 、 Jは正か負の 実定数またはゼロである。In the above formula, each element A +, J of the information storage matrix [A] is positive or negative. Is a real constant or zero.

情報記憶マトリックス[A]のある要素A (、Jが正であるときは、その要素 A1.、の値とフィードバック抵抗22(RF)および接続抵抗34 (R,、 、)の値との関係は、第2A図から理解することができる。抵抗34 (R1, J )が増幅器12の非反転入力ポート16に接続されているライン30と増幅 器12の利得は次式から得られる。A certain element A of the information storage matrix [A] (when J is positive, that element A1. , the feedback resistance 22 (RF) and the connection resistance 34 (R, , , ) can be understood from FIG. 2A. Resistor 34 (R1, J) is connected to the non-inverting input port 16 of the amplifier 12 and the amplification line 30 The gain of the device 12 is obtained from the following equation.

eo /XJ = [1+ (RF / R1,J ) ]=IA、、JI 上式において、eoは増幅器12−jの出力ポートに現れる出力信号の電圧であ る0代表例では、ネットワーク全体のフィードバック抵抗22の値は、所定の一 定値に固定されており、接続抵抗R+、Jの値は式(8)から簡単にめることが できる。eo / XJ = [1 + (RF / R1, J)] = IA,, JI In the above equation, eo is the voltage of the output signal appearing at the output port of amplifier 12-j. In a typical example, the value of the feedback resistor 22 for the entire network is It is fixed at a fixed value, and the values of connection resistance R+ and J can be easily determined from equation (8). can.

情報記憶マトリックス[A]のある要素AIJが負であるときは、その要素AI Jの値とフィードバック抵抗22(Rr)と接続抵抗34 (R1,J )の値 との関係は、第2B図から理解することができる。抵抗341、が、この場合に 、増幅器12の反転入カボート18に接続されているライン30と増幅器12の 利得は次式から得られる。When a certain element AIJ of the information storage matrix [A] is negative, that element AI Value of J, feedback resistance 22 (Rr) and connection resistance 34 (R1, J) The relationship can be understood from FIG. 2B. Resistor 341, in this case , line 30 connected to the inverting input port 18 of amplifier 12 and The gain is obtained from the following equation.

eo /XJ = RF /R1,J = l A1.J 1上式において、e oは増幅器12の出力ボート20に現れる出力信号の電圧である。この場合も、 ネットワーク全体のフィードバック抵抗22の値は所定の一定値に固定されてい るので、接続抵抗R1,の値は式(9)から簡単にめることができる。eo /XJ = RF /R1, J = l A1. J1 In the above formula, e o is the voltage of the output signal appearing on the output port 20 of the amplifier 12. In this case too, The value of the feedback resistor 22 of the entire network is fixed at a predetermined constant value. Therefore, the value of the connection resistance R1 can be easily determined from equation (9).

以上から理解されるように、情報記憶マトリックスの要素A + 、 Jの値が ゼロと1の間にあれば、ハードウェアまたはソフトウェア手法を用いて、問題な (その値を実現することができる。例えば、ソフトウェア手法を用いる場合は、 A6.、の値が1より大きくなるように係数を調整すればよい。ハードウェア手 法を用いる場合は、2つの反転増幅器をカスケード接続すれば、指定した領域で 正の値が得られることになる。As can be understood from the above, the values of elements A + and J of the information storage matrix are If it is between zero and one, you can use hardware or software techniques to resolve the problem. (That value can be achieved. For example, when using software methods, A6. The coefficients may be adjusted so that the value of , becomes larger than 1. hardware hands When using the method, two inverting amplifiers can be connected in cascade to A positive value will be obtained.

情報記憶マトリックス[A]のある要素AI、がゼロのときは、5番目の入力ノ ードと1番目の出力ノードが接続されていないことを意味する。When a certain element AI of the information storage matrix [A] is zero, the fifth input node This means that the node and the first output node are not connected.

第3図は、非線形しきい値設定装置、つまり、関数先(、)を生成するスカッシ ャの概略図である。スカッシャ26は、ノード12の出力を所定の上限値と所定 の下限値との間に定義されている範囲に制限するネットワークを定義している。Figure 3 shows a nonlinear threshold setting device, that is, a squash system that generates a function destination (,). FIG. The squasher 26 sets the output of the node 12 to a predetermined upper limit value and a predetermined upper limit value. The network is defined to be limited to the range defined between the lower limit of .

上限値と下限値は、それぞれ+1と−1であるのが代表例である。Typically, the upper limit value and lower limit value are +1 and -1, respectively.

以上から理解されるように、第1図〜第4図の概略図に示すネットワーク10は 、都合の良いどのような形式で物理的に構築することが可能である。すなわち、 ネットワーク10を電子式ハードウェアに実装させることも、光学式ハードウェ アに実装させることも、その組み合わせに実装させることも、本発明の技術範囲 に属するものである。電子式ハードウェアに実装する場合は、ディスクリート・ アナログ・デバイスや、キャパシタやRC回路網などの増幅器、抵抗、遅延要素 を使用して、ネットワーク構成要素を相互接続することによっても、集積回路部 品を相互接続することによっても、あるいは図にSの文字で示している適当な基 盤上に任意の集積回路製造技術を使用してネットワークぜんたいを集積化するこ とによっても、実現することが可能である。さらに、ネットワークは、ヒユーレ ット・パラカード社Vectra、DEC社VAX、クレー社X−MPなどのよ うに、プログラムに従って動作する汎用ディジタル・コンピュータを使用して実 現することも可能である。これに関して、付録にFortran言語で書いたコ ード・リストが掲載されている。ネットワーク10は、このコード・リストに従 ってDEC社VAXに実装されている。例IIに示すネットワークはこのコード ・リストで実施される。As understood from the above, the network 10 shown in the schematic diagrams of FIGS. 1 to 4 is , it is possible to physically construct it in any convenient form. That is, Network 10 can be implemented in electronic hardware or optical hardware. It is within the technical scope of the present invention to implement the It belongs to When implemented in electronic hardware, discrete Analog devices, amplifiers, resistors, and delay elements such as capacitors and RC networks integrated circuits by interconnecting network components using by interconnecting the components or by using a suitable base, indicated by the letter S in the figure. The entire network can be integrated on the board using any integrated circuit manufacturing technology. It is also possible to realize this by In addition, the network Such as Paracard Vectra, DEC VAX, Klee X-MP, etc. It is executed using a general-purpose digital computer that operates according to a program. It is also possible to express Regarding this, there is a code written in Fortran language in the appendix. A code list is posted. Network 10 follows this code list. It is implemented in DEC's VAX. The network shown in Example II uses this code ・Implemented as a list.

伝 以下では、本発明の並列分散処理ネットワークの動作について、例工と例IIを 参照して説明する。Tradition Below, we will explain the operation of the parallel distributed processing network of the present invention using an example and an example II. Refer to and explain.

例工は、並列分散処理ネットワークを分類器として使用した例である。ある大企 業は、その社員の個人データ・ファイルを収集して、処理することを必要として いる。収集されたデータは、次のような個人プロフィールを反映している。This example is an example of using a parallel distributed processing network as a classifier. A big plan The business requires the collection and processing of personal data files of its employees. There is. The data collected reflects personal profiles such as:

このプロフールは、新入社員が入社するつど、コンピュータ・ファイルに入力さ れる。新入社員で、既婚で、離婚歴が無く、大卒で、男性で、子供がない場合の 社員の項目は、次のような形式になる。This profile is entered into a computer file each time a new employee joins the company. It will be done. If you are a new employee, married, never divorced, have a college degree, are male, and have no children. The employee item has the following format:

氏名: John Doe 社員: 男/女: 独身/既婚 離婚歴有無二子供有無二 大卒有無: 従って、各社員は6ビツト・コードをもち、その名前に関連する個人プロフィー ルを記述している。名前とコードは、−緒にデータ・ファイルに入力される。full name: John Doe Employees: Male/Female: Single/Married Divorced or not 2 Children or not 2 University graduate or not: Therefore, each employee has a 6-bit code and a personal profile associated with their name. It describes the rules. The name and code are entered together into the data file.

「社員」項目を含めたのは、情報記憶マトリックスで特徴づけられるネットワー ク10を左右対称で動作させるためである。The “employee” item was included because it is a network characterized by the information storage matrix. This is to operate the rack 10 symmetrically.

この企業は数千の社員を雇用し、プロフィール・コードに示す情報に従って社員 を分類する高速並列分散処理ネットワークを必要としている。そこで、この企業 は、次のグループに属する各社員の名前を知りたいとする。すなわち、(1)男 性で独身、(2)女性で独身、(3)女性で既婚。この3つのグループを表にす ると、次のようになる。This company employs thousands of people and employees according to the information provided in their profile codes. We need a high-speed parallel distributed processing network to classify. Therefore, this company wants to know the names of each employee belonging to the following groups. In other words, (1) male Single by gender, (2) single by female, and (3) married by female. List these three groups Then, it becomes as follows.

分類1:男性および独身 上表において、”dc”は「無視」を意味する。Category 1: Male and single In the above table, "dc" means "ignored".

さらに、下に示すような分類も必要であるとする。Furthermore, it is assumed that the following classification is also necessary.

分類2: 分類3: 分類4: 上記4つの表を使用すると、目標ベクトルを生成することができる。4つの分類 の男性の状況を検査すると、目標ベクトルが得られる。Classification 2: Classification 3: Classification 4: Using the above four tables, the target vector can be generated. 4 classifications Examining the situation of the man, we obtain the target vector.

同様に、4つの分類の女性の状況を検査すると、更に2つの目標ベクトルが得ら れる。Similarly, examining the four categories of women's situations yields two additional target vectors. It will be done.

明らかなように、目標ベクトルは3個であり、情報の次元は6次元である。従っ て、更に3つのスラツク・ペクト、が必要になる。そこで、次の行列で、R’の 中の標準基底集合を定義すると、次のようになる。As is clear, there are three target vectors and six dimensions of information. follow Therefore, three more slack pects are required. Therefore, in the following matrix, R' The standard basis set in is defined as follows.

次に、Z4 =e4% Zs =es 、Zs =esを追加の3つのスラック ・ベクトルとして選択して、類似変形行列を次のように作成する。Next, add Z4 = e4% Zs = es, Zs = es to three additional slacks ・Select it as a vector and create a similar transformation matrix as follows.

T、: [x、、X、、X、、Z、、zs 、Z、]また、次の対角行列を選択 する。T,: [x,,X,,X,,Z,,zs,Z,] Also, select the next diagonal matrix do.

T1と八から情報記憶マトリックスが得られる。このマトリックスが可能な限り のコード(つまり、考慮の対象となっているコードの中の32個の要素)に対し て実行されると、表1に示す4つの区域が得られる。表1の最初の区域は、目標 値X1に収束するコードのすべての要素を示している。同様に、3番目と4番目 の区域は、X、とX、を受け持っている。これらの目標区域に属する各コードは 適当なカウンタで増分していく。しかし、2番目の区域は、ここでは関心の対象 になっていない認識による解C=[1,1゜−1,1−1,11’−を受け持っ ている(つまり、Cからは、社員、男性、既婚、離婚歴熱、子供有、大卒の分類 が得られる)。An information storage matrix is obtained from T1 and 8. As long as this matrix is possible for the code (i.e. 32 elements in the code under consideration) When executed, the four zones shown in Table 1 are obtained. The first area in Table 1 is the target It shows all elements of the code that converge to the value X1. Similarly, the third and fourth The area is responsible for X and X. Each code belonging to these target areas is Increment by an appropriate counter. However, the second area is of interest here. The solution C = [1, 1゜-1, 1-1, 11'- by recognition that is not (In other words, from C, the classification is employee, male, married, divorced, with children, and university graduate. ).

ある社員の名前に関連するコードがX、に収束すると、その社員の名前は男性と 独身のクラスに大れられる。同様に、このコードがX2またはxsに収束すると 、名前は女性と独身または女性と既婚に入れられる。しかし、コードがCに収束 したときは、名前は無視される。表1の矢印は、各区域内の共通情報を示してい る。従って、分類1の関数を実行する並列分散処理ネットワークの情報記憶マト リックスを設計するためにT1とAが使用されている。When the codes associated with an employee's name converge to X, the employee's name is male. I'm a big fan of the single class. Similarly, if this code converges to X2 or xs , the name can be entered into Women and Single or Women and Married. However, the code converges to C In this case, the name is ignored. The arrows in Table 1 indicate common information within each area. Ru. Therefore, the information storage matrix of a parallel distributed processing network that executes a function of classification 1 is T1 and A are used to design the lix.

さらに、次の類似変形で[Δ]を使用すると、Tm=[Xl、Xz、Xss Z 4.Za、zalただし、Z 4 =ez 、 Zs =es s Zs :Q 。Furthermore, using [Δ] in the following similar transformation, Tm = [Xl, Xz, Xss Z 4. Za, zal However, Z 4 = ez, Zs = es s Zs:Q .

T−=[X3.x、、Xs、Z4.Zs、zalただし、Z a =em s  Zs =e4. Zs =esT4= [X3.Xs、X−、Z4.Zs、Za lただし、Za =es + Zs =84.Zs =es表2.3、および4 が得られる。これらの表からは、それぞれ分類2.3、および4が得られる。T-=[X3. x,,Xs,Z4. Zs, zal However, Z a =em s Zs = e4. Zs = esT4 = [X3. Xs, X-, Z4. Zs, Za l However, Za = es + Zs = 84. Zs = es Tables 2.3 and 4 is obtained. These tables give classifications 2.3 and 4, respectively.

次に、下の分類5.6、および7に示す情報を得る必要があるとする。Next, assume that it is necessary to obtain the information shown in categories 5.6 and 7 below.

分類5: 分類6: 分類7: 従って、同じ目標ベクトルと[Δ]が使用できる。Classification 5: Classification 6: Classification 7: Therefore, the same target vector and [Δ] can be used.

新しい類似変形は次のようになる。The new analogous transformation is as follows.

TI = [Xl 、xs、xs 、z4.zs 、zslただし、Z4 =e 、、Zs =94.Ze =esTs = [Xl 、Xs、xs、Z4.Zs 、Zaコただし、Z 4”6m + Zs =es + Zs =e*T、=  [Xl、X−、Xs、Z4.Zs 、Z6]ただし、Z a ;e* 、 Zs  =es + Za =e4区域の結果は表5.6、および7に示されている。TI = [Xl, xs, xs, z4. zs, zsl However, Z4 = e ,,Zs=94. Ze = esTs = [Xl, Xs, xs, Z4. Zs , Zako However, Z 4”6m + Zs = es + Zs = e*T, = [Xl, X-, Xs, Z4. Zs, Z6] However, Za; e*, Zs The results for the = es + Za = e4 area are shown in Tables 5.6 and 7.

例II 論理回路の実現二4ビット左右対称相補コードが次のようになっている場合につ いて検討する。Example II Realization of logic circuit For the case where the 24-bit left-right symmetric complementary code is as follows: I will consider it.

次に、C=Dのとき、状態X、= [1,1,−1゜−1]tが実行され、Cが Dと等しくないとき、状態X、= [1,−1,1,−1] ″が得られるよう な論理回路を設計する必要がある。そのために、次の類似変形を検討する。Next, when C=D, state X,=[1,1,-1°-1]t is executed, and C is When it is not equal to D, the state X, = [1, -1, 1, -1]'' is obtained. It is necessary to design a logical circuit. For this purpose, consider the following similar transformation.

T= [X、、Xa+ Zl、Z4]、ただし、Z s ”e+ + Z4 = e*およびこれらの行列からは、次の情報記憶マトリックスに示す接続パターン が得られる。T=[X,,Xa+Zl,Z4], where Zs”e++Z4= From e* and these matrices, the connection pattern shown in the following information storage matrix is obtained.

図に規定されているように、この行列が繰り返され、「スカッシュコされると、 下に示す目標値X、とX亥の区域が得られる。When this matrix is iterated and squashed, as specified in the figure, The target values X and XY area shown below are obtained.

11−1−1目標11−11 1 −1 −1 −1 1 −1 1 −L目標機って、このロジックはアナロ グ回路により実行され、実現される。このネットワークでは、認識による解がな いことに注目すべきである。11-1-1 Goal 11-11 1-1-1-1-1 1-1 1-L target aircraft, this logic is analog is executed and realized by the programming circuit. In this network, there is no solution based on recognition. It should be noted that

この例IIで使用されている並列分散処理ネットワークの概略図は第4図に示さ れている。従って、[Y] = [A] [Xlであり、 であるので、 Y、=+、 5Xl −2,5X。A schematic diagram of the parallel distributed processing network used in this Example II is shown in Figure 4. It is. Therefore, [Y] = [A] [Xl, So, Y, = +, 5Xl -2,5X.

y、=−15Xx −2,5Xs 抵抗の値(IKフィードバック抵抗を想定した場合)は、式(8)と(9)を用 いてめられる。付録に示しているFortranコード・リストは、第4図に示 すネットワークをDEC社VAXコンピュータで実行するためにコーディングし たものである。y, = -15Xx -2,5Xs The value of the resistor (assuming an IK feedback resistor) is determined using equations (8) and (9). I can be treated. The Fortran code list shown in the appendix is shown in Figure 4. I coded a network to run on a DEC VAX computer. It is something that

以上説明した各種実施例は、種々態様に変更が可能であるが、かかる変更は請求 の範囲に明確化されている本発明の技術範囲に属するものである。The various embodiments described above can be modified in various ways, but such changes may be made upon request. It belongs to the technical scope of the present invention as defined in the scope of the invention.

(以下余白) 10 :lO−0−5−0−5 Lambda −2,CIo 2.00 −0.50 −0+50code e lea+ent: xlXiXiXN 国際調査報告 +nlmmmnml1llall+l1lfi Me、pc’r八巧90102 699(Margin below) 10:lO-0-5-0-5 Lambda -2, CIo 2.00 -0.50 -0+50code e lea+ent: xlXiXiXN international search report +nlmmmnml1llall+l1lfi Me, pc’r Hachiko90102 699

Claims (1)

【特許請求の範囲】 1.単一の層に接続された複数のノードからなり、各ノードは入力と出力をもち 、各ノードの出力はネットワーク内の所定のいくつかのノードの入力に所定の接 続重みによって接続されている並列分散処理ネットワークにおいて、 接続重みは[N×N]情報記憶マトリックス[A]によって定義され、情報記憶 マトリックス[A]の要素Ai,jはj番目の入力ノードとi番目の出力ノード 間の接続重みであり、 情報記憶マトリックス[A]は次の行列式を満足しており、 [A][T]=[T][Λ] 上式において、[T]はその列が所定数(M)の[N×1]目標ベクトルに所定 数(Q)の[N×1]不定ベクトルを加えたものから形成される[N×N]類似 変形行列であり、各目標ベクトルは並列分散処理ネットワークの出力の1つを表 わしており(ただし、M<=NおよびQ=(N−M))、 「Λ」は[N×N]対角行列であり、行列[Λ]の対角線上の各要素は類似変形 行列の中のベクトルの所定の1つに対応しており、行列[Λ]の対角線上の各要 素の相対値は並列分散処理ネットワークが対応する目標ベクトルに向かって収束 する速度に対応している並列分散処理ネットワーク。 2.各ノードの出力は、それ自身を含めて、ネットワーク内のノードのすべての 入力に接続されている請求の範囲第1項に記載の並列分散処理ネットワーク。 3.類似変形行列の中のベクトルのすべては線形的に独立している請求の範囲第 1項に記載の並列分散処理ネットワーク。 4.類似変形行列の中のベクトルのすべては直交している請求の範囲第3項に記 載の並列分散処理ネットワーク。 5.類似変形行列の中のベクトルのすべては線形的に独立している請求の範囲第 2項に記載の並列分散処理ネットワーク。 6.類似変形行列の中のベクトルのすべては直交している請求の範囲第5項に記 載の並列分散処理ネットワーク。 7.類似変形行列の中の不定ベクトルに対応する対角行列[Λ]の要素の各々は 、類似変形行列の中の目標ベクトルに対応する対角行列の構成要素の各々の値よ りも小さい値をもっている請求の範囲第5項に記載の並列分散処理ネットワーク 。 8.類似変形行列の中の不定ベクトルに対応する対角行列[Λ]の要素の各々は 、類似変形行列の中の目標ベクトルに対応する対角行列の構成要素の各々の値よ りも小さい値をもっている請求の範囲第3項に記載の並列分散処理ネットワーク 。 9.類似変形行列の中の不定ベクトルに対応する対角行列[Λ]の要素の各々は 、類似変形行列の中の目標ベクトルに対応する対角行列の構成要素の各々の値よ りも小さい値をもっている請求の範囲第2項に記載の並列分散処理ネットワーク 。 10.類似変形行列の中の不定ベクトルに対応する対角行列[Λ]の要素の各々 は、類似変形行列の中の目標ベクトルに対応する対角行列の構成要素の各々の値 よりも小さい値をもっている請求の範囲第1項に記載の並列分散処理ネットワー ク。 11.類似変形行列の中の不定ベクトルに対応する対角行列[Λ]の要素の各々 は、1より小さい絶対値をもち、類似変形行列の中の目標ベクトルに対応する対 角行列の構成要素の各々は1より大きい絶対値をもっている請求の範囲第5項に 記載の並列分散処理ネットワーク。 12.類似変形行列の中の不定ベクトルに対応する対角行列[Λ]の要素の各々 は、1より小さい絶対値をもち、類似変形行列の中の目標ベクトルに対応する対 角行列の構成要素の各々は1より大きい絶対値をもっている請求の範囲第3項に 記載の並列分散処理ネットワーク。 13.類似変形行列の中の不定ベクトルに対応する対角行列[Λ]の要素の各々 は、1より小さい絶対値をもち、類似変形行列の中の目標ベクトルに対応する対 角行列の構成要素の各々は1より大きい絶対値をもっている請求の範囲第2項に 記載の並列分散処理ネットワーク。 14.類似変形行列の中の不定ベクトルに対応する対角行列[Λ]の要素の各々 は、1より小さい絶対値をもち、類似変形行列の中の目標ベクトルに対応する対 角行列の構成要素の各々は1より大きい絶対値をもっている請求の範囲第1項に 記載の並列分散処理ネットワーク。 15.各ノードの出力とその出力が接続されている他のノードの入力間に置かれ た遅延要素をさらに備えている請求の範囲第2項に記載の並列分散処理ネットワ ーク。 16.各ノードの出力とその出力が接続されている他のノードの入力間に置かれ た遅延要素をさらに備えている請求の範囲第1項に記載の並列分散処理ネットワ ーク。 17.ノードの各々の出力に接続されて、ノードの出力の値を所定の上限値と下 限値の間に定義された範囲に制限するネットワークをさらに備えている請求の範 囲第16項に記載の並列分散処理ネットワーク。 18.ノードの各々の出力に接続されて、ノードの出力の値を所定の上限値と下 限値の間に定義された範囲に制限するネットワークをさらに備えている請求の範 囲第15項に記載の並列分散処理ネットワーク。 19.ノードの各々の出力に接続されて、ノードの出力の値を所定の上限値と下 限値の間に定義された範囲に制限するネットワークをさらに備えている請求の範 囲第2項に記載の並列分散処理ネットワーク。 20.ノードの各々の出力に接続されて、ノードの出力の値を所定の上限値と下 限値の間に定義された範囲に制限するネットワークをさらに備えている請求の範 囲第1項に記載の並列分散処理ネットワーク。 21.ノードの各々は反転入力端と非反転入力端とをもち、i番目の出力ノード は、情報記憶マトリックスの対応する要素Ai,jがゼロより大きいとき、j番 目の入力ノードの非反転入力ポートに接続される請求の範囲第20項に記載の並 列分散処理ネットワーク。 22.j番目の入力ノードはその出力ポートとその非反転入力ポート間に接続さ れたフィードバック抵抗と、その非反転入力ポートに接続された接続抵抗とを備 え、フィードバック抵抗と接続抵抗は、次の関係式によって情報記憶マトリック スの対応する要素Ai,jに関係づけられている請求の範囲第21項に記載の並 列分散処理ネットワーク。 |Ai,j|=[1+(Rr/Ri,j)]23.ノードの各々は反転入力端と 非反転入力端とをもち、i番目の出力ノードは、情報記憶マトリックスの対応す る要素Ai,jがゼロより大きいとき、j番目の入力ノードの非反転入力ポート に接続される請求の範囲第19項に記載の並列分散処理ネットワーク。 24.j番目の入力ノードはその出力ポートとその非反転入力ポート間に接続さ れたフィードバック抵抗と、その非反転入力ポートに接続された接続抵抗とを備 え、フィードバック抵抗と接続抵抗は、次の関係式によって情報記憶マトリック スの対応する要素Ai,jに関係づけられている請求の範囲第23項に記載の並 列分散処理ネットワーク。 |Ai;j|=[1十(Rr/Ri,j)]25.ノードの各々は反転入力端と 非反転入力端とをもち、i番目の出力ノードは、情報記憶マトリックスの対応す る要素Ai.jがゼロより小さいとき、j番目の入力ノードの反転入力ポートに 接続される請求の範囲第20項に記載の並列分散処理ネットワーク。 26.j番目の入力ノードはその出力ポートとその非反転入力ポート間に接続さ れたフィードバック抵抗と、その非反転入力ポートに接続された接続抵抗とを備 え、フィードバック抵抗と接続抵抗は、次の関係式によって情報記憶マトリック スの対応する要素Ai,jに関係づけられてし、る請求の範囲第25項に記載の 並列分散処理ネットワーク。 −|Ai,j|=Rr/Ri,j 27.ノードの各々は反転入力端と非反転入力端とをもち、i番目の出力ノード は、情報記憶マトリックスの対応する要素Ai,jがゼロより小さいとき、j番 目の入力ノードの反転入力ポートに接続される請求の範囲第19項に記載の並列 分数処理ネットワーク。 28.j番目の入力ノードはその出力ポートとその非反転入力ポート間に接続さ れたフィードバック抵抗と、その非反転入力ポートに接続された接続抵抗とを備 え、フィードバック抵抗と接続抵抗は、次の関係式によって情報記憶マトリック スの対応する要素Ai,jに関係づけられている請求の範囲第27項に記載の並 列分散処理ネットワーク。 −|Ai,j|=Rr/Ri,j 29.ネットワークはハードウェア要素に実装されている請求の範囲第1項に記 載の並列分散処理ネットワーク。 30.ネットワークはプログラムに従って動作する汎用ディジタル・コンピュー タを使用して実行される請求の範囲第1項に記載の並列分散処理ネットワーク。 31.ネットワークはハードウェア要素に実装されている請求の範囲第2項に記 載の並列分散処理ネットワーク。 32.ネットワークはプログラムに従って動作する汎用ディジタル・コンピュー タを使用して実行される請求の範囲第2項に記載の並列分散処理ネットワーク。 33.情報記憶マトリックス[A]は、行列[T]の[T]−1が存在するとき 、次の行列積である請求の範囲第1項に記載の並列分散処理ネットワーク。 [A]=[T1[Λ][T]−1 34.情報記憶マトリックス[A]は、行列[T]の[T]−1が存在するとき 、次の行列積である請求の範囲第2項に記載の並列分散処理ネットワーク。 [A]=[T][Λ][T]−1 35.情報記憶マトリックス[A]は、行列[T]の[T]−1が存在するとき 、次の行列積である請求の範囲第5項に記載の並列分散処理ネットワーク。 [A]=[T][Λ][T]−1 36.情報記憶マトリックス[A]は、行列[T]の[T]−1が存在するとき 、次の行列積である請求の範囲第3項に記載の並列分散処理ネットワーク。 [A]=[T][Λ][T]−1 37.情報記憶マトリックス[A]は、行列[T]の[T]−1が存在するとき 、次の行列積である請求の範囲第9項に記載の並列分散処理ネットワーク。 [A]=[T][Λ][T]−1 38.情報記憶マトリックス[A]は、行列[T]の[T]−1が存在するとき 、次の行列積である請求の範囲第10項に記載の並列分散処理ネットワーク。 [A]=[T][Λ][T]−1 39.情報記憶マトリックス[A]は、行列[T]の[T]−1が存在するとき 、次の行列積である請求の範囲第13項に記載の並列分散処理ネットワーク。 [A]=[T][Λ][T]−1 40.情報記憶マトリックス[A]は、行列[T]の[T]−1が存在するとき 、次の行列積である請求の範囲第14項に記載の並列分散処理ネットワーク。 [A]=[T][Λ][T]−1 41.情報記憶マトリックス[A]は、行列[T]の[T]−1が存在するとき 、次の行列積である請求の範囲第16項に記載の並列分散処理ネットワーク。 [A]=[T][Λ][T]−1 42.情報記憶マトリックス[A]は、行列[T]の[T]−1が存在するとき 、次の行列積である請求の範囲第15項に記載の並列分散処理ネットワーク。 [A]=[T][Λ][T]−1 43.情報記憶マトリックス[A]は、行列[T]の〔T]−1が存在するとき 、次の行列積である請求の範囲第20項に記載の並列分散処理ネットワーク。 [A]=[T][Λ][T]−1 44.情報記憶マトリックス[A]は、行列[T]の[T]−1が存在するとき 、次の行列積である請求の範囲第19項に記載の並列分散処理ネットワーク。 [A]=[T][Λ][T]−1 45.情報記憶マトリックス[A]は、行列[T]の[T]−1が存在するとき 、次の行列積である請求の範囲第23項に記載の並列分散処理ネットワーク。 [A]=[T][Λ][T]−1 46.情報記憶マトリックス[A]は、行列[T]の[T]−1が存在するとき 、次の行列積である請求の範囲第21項に記載の並列分散処理ネットワーク。 [A]=[T][Λ][T]−1 47.情報記憶マトリックス[A]は、行列[T]の[T]−1が存在するとき 、次の行列積である請求の範囲第27項に記載の並列分散処理ネットワーク。 [A]=[T][Λ][T]−1 48.情報記憶マトリックス[A]は、行列[T]の[T]−1が存在するとき 、次の行列積である請求の範囲第25項に記載の並列分散処理ネットワーク。 [A]=[T][Λ][T]−1 49.ネットワークはハードウェア要素に実装されている請求の範囲第33項に 記載の並列分散処理ネットワーク。 50.ネットワークはプログラムに従って動作する汎用ディジタル・コンピュー タを使用して実行される請求の範囲第33項に記載の並列分散処理ネットワーク 。 51.ネットワークはハードウェア要素に実装されている請求の範囲第34項に 記載の並列分散処理ネットワーク。 52.ネットワークはプログラムに従って動作する汎用ディジタル・コンピュー タを使用して実行される請求の範囲第34項に記載の並列分散処理ネットワーク 。 53.複数のノードからなり、各ノードは入力と出力とをもっている並列分散処 理ネットワークを構築する方法であって、次のステップからなる方法:その列が 所定数(M)の[N×1]目標ベクトルに所定数(Q)の[N×1]不定ベクト ルを加えたものから形成され、各目標ベクトルが並列分散処理ネットワークの出 力の1つを表わしている(ただし、M<=NおよびQ=(N−M))[N×N] 類似変形行列を作成し、 その対角線上の各要素が類似変形行列の中のベクトルの所定の1つに対応し、そ の対角線上の各要素の相対値が並列分散処理ネットワークが対応する目標ベクト ルに向かって収束する速度に対応している[N×N]対角行列[Λ]を作成し、 次の行列式を満足する[N×N]情報記憶マトリックス[A]を作成し、 [A][T]=[T][Λ] 情報記憶マトリックスを評価して、情報記憶マトリックス[A]の要素の値を判 断し、 ノードの各々の出力がネットワーク内のノードの所定のいくつかのノードに所定 の接続重みによって接続され、情報記憶マトリックス[A]の要素Ai,jがj 番目の入力ノードとi番目の出力ノード間の接続重みを定義するように、ノード を単一の層に配列することによって、並列分散処理ネットワークを構築する。 54.評価するステップは、ガウス除去法によって実行される請求の範囲第53 項に記載の方法。 55.評価するステップは、デルタ・ルール法によって実行される請求の範囲第 53項に記載の方法。 56.構築するステップにおいて、ノードの各々の出力は、それ自身を含めて、 ネットワーク内のノードのすべての入力に接続されている請求の範囲第53項に 記載の方法。 57.構築するステップは、プログラムに従って動作する汎用ディジタル・コン ピュータを使用して実行される請求の範囲第53項に記載の方法。 58.構築するステップはハードウェア構成部品を相互接続することによって実 行される請求の範囲第56項に記載の方法。 59.構築するステップは、プログラムに従って動作する汎用ディジタル・コン ピュータを使用して実行される請求の範囲第56項に記載の方法。 60.構築するステップはハードウェア構成部品を相互接続することによって実 行される請求の範囲第56項に記載の方法。 [Claims] 1. It consists of multiple nodes connected in a single layer, each node has an input and an output, and the output of each node connects to a given connection to the input of a given number of nodes in the network. In a parallel distributed processing network connected by connection weights, the connection weights are defined by the [N×N] information storage matrix [A], and the elements Ai,j of the information storage matrix [A] are connected to the j-th input node and i It is the connection weight between the output nodes of It is an [N×N] similarity deformation matrix whose columns are formed by adding a predetermined number (M) of [N×1] target vectors to a predetermined number (Q) of [N×1] indefinite vectors. A vector represents one of the outputs of a parallel distributed processing network. (where M<=N and Q=(NM)), "Λ" is a [N×N] diagonal matrix, and each element on the diagonal of the matrix [Λ] is a similar transformation matrix. , and each element on the diagonal of the matrix [Λ] The relative value of a parallel distributed processing network corresponds to the speed at which the parallel distributed processing network converges toward the corresponding target vector. 2. 2. The parallel distributed processing network of claim 1, wherein the output of each node is connected to all inputs of the nodes in the network, including itself. 3. 2. The parallel distributed processing network of claim 1, wherein all of the vectors in the similar transformation matrix are linearly independent. 4. According to claim 3, all of the vectors in the similar transformation matrix are orthogonal. parallel distributed processing network. 5. 3. The parallel distributed processing network according to claim 2, wherein all of the vectors in the similar transformation matrix are linearly independent. 6. According to claim 5, all of the vectors in the similar transformation matrix are orthogonal. parallel distributed processing network. 7. Each element of the diagonal matrix [Λ] corresponding to the indefinite vector in the similar transformation matrix is equal to the value of each element of the diagonal matrix corresponding to the target vector in the similar transformation matrix. 6. The parallel distributed processing network according to claim 5, wherein the parallel distributed processing network has a value that is even smaller than that of . 8. Each element of the diagonal matrix [Λ] corresponding to the indefinite vector in the similar transformation matrix is equal to the value of each element of the diagonal matrix corresponding to the target vector in the similar transformation matrix. 4. The parallel distributed processing network according to claim 3, wherein the parallel distributed processing network has a value that is even smaller than that of the network. 9. Each element of the diagonal matrix [Λ] corresponding to the indefinite vector in the similar transformation matrix is equal to the value of each element of the diagonal matrix corresponding to the target vector in the similar transformation matrix. 3. The parallel distributed processing network according to claim 2, wherein the parallel distributed processing network has a value that is even smaller than . 10. Each element of the diagonal matrix [Λ] corresponding to the indefinite vector in the similar transformation matrix has a value smaller than the value of each of the components of the diagonal matrix corresponding to the target vector in the similar transformation matrix. Parallel distributed processing network according to claim 1 nine. 11. Each element of the diagonal matrix [Λ] corresponding to the indefinite vector in the similar transformation matrix has an absolute value smaller than 1, and each of the components of the diagonal matrix corresponding to the target vector in the similar transformation matrix 6. The parallel distributed processing network according to claim 5, wherein: has an absolute value greater than 1. 12. Each element of the diagonal matrix [Λ] corresponding to the indefinite vector in the similar transformation matrix has an absolute value smaller than 1, and each of the components of the diagonal matrix corresponding to the target vector in the similar transformation matrix 4. The parallel distributed processing network according to claim 3, wherein: has an absolute value greater than 1. 13. Each element of the diagonal matrix [Λ] corresponding to the indefinite vector in the similar transformation matrix has an absolute value smaller than 1, and each of the components of the diagonal matrix corresponding to the target vector in the similar transformation matrix 3. The parallel distributed processing network according to claim 2, wherein: has an absolute value greater than 1. 14. Each element of the diagonal matrix [Λ] corresponding to the indefinite vector in the similar transformation matrix has an absolute value smaller than 1, and each of the components of the diagonal matrix corresponding to the target vector in the similar transformation matrix 2. The parallel distributed processing network according to claim 1, wherein: has an absolute value greater than 1. 15. The parallel distributed processing network according to claim 2, further comprising a delay element placed between the output of each node and the input of the other node to which the output is connected. -k. 16. The parallel distributed processing network according to claim 1, further comprising a delay element placed between the output of each node and the input of the other node to which the output is connected. -k. 17. Connected to each output of a node to lower the value of the node's output to a predetermined upper limit. The claim further comprising a network limiting the range defined between the limits. Parallel distributed processing network according to item 16. 18. Connected to each output of a node to lower the value of the node's output to a predetermined upper limit. The claim further comprising a network limiting the range defined between the limits. Parallel distributed processing network according to item 15. 19. Connected to each output of a node to lower the value of the node's output to a predetermined upper limit. The claim further comprising a network limiting the range defined between the limits. Parallel distributed processing network according to item 2. 20. Connected to each output of a node to lower the value of the node's output to a predetermined upper limit. The claim further comprising a network limiting the range defined between the limits. Parallel distributed processing network according to item 1. 21. Each of the nodes has an inverting input terminal and a non-inverting input terminal, and the i-th output node is the j-th output node when the corresponding element Ai,j of the information storage matrix is greater than zero. 21. The parallel circuit according to claim 20, which is connected to the non-inverting input port of the second input node. Column distributed processing network. 22. The jth input node is connected between its output port and its non-inverting input port. a feedback resistor connected to its non-inverting input port, and a connection resistor connected to its non-inverting input port. Well, the feedback resistance and connection resistance are determined by the information storage matrix by the following relational expression. The arrangement according to claim 21 related to the corresponding element Ai,j of the Column distributed processing network. |Ai,j|=[1+(Rr/Ri,j)]23. Each of the nodes has an inverting input terminal and a non-inverting input terminal, and the i-th output node is the corresponding one of the information storage matrix. 20. The parallel distributed processing network according to claim 19, which is connected to the non-inverting input port of the j-th input node when the element Ai,j is greater than zero. 24. The jth input node is connected between its output port and its non-inverting input port. a feedback resistor connected to its non-inverting input port, and a connection resistor connected to its non-inverting input port. Well, the feedback resistance and connection resistance are determined by the information storage matrix by the following relational expression. The arrangement according to claim 23 related to the corresponding element Ai,j of the Column distributed processing network. |Ai;j|=[10(Rr/Ri,j)]25. Each of the nodes has an inverting input terminal and a non-inverting input terminal, and the i-th output node is the corresponding one of the information storage matrix. element Ai. 21. The parallel distributed processing network according to claim 20, which is connected to the inverting input port of the j-th input node when j is less than zero. 26. The jth input node is connected between its output port and its non-inverting input port. a feedback resistor connected to its non-inverting input port, and a connection resistor connected to its non-inverting input port. Well, the feedback resistance and connection resistance are determined by the information storage matrix by the following relational expression. 26. The parallel distributed processing network according to claim 25, wherein the parallel distributed processing network is associated with a corresponding element Ai,j of a class. −|Ai,j|=Rr/Ri,j 27. Each of the nodes has an inverting input terminal and a non-inverting input terminal, and the i-th output node is the j-th output node when the corresponding element Ai,j of the information storage matrix is less than zero. 20. The parallel fraction processing network of claim 19, wherein the parallel fraction processing network is connected to the inverting input port of the second input node. 28. The jth input node is connected between its output port and its non-inverting input port. a feedback resistor connected to its non-inverting input port, and a connection resistor connected to its non-inverting input port. Well, the feedback resistance and connection resistance are determined by the information storage matrix by the following relational expression. The arrangement according to claim 27 related to the corresponding element Ai,j of the Column distributed processing network. −|Ai,j|=Rr/Ri,j 29. According to claim 1, the network is implemented in a hardware element. parallel distributed processing network. 30. A network is a general-purpose digital computer that operates according to a program. The parallel distributed processing network according to claim 1, which is executed using a computer. 31. According to claim 2, the network is implemented in a hardware element. parallel distributed processing network. 32. A network is a general-purpose digital computer that operates according to a program. 3. The parallel distributed processing network according to claim 2, which is executed using a computer. 33. The parallel distributed processing network according to claim 1, wherein the information storage matrix [A] is the following matrix product when [T]-1 of the matrix [T] exists. [A]=[T1[Λ][T]-1 34. 3. The parallel distributed processing network according to claim 2, wherein the information storage matrix [A] is the following matrix product when [T]-1 of the matrix [T] exists. [A]=[T][Λ][T]-1 35. 6. The parallel distributed processing network according to claim 5, wherein the information storage matrix [A] is the following matrix product when [T]-1 of the matrix [T] exists. [A]=[T][Λ][T]-1 36. 4. The parallel distributed processing network according to claim 3, wherein the information storage matrix [A] is the following matrix product when [T]-1 of the matrix [T] exists. [A]=[T][Λ][T]-1 37. 10. The parallel distributed processing network according to claim 9, wherein the information storage matrix [A] is the following matrix product when [T]-1 of the matrix [T] exists. [A]=[T][Λ][T]-1 38. 11. The parallel distributed processing network according to claim 10, wherein the information storage matrix [A] is the following matrix product when [T]-1 of the matrix [T] exists. [A]=[T][Λ][T]-1 39. 14. The parallel distributed processing network according to claim 13, wherein the information storage matrix [A] is the following matrix product when [T]-1 of the matrix [T] exists. [A]=[T][Λ][T]-1 40. 15. The parallel distributed processing network according to claim 14, wherein the information storage matrix [A] is the following matrix product when [T]-1 of the matrix [T] exists. [A]=[T][Λ][T]-1 41. 17. The parallel distributed processing network according to claim 16, wherein the information storage matrix [A] is the following matrix product when [T]-1 of the matrix [T] exists. [A]=[T][Λ][T]-1 42. 16. The parallel distributed processing network according to claim 15, wherein the information storage matrix [A] is the following matrix product when [T]-1 of the matrix [T] exists. [A]=[T][Λ][T]-1 43. 21. The parallel distributed processing network according to claim 20, wherein the information storage matrix [A] is the following matrix product when [T]-1 of the matrix [T] exists. [A]=[T][Λ][T]-1 44. 20. The parallel distributed processing network according to claim 19, wherein the information storage matrix [A] is the following matrix product when [T]-1 of the matrix [T] exists. [A]=[T][Λ][T]-1 45. 24. The parallel distributed processing network according to claim 23, wherein the information storage matrix [A] is the following matrix product when [T]-1 of the matrix [T] exists. [A]=[T][Λ][T]-1 46. 22. The parallel distributed processing network according to claim 21, wherein the information storage matrix [A] is the following matrix product when [T]-1 of the matrix [T] exists. [A]=[T][Λ][T]-1 47. 28. The parallel distributed processing network according to claim 27, wherein the information storage matrix [A] is the following matrix product when [T]-1 of the matrix [T] exists. [A]=[T][Λ][T]-1 48. 26. The parallel distributed processing network according to claim 25, wherein the information storage matrix [A] is the following matrix product when [T]-1 of the matrix [T] exists. [A]=[T][Λ][T]-1 49. 34. The parallel distributed processing network of claim 33, wherein the network is implemented in hardware elements. 50. A network is a general-purpose digital computer that operates according to a program. 34. The parallel distributed processing network according to claim 33, wherein the parallel distributed processing network is executed using a computer. 51. 35. The parallel distributed processing network of claim 34, wherein the network is implemented in hardware elements. 52. A network is a general-purpose digital computer that operates according to a program. 35. The parallel distributed processing network according to claim 34, wherein the parallel distributed processing network is executed using a computer. 53. A parallel distributed processing system consisting of multiple nodes, each node having an input and an output. A method for constructing a logical network, which consists of the following steps: The column is a predetermined number (M) of [N×1] target vectors and a predetermined number (Q) of [N×1] indefinite vectors. each target vector is the output of the parallel distributed processing network. Expressing one of the forces (M <= N and Q = (NM)) [N × N] Create a similar deformation matrix, and each element on the diagonal is a vector in the similar deformation matrix. corresponds to a given one of The relative value of each element on the diagonal of is the target vector corresponding to the parallel distributed processing network. Create an [N×N] diagonal matrix [Λ] that corresponds to the speed of convergence toward A] [T] = [T] [Λ] Evaluate the information storage matrix to determine the values of the elements of the information storage matrix [A]. The output of each node is connected to a predetermined number of nodes in the network by a predetermined connection weight, and the element Ai,j of the information storage matrix [A] is connected to the j-th input node and the i-th input node. A parallel distributed processing network is constructed by arranging the nodes in a single layer to define the connection weights between the output nodes. 54. 54. The method of claim 53, wherein the step of evaluating is performed by a Gaussian subtraction method. 55. 54. The method of claim 53, wherein the step of evaluating is performed by a delta rule method. 56. 54. The method of claim 53, wherein in the step of constructing, the output of each of the nodes, including itself, is connected to all inputs of the nodes in the network. 57. The building steps are a general-purpose digital computer that operates according to the program. 54. The method of claim 53, which is performed using a computer. 58. The building steps are performed by interconnecting hardware components. 57. The method of claim 56, wherein the method is performed. 59. The building steps are a general-purpose digital computer that operates according to the program. 57. The method of claim 56, which is performed using a computer. 60. The building steps are performed by interconnecting hardware components. 57. The method of claim 56, wherein the method is performed.
JP2508502A 1989-06-02 1990-05-21 Parallel distributed processing network featuring information storage matrix Pending JPH04505678A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US36080489A 1989-06-02 1989-06-02
US360,804 1989-06-02

Publications (1)

Publication Number Publication Date
JPH04505678A true JPH04505678A (en) 1992-10-01

Family

ID=23419470

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2508502A Pending JPH04505678A (en) 1989-06-02 1990-05-21 Parallel distributed processing network featuring information storage matrix

Country Status (4)

Country Link
EP (1) EP0474747A4 (en)
JP (1) JPH04505678A (en)
CA (1) CA2017835A1 (en)
WO (1) WO1990015390A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5517667A (en) * 1993-06-14 1996-05-14 Motorola, Inc. Neural network that does not require repetitive training
US6054710A (en) * 1997-12-18 2000-04-25 Cypress Semiconductor Corp. Method and apparatus for obtaining two- or three-dimensional information from scanning electron microscopy
JP6183980B1 (en) * 2016-12-02 2017-08-23 国立大学法人東京工業大学 Neural network circuit device, neural network, neural network processing method, and neural network execution program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4731747A (en) * 1986-04-14 1988-03-15 American Telephone And Telegraph Company, At&T Bell Laboratories Highly parallel computation network with normalized speed of response
US4752906A (en) * 1986-12-16 1988-06-21 American Telephone & Telegraph Company, At&T Bell Laboratories Temporal sequences with neural networks
US4809193A (en) * 1987-03-16 1989-02-28 Jourjine Alexander N Microprocessor assemblies forming adaptive neural networks

Also Published As

Publication number Publication date
WO1990015390A1 (en) 1990-12-13
CA2017835A1 (en) 1990-12-02
EP0474747A4 (en) 1993-06-02
EP0474747A1 (en) 1992-03-18

Similar Documents

Publication Publication Date Title
Zhang et al. A geometrical representation of McCulloch-Pitts neural model and its applications
Marques et al. Identification and prediction of unsteady transonic aerodynamic loads by multi-layer functionals
Ponnapalli et al. A formal selection and pruning algorithm for feedforward artificial neural network optimization
CN111133431A (en) Mathematical problem solving circuit containing resistance element
JPH04505678A (en) Parallel distributed processing network featuring information storage matrix
Kressel The Impact of the Learning–Set Size in Handwritten–Digit Recognition
Shen et al. A fast learning algorithm of neural network with tunable activation function
US20040130956A1 (en) Hardware quantum gate
Garimella et al. Synthesis/programming of Hopfield associative memory
Belozyorov et al. On equivalence of linear control systems and its usage to verification of the adequacy of different models for a real dynamic process
Raudys et al. First-order tree-type dependence between variables and classification performance
Wilamowski Neural networks and fuzzy systems
Nadal On the storage capacity with sign-constrained synaptic couplings
Todorov et al. Two-Point Step Size Gradient Method for Solving a Deep Learning Problem
Rajabi et al. Analog circuit complementary optimization based on evolutionary algorithms and artificial neural network
Tan et al. A network with multi-partitioning units
Bhatti Performance analysis and comparison of a minimum interconnections direct storage model with traditional neural bidirectional memories
Urcid et al. Single layer morphological perceptron solution to the N-bit parity problem
Michaels High-order neural network employing adaptive architecture
Youse'zadeh et al. Neural Networks Modeling of Discrete Time Chaotic Maps
Safaei et al. The SWAG Algorithm; a Mathematical Approach that Outperforms Traditional Deep Learning. Theory and Implementation
Shynk et al. Analysis of a perceptron learning algorithm with momentum updating
Hassoun Dynamic associative memories
Tsiourvas Solving High Dimensional PDEs using Deep Learning
Jin How Do Machines Learn?