JP2714600B2 - Associative neurocomputer - Google Patents

Associative neurocomputer

Info

Publication number
JP2714600B2
JP2714600B2 JP63201094A JP20109488A JP2714600B2 JP 2714600 B2 JP2714600 B2 JP 2714600B2 JP 63201094 A JP63201094 A JP 63201094A JP 20109488 A JP20109488 A JP 20109488A JP 2714600 B2 JP2714600 B2 JP 2714600B2
Authority
JP
Japan
Prior art keywords
tree
code
neural network
pattern
graph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP63201094A
Other languages
Japanese (ja)
Other versions
JPH0250757A (en
Inventor
衛 田中
Original Assignee
衛 田中
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 衛 田中 filed Critical 衛 田中
Priority to JP63201094A priority Critical patent/JP2714600B2/en
Publication of JPH0250757A publication Critical patent/JPH0250757A/en
Application granted granted Critical
Publication of JP2714600B2 publication Critical patent/JP2714600B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Error Detection And Correction (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明はアレイ状の相互配線されたニューロコンピュ
ータの構成に係り、特に排他的論理和を基本とするニュ
ーロンが少なくとも二次元構造で隣接配置された連想型
ニューロコンピュータの構成に関する。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a configuration of an interconnected neurocomputer in an array, and in particular, an exclusive-OR based neuron is arranged adjacently in at least a two-dimensional structure. The configuration of the associative neurocomputer.

組み合わせ問題や最適化問題は積分器と量子化器から
成るアナログ素子を相互に結合することによって解くこ
とができることがHopfield等によって示され、このよう
なニューロコンピュータがVLSIの技術を用いて形成でき
るようになってきた。一般に、組み合わせ問題にはNP問
題と呼ばれるものがあり、このNP問題は汎用の逐次計算
機を用いると指数的な時間を要する。しかし、演算の並
列性が極めて高いニューロコンピュータを用いれば、NP
問題の解を実用的な時間で求めることができる可能性が
ある。例えば最短ルートで都市を巡回する最適解を見つ
ける巡回セールスマン問題では、都市の数が10の場合で
も可能な組み合わせは約181441通りもある。この問題は
Hopfield型のニューロコンピュータを用いるとごく少な
い計算で精度の高い近似解を求めることができる。ニュ
ーロコンピュータはNP問題を解くために、生物の脳や神
経と同様な情報処理プロセスを人工的に実現するのがね
らいである。そして、ニューロコンピュータでは、多数
のニューロンが相互に結合され、相互に協力しあって計
算や記憶を遂行するもので、1個の中央演算装置がプロ
グラムに従って逐次処理するノイマン型コンピュータと
は本質的に原理が異なるものである。
It has been shown by Hopfield et al. That combinatorial and optimization problems can be solved by interconnecting analog elements consisting of integrators and quantizers, and that such neurocomputers can be formed using VLSI technology. It has become Generally, there is a combination problem called an NP problem, and this NP problem requires exponential time when a general-purpose sequential computer is used. However, if a neurocomputer with extremely high computational parallelism is used, NP
It may be possible to find a solution to the problem in a practical time. For example, in the traveling salesman problem to find the optimal solution for traveling through cities on the shortest route, there are about 181441 possible combinations even when the number of cities is 10. This problem
If a Hopfield type neurocomputer is used, a highly accurate approximate solution can be obtained with very few calculations. In order to solve the NP problem, neurocomputers aim to artificially realize information processing processes similar to those of the brain and nerves of living things. In a neurocomputer, many neurons are connected to each other and perform calculations and storage in cooperation with each other. A Neumann computer in which one central processing unit sequentially processes according to a program is essentially a neurocomputer. The principle is different.

ニューロコンピュータを実現するための基本回路網
は、ニューラルネットと呼ばれる。ニューラルネットで
は、エネルギー関数が極小点に収束するように内部状態
が遷移する。そしてその収束点での出力パターンが期待
パターンと一致するように制御されれば、ニューラルネ
ット上で連想処理が可能となる。
A basic network for realizing a neurocomputer is called a neural network. In a neural network, the internal state transitions so that the energy function converges to a minimum point. If the output pattern at the convergence point is controlled so as to match the expected pattern, the associative processing can be performed on the neural network.

このようなニューラルネットにおいて、複数のニュー
ロンをLSIチップあるいはウェハー上に二次元あるいは
三次元にいかに配列しどのように相互に結合して置くか
という相互配線問題、ニューロン間のパルス信号をどの
ようにして伝送するかという通信問題、ニューロンどう
しの結合状態をいかに決めていくかという学習問題等の
不可欠な問題が数多く残されている。
In such a neural network, the interconnection problem of how to arrange two or three dimensions of two or more neurons on an LSI chip or wafer and how to connect them to each other. There are many indispensable problems, such as a communication problem of how to transmit a signal and a learning problem of how to determine a connection state between neurons.

〔従来の技術〕[Conventional technology]

第13図はHopfield型のニューラルネットの基本概念図
である。このニューラルネットは、4ビットのA/D変換
器を構成するもので、図中1は積分器、2は量子化器で
ある。積分器1と量子化器2から成る各ニューロンの出
力値はディジタル値である。各ニューロンの出力に重み
係数を掛けた値は他のニューロンの入力に帰還される。
各ニューロンの積分器1に入力する変数は、出力変数に
接続部の格子点3にある重み係数を掛けた値の総和であ
る。例えば、量子化器2の出力である出力変数の電圧V1
(4)は2倍されて2番目のニューロンに入力し、4倍
されて3番目のニューロンに入力し、8倍されて4番目
のニューロンに入力される。また、例えば2番目のニュ
ーロンの入力、すなわち微分変数は−V×2,X×2,V1×
2,V3×8,V4×16の全ての総和となる。この微分変数は積
分器1で積分され、状態変数となる。量子化器2は、状
態変数の値と閾値hを比較し、2値に量子化する。この
ニューラルネットではアナログ入力変数Xに対応する2
値のディジタル変数が4ビットとして出力される。出力
変数をV1,V2,V3,V4とすると、この回路では、 が満足されるように制御される。このとき、エネルギー
関数は、 となる。
FIG. 13 is a basic conceptual diagram of a Hopfield type neural network. This neural network constitutes a 4-bit A / D converter, in which 1 is an integrator and 2 is a quantizer. The output value of each neuron consisting of the integrator 1 and the quantizer 2 is a digital value. The value obtained by multiplying the output of each neuron by the weight coefficient is fed back to the input of another neuron.
The variable input to the integrator 1 of each neuron is the sum of values obtained by multiplying the output variable by a weighting factor at the grid point 3 at the connection. For example, the output variable voltage V 1 which is the output of the quantizer 2
(4) is doubled and input to the second neuron, quadrupled and input to the third neuron, multiplied by 8 and input to the fourth neuron. Further, for example, the input of the second neuron, that is, the differential variable is −V × 2, X × 2, V 1 ×
2, V 3 × 8, V 4 × 16. This differential variable is integrated by the integrator 1 to become a state variable. The quantizer 2 compares the value of the state variable with the threshold value h and quantizes the value into binary. In this neural network, 2 corresponding to the analog input variable X
The digital variable of the value is output as 4 bits. Assuming that the output variables are V 1 , V 2 , V 3 and V 4 , Is controlled to be satisfied. At this time, the energy function is Becomes

(2)式の第1項目は(1)式の左辺から右辺を引い
た数の2乗であり、(2)式は出力の電圧が0または1
に対応する2値であるということを表現している。
The first item of equation (2) is the square of the number obtained by subtracting the right side from the left side of equation (1), and equation (2) indicates that the output voltage is 0 or 1
Is represented as a binary value corresponding to.

このニューラルネットでは、(2)式のエネルギー関
数Eが最小になるように制御され、E=0となった値で
の出力変数V1,V2,V3,V4が求められ、これがAD変換の結
果となる。従って、このニューラルネットは、与えられ
た入力変数Xを(1)式の左辺の形に分解する組み合わ
せ問題を解いていることになる。与えられた変数を要求
される変数の和で表現する組み合わせ問題はNP問題であ
り、ノイマン型計算機では一般に指数関数的な時間がか
かることが知られている。ニューラルネットは、このよ
うなNP問題を高度な並列処理で解き、いうなれば、アナ
ログ遅延時間で計算することができる。
In this neural network, the energy function E in equation (2) is controlled to be minimized, and output variables V 1 , V 2 , V 3 , and V 4 at the value of E = 0 are obtained, and this is called AD. The result of the conversion. Therefore, this neural net solves the combination problem of decomposing the given input variable X into the form on the left side of equation (1). A combination problem that expresses a given variable by the sum of required variables is an NP problem, and it is known that a Neumann computer generally takes exponential time. The neural network can solve such an NP problem by advanced parallel processing, that is, it can be calculated by analog delay time.

第14図は従来の学習機能付のニューラルネットの概念
図である。ネットワークの階層構造であり、入力層5、
出力層7の間に中間層6がある。各層のユニットがニュ
ーロンであり、入力値に重みをかけた総和が閾値hより
も高けれは出力に値を生成する。このとき、ユニット間
の結合部ではそれぞれ可変の重み係数Wが付加される。
入力信号8は入力層5から出力層7へ伝わる。一方、学
習は出力層7から入力層5に向かって進む。学習とは実
際の出力と望ましい出力値すなわち教師信号10との差を
求め、その差のエラー信号12が小さくなるように、各層
の結合状態と重み係数を求めることである。すなわち、
入力層5の各ユニットに入力信号8を与えると、信号は
各ユニットで変換されて中間層6に伝わり、最後に出力
層7から出てくる。その出力信号9と望ましい教師信号
10とを比べ、その差を減らすように結合の強さが変えら
れる。このとき、信号は入力層5から出力層7に向かう
が結合係数を求めるための信号は出力層7から入力層5
に向かうので、学習は入力データの処理とは逆方向、つ
まり後向きに進む。そのため、このような学習方式はバ
ックプロパゲーション方式と呼ばれている。
FIG. 14 is a conceptual diagram of a conventional neural network with a learning function. It is a hierarchical structure of the network, and has an input layer 5,
There is an intermediate layer 6 between the output layers 7. If the unit of each layer is a neuron and the sum of input values weighted is higher than the threshold value h, a value is generated at the output. At this time, a variable weighting coefficient W is added to each of the coupling sections between the units.
The input signal 8 is transmitted from the input layer 5 to the output layer 7. On the other hand, learning proceeds from the output layer 7 to the input layer 5. The learning means finding a difference between an actual output and a desired output value, that is, the teacher signal 10, and finding a connection state and a weight coefficient of each layer so that the error signal 12 of the difference becomes small. That is,
When an input signal 8 is given to each unit of the input layer 5, the signal is converted in each unit, transmitted to the intermediate layer 6, and finally exits from the output layer 7. Its output signal 9 and the desired teacher signal
Compared to 10, the strength of the bond can be changed to reduce the difference. At this time, the signal goes from the input layer 5 to the output layer 7, but the signal for calculating the coupling coefficient is output from the output layer 7 to the input layer 5.
, The learning proceeds in a direction opposite to the processing of the input data, that is, in the backward direction. Therefore, such a learning method is called a back propagation method.

バックプロパゲーション方式のニューラルネットでは
結果の誤差を減らすように結合の強さを変える漸化式に
よって記述され、この漸化式による反復計算が収束する
まで繰り返され、収束した段階までの回数Nが学習回数
となる。この階層構造のニューラルネットを用いてパタ
ーン認識あるいは連想処理が実行できることが既に示さ
れている。
The back propagation neural network is described by a recurrence formula that changes the strength of the connection so as to reduce the error in the result, and the iterative calculation by this recurrence formula is repeated until convergence, and the number N until the convergence stage is It becomes the number of times of learning. It has already been shown that pattern recognition or associative processing can be performed using this hierarchically structured neural network.

第15図は従来の連想メモリの構造である。従来の連想
メモリは検索入力パターン13が与えられると、このパタ
ーンと連想パターン14のすべてに対してビット毎に一致
するかどうかが排他的論理和を用いて検索される。検索
入力パターン13と連想パターン14が一致した場合に、そ
の位置に対応するデータ15が出力される。例えば検索入
力パターン13に人の名前に対応するコードが入力された
場合に、その人の名前と同じ名前のコードが連想パター
ン14上にあれば一致し、データ部15から例えばその人の
電話番号が出力される。
FIG. 15 shows the structure of a conventional associative memory. In the conventional associative memory, when a search input pattern 13 is given, whether or not this pattern and the associative pattern 14 match on a bit-by-bit basis is searched using exclusive OR. When the search input pattern 13 matches the association pattern 14, data 15 corresponding to the position is output. For example, when a code corresponding to a person's name is input to the search input pattern 13, if a code having the same name as the person's name is found on the association pattern 14, the code matches, and for example, the telephone number of the person Is output.

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

従来のHopfield型あるいはバックプロパゲーション方
式のニューラルネットではニューロン間を接続する接続
部が予め完全グラフにして置く必要がある。すなわち、
各ニューロンの出力はそれ以外の他のニューロンの入力
に配線され、どのニューロンの実験に結合するかは結合
の重み係数の値で決定される。バックプロパゲーション
方式で最適な結合状態が求まったとしても、LSI上での
配線はすでに完全グラフになっている。換言すれば、完
全グラフ上での技を重み係数を変えることによってニュ
ーロン間の接続状態の有無を決めることになる。
In a conventional Hopfield-type or back-propagation type neural network, it is necessary that a connecting portion connecting neurons be completely graphed in advance. That is,
The output of each neuron is wired to the inputs of the other neurons, and which neuron is connected to the experiment is determined by the value of the weight coefficient of the connection. Even if the optimal coupling state is determined by the back propagation method, the wiring on the LSI is already a complete graph. In other words, the presence or absence of a connection state between neurons is determined by changing the weight coefficient of the technique on the complete graph.

さらに従来のニューラルネットでは、ニューロンが一
次元的な配列になっており、しかも、各ニューロンから
の出力線が他のニューロンに向かって引き廻されて接続
されている。従って、構造的にも大規模なLSI上に多く
のニューロンを配列することができないという欠点を有
する。
Further, in a conventional neural network, neurons are arranged in a one-dimensional array, and output lines from each neuron are routed to and connected to other neurons. Accordingly, there is a disadvantage that many neurons cannot be arranged on a large-scale LSI in terms of structure.

また、Hopfield型のニューラルネットでは、エネルギ
ー関数が最小になるように制御されるが、このエネルギ
ー関数が多くの極値を持っている場合には収束した極値
が要求された解ではない場合も生じるという問題があ
る。しかも、動作が極めてアナログ的な非線形動作であ
るため、設計の仕方によっては不安定で発振現象を起こ
す場合もあり、従って、解析や設計方式が非常に難しい
という問題がある。Hopfield型のニューラルネットは、
最適問題を解くための並列型アナログ計算機であって、
連想処理を得意とする人間の脳のニューラルネットとは
動作的にもかなり違うものと考えられる。
In a Hopfield-type neural network, the energy function is controlled so as to be minimized.If the energy function has many extrema, the converged extrema may not be the required solution. There is a problem that arises. In addition, since the operation is an extremely analog non-linear operation, it may be unstable and cause an oscillation phenomenon depending on a design method, and therefore, there is a problem that an analysis and a design method are extremely difficult. Hopfield type neural net is
A parallel analog computer for solving an optimal problem,
It is considered that the operation is quite different from the neural network of the human brain, which is good at associative processing.

また第15図の従来方式の連想メモリは検索入力パター
ンと連想パターンとの完全マッチングによるもので曖昧
性の処理はない。検索入力パターンに適当なビットをマ
スクすることはできるが、これはマスクに対応するビッ
トを訂正するものではなく、従って検索入力パターンの
中に誤りビットがあっても連想できるという線形符号の
概念は利用されていない。さらに連想部の連想パターン
は横方向に配列され、従って一次元構造である。そのた
め、LSIに対して大きな連想部を構成することができ
ず、さらに連想パターンが検索入力パターンのビット幅
は固定となり、製作された段階で決定されてしまうこと
になる。さらに連想部に欠陥があった場合にはこれが致
命的な欠陥となるという問題点が生じていた。
The conventional associative memory shown in FIG. 15 is based on perfect matching between a search input pattern and an associative pattern, and has no ambiguity processing. Although the appropriate bits can be masked in the search input pattern, this does not correct the bits corresponding to the mask, and therefore the concept of a linear code that can be associated even if there are error bits in the search input pattern is Not used. Furthermore, the associative patterns of the associative section are arranged in the horizontal direction, and thus have a one-dimensional structure. For this reason, a large associative unit cannot be formed for the LSI, and the bit width of the associative pattern of the search input pattern is fixed and determined at the stage of production. Further, when the associating portion has a defect, the defect becomes a fatal defect.

本発明は排他的論理和を基本とするニューロンを二次
元あるいは三次元構造でアレイ状に隣接配列し、符号グ
ラフ理論的に連想動作を行う大規模集積化に適する連想
型ニューロコンピュータを提供することを目的とする。
An object of the present invention is to provide an associative neurocomputer suitable for large-scale integration in which neurons based on exclusive OR are arranged adjacently in an array in a two-dimensional or three-dimensional structure and perform associative operations in a code graph theory. With the goal.

〔課題を解決するための手段〕[Means for solving the problem]

第1図は本発明の構成図である。 FIG. 1 is a block diagram of the present invention.

ニューロンを相互に配線して形成されるニューラルネ
ット(16)において、本発明では、例えば、各部分ニュ
ーラルネット(17)を形成するグラフの閉路を表現する
2値系列を電流符号として対応させる。そして、その電
流符号の最小符号間距離はグラフの最小閉路の長さに対
応するので、その最小符号間距離によって定められる誤
り訂正能力が連想の曖昧性の能力に対応させる。そして
学習処理時において、電流符号の一部である21の補木
(細線)上に補木学習入力パターンを与え、ビット誤り
がないように線形グラフ符号の電流符号を生成し、その
電流符号の他の一部である木電流符号を木連想パターン
として部分ニューラルネット(17)内の木(太線(2
0))上に記憶させる。そして連想処理時において、記
憶されたその木連想パターンと補木上に入力された補木
検索入力パターンの中から各ニューロン(18)が隣接す
る枝の値を入力し、2を法とする加算でシンドロームを
計算し、そのシンドロームが0になるようにビット誤り
を訂正し、学習時に生成した電流符号に復号することに
より連想する。すなわち、本発明では、ニューラルネッ
トのグラフにおける閉路を表現する電流符号をカットセ
ットと閉路が直交するというグラフの基本概念を用いて
形成し、その閉路を表現する電流符号の誤り訂正能力を
用いて等価的にニューラルネット上の最小閉路(19)の
枝の数に対応する最小符号間距離から定まる誤り訂正能
力を用いて学習処理及び連想処理を行うことを特徴とす
る。
In a neural network (16) formed by mutually interconnecting neurons, in the present invention, for example, a binary sequence expressing a closed path of a graph forming each partial neural network (17) is made to correspond as a current code. Then, since the minimum inter-code distance of the current code corresponds to the length of the minimum cycle of the graph, the error correction capability determined by the minimum inter-code distance corresponds to the capability of ambiguity of association. In the learning process, a complementary tree learning input pattern is given on 21 complementary trees (thin lines) that are a part of the current code, and a current code of a linear graph code is generated so that there is no bit error. Trees in the partial neural network (17) (thick line (2
0)) Store on top. At the time of the associative processing, each neuron (18) inputs the value of the adjacent branch from the stored tree associative pattern and the complementary tree search input pattern input on the complementary tree, and performs addition modulo 2. , Calculate the syndrome, correct the bit error so that the syndrome becomes 0, and decode it into a current code generated at the time of learning. That is, in the present invention, a current code expressing a cycle in a graph of a neural network is formed using the basic concept of a graph that a cut set and a cycle are orthogonal to each other, and an error correction capability of the current code expressing the cycle is used. The learning processing and the associative processing are performed by using an error correction capability determined from the minimum inter-code distance corresponding to the number of branches of the minimum cycle (19) on the neural network equivalently.

さらに、本発明では全体のニューラルネット(16)を
このような複数の部分ニューラルネット(17)に学習時
にカット枝(23)の電流値を0にすることにより分解
し、各部分ニューラルネット(17)において、上記の学
習と連想の処理を独立かつ並列に行うように構成してい
る。
Further, in the present invention, the entire neural network (16) is decomposed into a plurality of such partial neural networks (17) by setting the current value of the cut branch (23) to 0 during learning, and each partial neural network (17) is decomposed. ), The learning and the associative processing are performed independently and in parallel.

〔作用〕[Action]

本発明では各ニューロンは基本的には2を法とする加
算すなわち排他的論理和を用いている演算器で、しかも
ニューラルネット全体が完全グラフではなく、各ニュー
ロンの動作は近傍の枝の情報に対する加算のみとするこ
とで、学習と連想処理が可能となる。さらに各部分ニュ
ーラルネットはその部分ニューラルネットを形成するカ
ット閉曲線(24)上の枝(23)の値を0にすることによ
って形成でき、ウェハー等に必然的に発生する結晶欠陥
等がある場合にはその結晶欠陥を含むように部分ニュー
ラルネットを生成すればよいことになる。
In the present invention, each neuron is basically an arithmetic unit using addition modulo 2, that is, exclusive OR, and the entire neural network is not a complete graph. By using only addition, learning and association processing can be performed. Further, each partial neural network can be formed by setting the value of the branch (23) on the cut closed curve (24) forming the partial neural network to 0, and when there is a crystal defect or the like that inevitably occurs on a wafer or the like. Is to generate a partial neural network so as to include the crystal defect.

〔実施例〕〔Example〕

次に本発明の実施例を図面を参照して説明する。ま
ず、誤り訂正符号の原理を説明する。
Next, an embodiment of the present invention will be described with reference to the drawings. First, the principle of the error correction code will be described.

線形符号理論では、0と1に関し、0+0=0、0+
1=1、1+0=1、1+1=0という2を法とする加
法あるいは排他的論理和と呼ばれる加法が用いられる。
入力パターンXを送った時の出力パターンYはY=X+
eと表わされ、誤りパターンeが0であればY=Xとな
り、誤りがないことになる。誤りパターンeが0でなけ
れば出力パターンYは入力パターXと異なり、その時の
eが誤りパターンとなる。この時演算子+は2を法とす
る加算すなわち排他的論理和である。例えばXが0110
1、eが11001とすればY=X+eは10100なる。誤りパ
ターンeの要素の1の数はXとYの距離となる。すなわ
ち入力XとYとの間のビットの違いの数を距離という。
一般に符号語の最小処理dmとは、符号語の集合の中から
任意の2つの符号語XiとXjをとり、その間の距離を求め
た場合にその距離が最小となるものをいう。線形符号理
論によれば、最小処理dmが3以上であれば1ビットの訂
正を行うことができ、最小距離dmが5以上であるば2ビ
ットの訂正を行うことができる。
In linear code theory, 0 + 0 = 0, 0+
An addition method modulo 2 of 1 = 1, 1 + 0 = 1, 1 + 1 = 0 or an addition method called exclusive OR is used.
Output pattern Y when input pattern X is sent is Y = X +
e, and if the error pattern e is 0, Y = X and there is no error. If the error pattern e is not 0, the output pattern Y is different from the input pattern X, and the e at that time is an error pattern. At this time, the operator + is an addition modulo 2, that is, an exclusive OR. For example, if X is 0110
If 1 and e are 11001, Y = X + e becomes 10100. The number of 1s in the element of the error pattern e is the distance between X and Y. That is, the number of bit differences between inputs X and Y is called distance.
Generally, the minimum processing d m of code words, take any two codewords X i and X j from the set of code words, say what the distance is minimized when the determined distance therebetween. According to the linear coding theory, the minimum processing d m it is possible to perform the correction of 1 bit if 3 or more, the minimum distance d m can perform correction of two bits if is 5 or more.

符号語Xはある情報を符号化したものである。符号語
XはX=(I,P)で表現され、Iを情報系列、Pは検査
系列と呼び、情報系列の各ビットを情報ビット、検査系
列の各ビットを検査ビットと言う。検査系列Pは符号語
Xの最小距離dmが大きくなるように付加された冗長系列
である。Xのビット数nを符号長、情報ビットの数をk
とした場合、この符号を(n,k)符号とかく。2を法と
する加法を基本とする符号は線形符号と呼ばれ、内積は
1または0の値を有する。2を法とする加算を用いると
線形符号は連立斉次一次方程式 の解Xの全ての集合と定義することができる。
The code word X is obtained by encoding certain information. The codeword X is represented by X = (I, P), I is called an information sequence, P is called a test sequence, each bit of the information sequence is called an information bit, and each bit of the test sequence is called a check bit. Check series P is appended redundant sequence so that the minimum distance d m of codeword X increases. The bit number n of X is code length, and the number of information bits is k
, This code is referred to as an (n, k) code. Codes based on addition modulo 2 are called linear codes, and the inner product has a value of 1 or 0. Using addition modulo 2, the linear code is a system of simultaneous linear equations Can be defined as all sets of the solution X.

すなわち、(3)式は行列を用いると、 HX=0 ・・・・・(4) となる。(3),(4)式はパリティ検査方式と呼ば
れ、その係数行列Hは検査行列と呼ばれる。行列Hに対
して2つの行を交換したり、1つの行に別の行を加えた
り、全要素が0の行を除くという基本行操作を行うと、
一般に検査行列Hは H=〔UF〕 ・・・・・(5) となる。この基本行操作を行っても線形符号Xは変わら
ないことが知られている。(5)式においてUは単位行
列でFは主要部と呼ばれる部分行列である。符号語Xは
情報系列Iと検査系列Pとに分離できる組織符号とすれ
ば、(5)式を(4)式に代入して が得られる。(6)式より P=I ・・・・・(7) が得られる。すなわち検査系列Pは情報系列Iに主要部
をかけたものとして得られる。逆にいうと情報系列I
からPを形成することにより、線形符号Xが生成され
る。
That is, when a matrix is used in Expression (3), HX = 0... (4) Equations (3) and (4) are called a parity check method, and the coefficient matrix H is called a check matrix. When two rows are exchanged for the matrix H, another row is added to one row, or a basic row operation of excluding a row in which all elements are 0 is performed,
In general, the parity check matrix H is given by H = [UF] (5). It is known that the linear code X does not change even if this basic row operation is performed. In equation (5), U is a unit matrix, and F is a submatrix called a main part. If codeword X is a systematic code that can be separated into information sequence I and test sequence P, substituting equation (5) into equation (4) Is obtained. From equation (6), P = I (7) is obtained. That is, the test sequence P is obtained by multiplying the information sequence I by the main part. Conversely, the information sequence I
Forming a linear code X from

今、符号語X′が X′=X+e ・・・・・(8) で与えられた場合にX′とXとの距離はe内の1の数d
(e)である。ここで、Xは(4)式を満足するものと
する。受信した信号がX′とした場合にもし誤りパター
ンeがわかれば2を法とする加算により誤りパターンe
をX′に加え、 X=X′+e ・・・・・(9) よりXが求まる。このことはX′は符号語Xに“連想”
されたことを意味し、連想の曖昧性はX′とXとの距離
すなわち誤りパターンeの1の数d(e)で示される。
Now, when the code word X 'is given by X' = X + e (8), the distance between X 'and X is the number d of 1 in e.
(E). Here, it is assumed that X satisfies Expression (4). If the received signal is X ', if the error pattern e is known, the error pattern e is obtained by addition modulo 2.
Is added to X ', and X is obtained from X = X' + e (9). This means that X 'is "associative" with codeword X.
This means that the association is ambiguous, and the ambiguity of the association is indicated by the distance between X ′ and X, that is, the number d (e) of 1 in the error pattern e.

例えば誤りパターンeの1の数が2である場合には、
X′はXに対して距離2の曖昧性を持って連想されたこ
とになる。そこで、本発明では、誤りパターンeの1の
数を連想の曖昧度という。また、X′を検索入力パター
ン、符号語Xを連想パターンという。このとき、検索入
力パターンX′は連想パターンXに曖昧度d(e)で連
想されるという。
For example, when the number of 1s in the error pattern e is 2,
X ′ is associated with X with an ambiguity of distance 2. Therefore, in the present invention, the number of 1s in the error pattern e is called associative ambiguity. X 'is called a search input pattern, and codeword X is called an associative pattern. At this time, the search input pattern X 'is said to be associated with the association pattern X with the degree of ambiguity d (e).

連想パターンXは(4)式が満足されるように形成さ
れるが、検索入力パターンX′が与えられた時、検査行
列Hに検索入力パターンX′をかけても(4)式が満足
されるとは限らない。すなわち、検索行列Hに検索入力
パターンX′をかけると HX′=H(X+e)=He ・・・・・(10) で、 He=S ・・・・・(11) となり0でないベクトルSが得られる。このベクトルS
をシンドロームという。検索入力パターンX′を検査行
列Hにかけた結果、0でないシンドロームSが得られた
場合に、このシンドロームSから誤りパターンeが求め
られれば、検索入力パターンX′は連想パターンXに対
応するものであるということがわかる。すなわち検索入
力パターンX′は曖昧度d(e)で連想パターンXに連
想されたことになる。
The associative pattern X is formed so as to satisfy the expression (4). However, when the search input pattern X 'is given, the expression (4) is satisfied even when the check matrix H is multiplied by the search input pattern X'. Not necessarily. That is, when the search matrix H is multiplied by the search input pattern X ', HX' = H (X + e) = He (10), He = S (11), and the non-zero vector S becomes can get. This vector S
Is called a syndrome. As a result of applying the search input pattern X ′ to the check matrix H, if a syndrome S that is not 0 is obtained, and if an error pattern e is obtained from the syndrome S, the search input pattern X ′ corresponds to the associative pattern X. You can see that there is. That is, the search input pattern X 'is associated with the association pattern X with the degree of ambiguity d (e).

今、検査行列Hを とする。行列Hの列ベクトルは全てが0のパターンを除
く全ての3ビットパターンで構成されている。この検査
行列Hに対応する線形符号は情報系列1が4ビットで検
査系列Pが3ビットである組織符号である。この検査行
列Hに である誤りパターンをかけるとシンドロームSは検査行
列Hの第4列目のパターン となる。
Now, check matrix H And The column vector of the matrix H is composed of all 3-bit patterns except for the pattern of all 0s. The linear code corresponding to the parity check matrix H is a systematic code in which the information sequence 1 has 4 bits and the parity check sequence P has 3 bits. This check matrix H , The syndrome S becomes the pattern in the fourth column of the parity check matrix H. Becomes

逆に、検索入力パターンX′を検査行列Hにかけて出
来たシンドロームSが(101)(Tは転置を表わす)
のパターンであるとき、行列HからこのシンドロームS
と同一パターンの4列目を整合すれば、誤りパターンe
は4ビット目が1である(13)式の系列として生成でき
る。この動作がシンドロームSから誤りパターンeを検
出するもので、復号の原理である。誤りパターンeが生
成されれば検索入力パターンX′にeを加えて連想パタ
ーンXを連想することが可能となる。(12)式の行列H
はハミング符号を形成するための検査行列である。この
線形符号は1ビットの誤りを訂正することが可能で、連
想動作として考える場合には曖昧度d(e)=1で連想
が可能な線形符号となっている。すなわち、ハミング符
号では、任意の2つの連想パターンXiとXjとの距離は3
以上であって、Xと1ビットだけ違うX′が入力されて
も、そのX′はXに復元することが可能となり、X′が
Xに曖昧度1で連想される。
Conversely, the syndrome S formed by applying the search input pattern X ′ to the parity check matrix H is (101) T (T represents transpose).
, The syndrome S from the matrix H
If the fourth column of the same pattern is matched, the error pattern e
Can be generated as a sequence of Expression (13) in which the fourth bit is 1. This operation detects the error pattern e from the syndrome S, and is the principle of decoding. When the error pattern e is generated, it becomes possible to associate the associative pattern X by adding e to the search input pattern X '. Matrix H of equation (12)
Is a parity check matrix for forming a Hamming code. This linear code can correct a 1-bit error, and when considered as an associative operation, is a linear code that can be associated with an ambiguity d (e) = 1. That is, in the Hamming code, the distance between any two associative patterns X i and X j is 3
As described above, even if X 'that is different from X by one bit is input, that X' can be restored to X, and X 'is associated with X with an ambiguity of 1.

2ビット訂正が可能な検査行列Hを形成するには、検
査行列Hのどの2つの列ベクトル{hi,hj}を加えても
出来た列ベクトルは検査行列のどの列ベクトルにも一致
しないようにする。以上が線形符号の復号方式の簡単な
原理である。
To form a parity check matrix H capable of 2-bit correction, the column vector obtained by adding any two column vectors {h i , h j } of the parity check matrix H does not match any column vector of the parity check matrix To do. The above is the simple principle of the linear code decoding method.

本発明ではこのような線形符号理論に加えてさらにグ
ラフ理論の考え方を導入する。
The present invention further introduces the concept of graph theory in addition to such linear coding theory.

検査方程式は標準形で表現すると(6)式に対応して
次式で表現される。
When the inspection equation is expressed in a standard form, it is expressed by the following equation corresponding to the equation (6).

これを Qi=0 ・・・・・(16) と表現する。 This is expressed as Qi = 0... (16).

ここで、行列Qはt×bの行列であり、単位行列It
主要部Fとに分解されるものとする。またベクトルiは
t次元の木電流符号itとl次元の補木電流符号ilに分解
される。符号語iは電流符号と呼ばれ、行列Qは符号理
論上では検査行列に対応するが、グラフ理論では、基本
カットセット行列と呼ばれる。
Here, the matrix Q is a matrix of t × b, and shall be decomposed into a main portion F and the unit matrix I t. The vector i is decomposed into t dimensions of the tree current sign i t and l dimensions of the complement tree current sign i l. The code word i is called a current code, and the matrix Q corresponds to a parity check matrix in code theory, but is called a basic cutset matrix in graph theory.

(15)式を変形すると、 it=F・il ・・・・・(17) となり、l次元の補木電流符号ilがわかれば木電流符号
itがわかることになる。この関係を電流グラフGiを用い
て更に詳細に説明する。
By transforming equation (15), it becomes: i t = F · i l (17), and if the l-dimensional complementary tree current code i l is known, the tree current code
i t will be is seen. It will be described in more detail with reference to the current graph G i this relationship.

第2図は補木電流符号ilから木電流符号itを求める過
程を説明するための実施例図である。グラフGiは一般に
節点と枝の集合であって、連結グラフであるとする。グ
ラフGiの枝は木枝集合と補木枝集合に分割することが可
能である。「木」というのは全ての節点を通り閉路を含
まない枝の集合であって第2図のグラフでは太線で示さ
れている。木でない枝の集合を補木枝という。第2図の
グラフでは細線で示された枝が補木枝である。今補木枝
{b6,b7,b8}の重み係数(電流値)の系列は電流符号i
の情報系列であって、その情報ビットは左から順番に10
1で、これを(b6,b7,b8)=(101)とかく。補木枝の電
流値の系列(b6,b7,b8)を情報系列として与えられたと
する。曲線1,2,3,4,は基本カットセット
Q1,Q2,Q3,Q4,Q5を求めるための閉曲線である。閉曲線
は木枝b1によって定義され、によって切られる枝
集合のうち1本のみが木枝b1でそれ以外は補木枝b6にな
る。これより基本カットセットQ1={b1,b6}が定義さ
れる。閉曲線は木枝b2を切り、それ以外は補木枝で
あるb6とb7を切る閉曲線となっている。は木枝b3
切ってそれ以外は補木枝であるb7を切っている。
木枝b4を切ってそれ以外は補木枝b7,b8を切っている。
は同様に木枝b5を切りそれ以外は補木枝b8を切る閉
曲線となっている。このような基本カットセットQi(i
=1,2,・・・,5)は閉曲線によって切られる枝集合
として定義され、1つの木が定義されれば一意に定まる
ものである。
Figure 2 is an example illustrating a process of obtaining a wood current code i t from Hoki current code i l. Graph G i is a general set of nodes and branches, and is a connected graph. Branches of the graph G i is capable of dividing the Kieda set and Hokieda set. A "tree" is a set of branches that pass through all the nodes and do not include a cycle, and are indicated by thick lines in the graph of FIG. A set of non-tree branches is called a complement tree branch. In the graph of FIG. 2, the branch indicated by a thin line is a complement tree branch. Now, the sequence of the weighting coefficients (current values) of the complementary tree branches {b 6 , b 7 , b 8 } is the current code i
The information bit is 10 bits in order from the left.
At 1, this is written as (b 6 , b 7 , b 8 ) = (101). It is assumed that a sequence (b 6 , b 7 , b 8 ) of the current value of the complement tree branch is given as an information sequence. Curves 1 , 2 , 3 , 4 , and 5 are basic cut sets
This is a closed curve for obtaining Q 1 , Q 2 , Q 3 , Q 4 , and Q 5 . Closed curve
1 is defined by Kieda b 1, only one of the branch group which are cut by 1 is Hokieda b 6 except it Kieda b 1. From this, the basic cut set Q 1 = {b 1 , b 6 } is defined. Closed curve 2 is off the Kieda b 2, the other has become a closed curve to cut the b 6 and b 7 is a co-tree branch. 3 except it off the Kieda b 3 is off to a b 7 is a co-tree branch. 4 except it off the Kieda b 4 is off to a Hokieda b 7, b 8.
5, except it off the Kieda b 5 in the same way and has a closed curve to cut the Hokieda b 8. Such a basic cut set Q i (i
= 1, 2,..., 5) is defined as a branch set cut by the closed curve i , and is uniquely determined if one tree is defined.

キルヒホッフの電流則はカットセット上の枝を流れる
電流の総和は0であるという法則である。2を法とする
加算すなわち排他的論理和で表現すると、電流則は、例
えばカットセットQ1では補木枝b6の電流値(以下単に
「値」という場合もある)が1である場合には、Q1上の
枝の値の和が2を法として0になるように木枝の値が決
められることを意味する。従って、b1は1となる。基本
カットセットQ2上で考えるとb6が1でb7が0であるか
ら、木枝b2の値は1となる。Q3上では、補木枝b7が0で
あるから、木枝b3も0となる。Q4上では、木枝b4は補木
枝b7が0、b8が1であるから、b4は0となる。基本カッ
トセットQ5では、b8が1であるから、b5が1となる。こ
のように補木枝の値が2値系列として与えられると木枝
の値は一意に定まる。これを表現しているのが(17)式
である。即ち、補木枝の値は電流符号の情報系列il(以
下、これを補木電流符号という)に対応し、基本カット
セット行列の主要部Fをかけることによって木枝の検査
系列it(以下、これを木電流符号という)が定まる。
Kirchhoff's current law is that the sum of the currents flowing through the branches on the cutset is zero. When 2 is expressed by adding i.e. exclusive modulo, current law, for example, when the cut set Q 1 in the current value of Hokieda b 6 (hereinafter sometimes referred to simply as "value") is 1 Means that the value of the tree branch is determined so that the sum of the branch values on Q 1 becomes 0 modulo 2. Therefore, b 1 is 1. Since b 7 is 0 b 6 Given over basic Cutset Q 2 is 1, the value of Kieda b 2 is 1. On Q 3 are because Hokieda b 7 is 0, the Kieda b 3 also 0. On Q 4 are, because Kieda b 4 is Hokieda b 7 is 0, b 8 is 1, b 4 is zero. In basic cutset Q 5, because b 8 is 1, b 5 is 1. As described above, when the value of the complementary tree branch is given as a binary sequence, the value of the tree branch is uniquely determined. This is expressed by equation (17). That is, the value of the complementary tree branch corresponds to the information sequence i l of the current code (hereinafter, referred to as the complementary tree current code), and by multiplying the main part F of the basic cutset matrix, the test sequence i t ( Hereinafter, this is referred to as a tree current code).

第2図のグラフGiに対応する基本カットセット行列Q
は次式で与えられる。
Basic cutset matrix Q corresponding to the graph G i of FIG. 2
Is given by the following equation.

(18)式においてb1からb5の列ベクトルによってでき
る単位行列がItに対応し、b6からb8までの列ベクトルが
主用部Fになっている。各行は各基本カットセット
{Q1,Q2,Q3,Q4,Q5}に含まれる枝集合を1で表現したも
のである。例えば、第1行目ではb1とb6が1でそれ以外
は0である。これは閉曲線によって定義される基本
カットセットQ1すなわちb1とb6を表現している。第2行
目はb2によって定義される基本カットセットQ2を表現
し、木枝は1本のみでb2で、補木枝はb6とb7であるか
ら、主要部Fではb6,b7に対応する列が1となる。第3
行目はb3によって定義される基本カットセットQ3であ
り、b7の列に1がある。b4によって定義される基本カッ
トセットQ4には補木枝b7,b7が含まれているので対応す
る列に1がある。b5によって定義される基本カットセッ
トQ5には補木枝b8があるからb8の列に1がある。
(18) matrix which can be from b 1 by the column vectors of b 5 corresponds to I t In the equation, the column vector from b 6 to b 8 is in the main vision portion F. Each row represents a branch set included in each of the basic cut sets {Q 1 , Q 2 , Q 3 , Q 4 , Q 5 } as 1. For example, in other in b 1 and b 6 is 1 the first row is zero. It expresses the basic cut set Q 1 That b 1 and b 6 is defined by a closed curve 1. The second row represent the basic cutset Q 2 to which is defined by b 2, Kieda in b 2 in only one, because Hokieda is b 6 and b 7, the main unit F b 6 , column corresponding to b 7 becomes 1. Third
Row is a fundamental cut set Q 3 defined by b 3, there is a 1 in the column of b 7. Basically cutset Q 4 defined by b 4 is 1 in the column corresponding because it contains Hokieda b 7, b 7. Basically cutset Q 5 is defined by b 5 is 1 in the column of b 8 because there are Hokieda b 8.

補木電流符号は(b6,b7,b8)=(101)であるから、b
6,b7,b8の列ベクトルから形成される主要部F を掛けると、木電流符号itが求まり、次式となる。
Since the complementary tree current sign is (b 6 , b 7 , b 8 ) = (101), b
6, b 7, the main unit F which is formed from a column vector b 8 , The tree current code i t is obtained, and the following equation is obtained.

このパターンは第2図に示される木枝の値に対応して
いる。そして、i=(it,il=(11011101)は閉
路{b1,b2,b6}と閉路{b4,b5,b8}を表現している。す
なわち電流符号iはカットセットに直交する閉路を表現
する。このように(17)式の関係式から求められる線形
符号を電流符号と呼ぶ。電流符号を形成するグラフを電
流グラフGiと呼ぶ。
This pattern corresponds to the tree branch values shown in FIG. Then, i = (i t, i l) T = (11011101) T is representing the closed {b 1, b 2, b 6} and closing {b 4, b 5, b 8}. That is, the current code i represents a closed circuit orthogonal to the cut set. The linear code obtained from the relational expression (17) is called a current code. The graph forming a current code is called a current graph G i.

一般に、線形符号理論の基本概念をグラフ理論的に解
釈することが可能となり、電流グラフGiの基本カットセ
ット行列Qを符号の検査行列Hに対応させれば、その符
号はグラフGiの閉路あるいは2を法とする加算でキルヒ
ホッフの電流則を満足する電流符号に対応する。すなわ
ち、基本カットセット行列Qの各行は基本カットセット
を表現し、キルヒホッフの電流則を満足する電流符号i
はその電流グラフGiの閉路であって、電流符号iに含ま
れる1に対応する枝の集合はグラフGiの閉路になってい
る。換言するならば、基本カットセット行列Qと電流符
号iとの積はカットセットと閉路とが直交することを意
味し、これはグラフ理論の基本概念の1つである。本発
明は、線形符号理論とグラフ理論における基本概念を用
いて構成される連想ニューロコンピュータである。
In general, it becomes possible to interpret the basic concept of linear code theory in a graph theory, and if the basic cutset matrix Q of the current graph G i is made to correspond to the parity check matrix H of the code, the code becomes a closed circuit of the graph G i . Alternatively, an addition modulo 2 corresponds to a current code that satisfies Kirchhoff's current law. That is, each row of the basic cut set matrix Q represents a basic cut set, and a current code i that satisfies Kirchhoff's current law.
Is a closing of the current graph G i, the set of edges corresponding to 1 provided in the current code i is in the closing of the graph G i. In other words, the product of the basic cutset matrix Q and the current code i means that the cutset and the cycle are orthogonal, which is one of the basic concepts of graph theory. The present invention is an associative neurocomputer configured using basic concepts in linear coding theory and graph theory.

以上により、電流グラフGiの基本カットセット行列Q
を符号の検査行列Hに対応させれば、電流符号iは閉路
を表わすことが明らかにされた。従って、もし電流グラ
フGiに並列枝がなければ、どの閉路も3個以上の枝で形
成されるので、その電流符号iの最小符号間距離dmは3
以上となる。一般に線形符号の最小符号間距離dmは0符
号でない符号に含まれる1の個数の最小値に等しいこと
が知られている。電流符号iは電流グラフGiの閉路を表
わすので、その最小符号間距離dmはグラフGiの中で最も
少ない枝で構成される最小閉路の枝数に等しい。従っ
て、グラフGiに並行枝がなければ、どんなグラフGiでも
最小閉路に含まれる枝は3以上である。そこで、グラフ
Giの最小閉路の枝の数dmを最小閉路の長さと呼ぶことに
する。
By the above, the basic cut set matrix Q of the current graph G i
Is made to correspond to the parity check matrix H of the code, it has been revealed that the current code i represents a closed circuit. Therefore, if there is no parallel branch to the current graph G i If, because any closed is also formed by three or more branches, the minimum code distance d m of the current code i 3
That is all. Generally the minimum code distance d m linear codes are known to be equal to the minimum of the number of 1s included in the code not zero code. Since current sign i represents the closing of the current graph G i, the minimum code distance d m is equal to the number of branches of the minimum closed composed lowest branch in the graph G i. Therefore, if there are no parallel edges in the graph G i, there are three or more edges included in the minimum cycle in any graph G i . So the graph
The number d m branches of the minimum closing of G i is referred to as the length of the smallest closed.

今、最小閉路の長さがdmである電流グラフGiをニュー
ラルネットとして形成した場合、そのニューラルネット
における電流符号iの最小符号間距離はdmとなる。すな
わち、並列枝を含まないニューラルネットに対してQi
0より定まる電流符号iは最小符号間距離が3以上とな
り、その符号化復号化方式が確立されれば、少なくとも
1ビットの誤りを訂正することが可能となる。一般にニ
ューラルネットNの最小閉路の長さdmが、 dm=2T+1 ・・・・(21) であるとき、電流符号iを用いればTビットの誤りを訂
正することが可能となり、このニューラルネットNは曖
昧度d(e)=Tの連想能力を有する。
Now, if the length of the smallest closed is formed as a neural net current graph G i is d m, the minimum inter-code distance of the current code i at the neural network becomes d m. That is, for a neural network that does not include parallel branches, Q i =
The current code i determined from 0 has a minimum inter-code distance of 3 or more, and if an encoding / decoding method is established, at least one bit error can be corrected. In general, when the minimum cycle length d m of the neural network N is d m = 2T + 1 (21), it is possible to correct a T-bit error by using the current code i. N has an associative ability with an ambiguity d (e) = T.

例えば、第3図は簡単なニューラルネットのグラフ構
造を示す実施例図である。第3図(a)に示される正12
面体の最小閉路は五角形であるからこの正12面体のニュ
ーラルネットに対する電流符号iの最小符号間距離は5
となり、曖昧度d(e)=2の連想が可能となる。第3
図(b)に示される正20面体の最小閉路は三角形である
から最小符号間距離は3となり、曖昧度d(e)=1の
連想が可能となる。また、n個の節点からなる完全グラ
フGcは距離3の最小閉路を含むので電流符号iの最小符
号間距離は3となる。
For example, FIG. 3 is an embodiment diagram showing a graph structure of a simple neural network. The positive 12 shown in FIG.
Since the minimum cycle of the icosahedron is a pentagon, the minimum inter-code distance of the current code i for this decahedral neural network is
And the association of the ambiguity d (e) = 2 becomes possible. Third
Since the minimum cycle of the icosahedron shown in FIG. 7B is a triangle, the minimum inter-code distance is 3, and the association of the ambiguity d (e) = 1 is possible. The minimum code distance of the current code i since a complete graph G c of n nodes will contain minimal closing distance 3 is three.

なお、電流符号iの符号語数は補木枝の数をlとする
と2l−1である。
Note that the number of code words of the current code i is 2 l −1, where the number of complementary branches is 1.

次に基本カットセット行列Qと双対の関係にある基本
閉路行列Bを用いてそのBを検査行列Hに対応した場合
の電圧符号vについて説明する。
Next, a description will be given of a voltage code v in a case where a basic cycle matrix B having a dual relationship with the basic cutset matrix Q is used and B corresponds to a parity check matrix H.

電圧グラフGvに関して、キルヒホッフの電圧則は次式
で表現される。
With respect to the voltage graph G v, voltage law Kirchhoff is expressed by the following equation.

Bv=0 ・・・・・(22) ここで、行列Bは基本閉路行列でvは電圧符号であ
る。電圧符号vは1と0を要素する2値ベクトルであ
り、閉路とカットセットの直交性によりグラフGvのカッ
トセットを表わす。行列Bを検査行列Hとすれば電圧符
号vは線形符号に対応する。このとき、電圧グラフGv
木電圧符号vtが情報系列になり、補木電圧符号vlが検査
系列に対応する。すなわち vl=FTvt ・・・・・(23) の関係がある。ここで、電圧グラフGvが電流グラフGi
同じもので定義され、木も同じである場合には、基本閉
路行列Bの主要部FTは基本カットセット行列Qの主要部
Fの転置となる。(23)式より組織符号v=(vl,vt
が電圧グラフGvのカットセットとして定まる。なお、電
圧符号vを形成するグラフを電圧グラフGvと呼ぶ。電圧
符号vの符号語数は電圧グラフGvのカットセットの数で
あり、本枝数tに対して、2t−1となる。
Bv = 0 (22) Here, the matrix B is a basic cycle matrix, and v is a voltage sign. The voltage sign v is a binary vector elements 1 and 0, representing a cut set of a graph G v orthogonality of closed and cutset. If the matrix B is a parity check matrix H, the voltage code v corresponds to a linear code. At this time, the tree voltage code v t of the voltage graph G v becomes the information sequence, and the complementary tree voltage code v l corresponds to the test sequence. That is, there is a relationship of v l = F T v t ... (23). Here, if the voltage graph G v is defined by the same as the current graph G i and the tree is the same, the main part F T of the basic cycle matrix B is the transposition of the main part F of the basic cutset matrix Q. Become. From equation (23), the organization code v = (v l , v t )
There defined as a cut set of voltage graph G v. Note that a graph forming the voltage code v is referred to as a voltage graph Gv. Number of code words of voltage sign v is the number of cut set of voltage graph G v, relative to the branch number t, the 2 t -1.

第4図は電流符号iを形成するための電流グラフGi
電圧符号vを形成するための電圧グラフGvの簡単な実施
例図である。電圧符号vを電流符号iと比較しながら第
4図を用いて説明する。
FIG. 4 is a simple embodiment diagram of a current graph G i for forming a current code i and a voltage graph G v for forming a voltage code v. A description will be given with reference to FIG. 4 while comparing the voltage code v with the current code i.

第4図の電流グラフGiと電圧グラフGvにおいて、木T
は太線で示され、以下において、添字lは補木、添字t
は木であることを示すものとする。
In the fourth diagram of the current graph G i and the voltage graph G v, tree T
Are indicated by bold lines, and in the following, the suffix l is the complement tree, the suffix t
Indicates that it is a tree.

電流グラフGiにおいて、補木電流符号、 を与えると、基本カットセット{Q1,Q2,Q3}に関する電
流則によって木電流符号、 が定まる。そして、電流符号i=(it,ilは、グラ
フGiの1つの閉路{2,3,5,6}を表わす。
In current graph G i, complement wood current code, Gives the tree current sign according to the current law for the basic cutset {Q 1 , Q 2 , Q 3 }. Is determined. The current sign i = (i t, i l ) T represents a single closure {2,3,5,6} of a graph G i.

また、同図(b)の電圧グラフGvにおいて、電圧の値
として、 を与えると、基本閉路{B4,B5,B6}におけるキルヒホ
ッフの電圧則(閉路上の枝の電圧値の総和は0であると
いう法則)によって が定まる。そして、電圧符号v=(vl,vt)は、グラフG
vの1つのカットセット{1,2,3}を表わす。
Further, in the voltage graph G v in FIG (b), as the value of the voltage, Given by Kirchhoff's voltage law in the basic cycle {B 4 , B 5 , B 6 } (the rule that the sum of the voltage values of the branches on the cycle is 0) Is determined. The voltage sign v = (v l , v t ) is represented by the graph G
represents one cutset {1,2,3} of v .

電圧符号vは電圧グラフGvのカットセットを表わすの
で、その最小符号間距離dmは電圧グラフGvの中で最も少
ない枝で構成される最小カットセットの枝数に等しい。
もし、各節点にdm本の枝が連結している次数dmの正規グ
ラフGv(dm)を形成すれば、その電圧グラフGv(dm)上
でのキルヒホッフ電圧則Bv=0から定まる電圧符号vは
最小符号間距離がdmとなる。そしてdm=2T+1とすれ
ば、この符号化復号化方式ではTビットの誤りを訂正す
ることが可能となる。
Since voltage sign v represents the cut set of voltage graph G v, the minimum code distance d m is equal to the number of branches of the minimal cut set consisting of the lowest branch in the voltage graph G v.
If, by forming a regular graph G v (d m) of degree d m that branches d m present in each node are linked, Kirchhoff's voltage law Bv = 0 at thereon voltage graph G v (d m) voltage sign v determined from the minimum intersymbol distance is d m. If d m = 2T + 1, it is possible to correct a T-bit error in this encoding / decoding system.

n個の節点からなる完全グラフGcによる電圧符号vの
最小符号間距離はn−1となる。
minimum intersymbol distance voltage sign v by a complete graph G c of n nodes is n-1.

節点数nで次数dmの正規グラフGv(dm)の電圧符号v
の場合、SOの符号長は枝数=(1/2)dm×nで、情報点
数は、木枝数=n−1で、検査点数は補木枝数=(1/
2)dm×n−(n−1)にそれぞれ等しい。また符号語
数は2n-1−1となる。
Voltage sign v of a normal graph G v (d m ) of degree d m with node number n
If the code length of the SO in the branch number = (1/2) d m × n , information points is a Kieda number = n-1, test scores are Hokieda number = (1 /
2) Equal to d m × n- (n-1). The number of codewords is 2 n-1 -1.

以上をまとめると、電流グラフGi(電圧グラフGv)の
基本カットセット行列Q(基本閉路行列B)を符号の検
査行列Hに対応させれば、その符号はグラフの閉路(カ
ットセット)あるいは2を法とする加算でキルヒホッフ
の電流則(電圧則)を満足する電流符号(電圧符号)に
対応する。
In summary, if the corresponding basic cutset matrix Q of the current graph G i (voltage graph G v) (base closed matrix B) to the parity check matrix H of the code, the code is closed (cutset) Graph or It corresponds to a current code (voltage code) that satisfies Kirchhoff's current law (voltage law) by addition modulo 2.

次に、シンドロームについて説明する。 Next, the syndrome will be described.

さて、電流符号i(電圧符号v)に誤りが生じてi′
(v′)になったとすると、これをi(v)に復号する
ためには、一般に、次のようなシンドロームI(E)を
計算する。
Now, an error occurs in the current code i (voltage code v) and i ′
If it becomes (v '), to decode it to i (v), the following syndrome I (E) is generally calculated.

I=Qi ・・・・・(24−1) E=Bv ・・・・・(24−2) このとき、電流グラフGi(電圧グラフGv)では、シン
ドロームI(E)は、カットセットシンドローム(閉路
シンドローム)と呼ばれ、木枝(補木枝)に並列(直
列)に挿入された等価電流源(電圧源)の値に対応す
る。
I = Qi ····· (24-1) E = Bv ····· (24-2) At this time, the current graph G i (voltage graph G v), the syndrome I (E), the cutset It is called a syndrome (closed loop syndrome) and corresponds to the value of an equivalent current source (voltage source) inserted in parallel (series) with a tree branch (supplementary branch).

第5図はシンドロームを考慮した電流グラフと電
圧グラフの実施例図である。例えば、第4図(a)
の電流グラフGiにおいて、i4が0ではなく1に誤ったと
すれば、誤りパターンe4=〔000100〕に対して、 であるから、グラフGiは第5図(a)のような電流グラ
フGiに変わる。逆に、誤り位置がわからない場合、シン
ドロームI=〔011〕から誤り位置を発見する必要が
ある。I=〔011〕は、基本カットセットQ1が正し
く、Q2とQ3に誤りがあることを表わしている。今、2ビ
ット以上の誤りがないと仮定すれば、Q2とQ3の基本カッ
トセットに共通に含まれる枝e4の値が誤っていることが
発見できる。枝e4の値を1から0に変えれば復号ができ
る。
FIG. 5 is an embodiment diagram of the current graph i and the voltage graph v in consideration of the syndrome. For example, FIG.
In the current graph G i , if i 4 is erroneously set to 1 instead of 0, for the error pattern e 4 = [000100] T , Since it is, the graph G i is changed to the current graph G i as FIG. 5 (a). Conversely, if the error position is not known, it is necessary to find the error position from the syndrome I = [011] T. I = [011] T represents that basic cutset Q 1 is correct, there is an error in the Q 2 and Q 3. Now, assuming that there are no two or more bits of error, it can be found that the value of the branch e 4 included in common in the basic cutset Q 2 'and Q 3 is incorrect. The value of the branch e 4 can decode be changed from 1 to 0.

また、例えば第4図(b)の電圧グラフGvにおいて、
v1が1ではなく0に誤ったとすれば、誤りパターンe1
〔100000〕に対して、E=Be1=〔011〕となる。こ
こで、基本閉路行列はBは、 である。
Further, in the voltage graph G v of example FIG. 4 (b),
If v 1 is erroneous to 0 instead of 1, the error pattern e 1 =
For [100000] T , E = Be 1 = [011] T. Here, the basic cycle matrix B is It is.

グラフGvは第5図(b)のような電圧グラフに変
わる。逆に、電圧源の値として与えられるシンドローム
E=〔011〕は、2ビット以上の誤りがないと仮定す
れば、基本閉路B5とB6に共通に含まれる枝e1の値が誤っ
たことを意味する。枝e1の値を0から1に変えれば復号
ができる。
Graph G v is converted to a voltage graph v as FIG. 5 (b). Conversely, the syndrome E = [011] T given as the value of the voltage source, assuming that there is no two or more bits of error, the value of the branch e 1 included in common in the basic closed B 5 and B 6 erroneously Means that The value of the branch e 1 can decode be changed from 0 to 1.

このようにシンドロームは等価電流源Iあるいは等価
電圧源Eに対応することが示された。
Thus, it was shown that the syndrome corresponds to the equivalent current source I or the equivalent voltage source E.

次にグラフ理論を使って構成される線形グラフ符号を
用いて本発明のニューラルネットの学習連想動作の概念
を説明する。
Next, the concept of the learning associating operation of the neural network of the present invention will be described using a linear graph code constructed using graph theory.

第6図は、本発明のニューラルネットGiの簡単な概念
図である。図中、各節点NiにニューロンNiが存在し、各
枝bkはニューロンを結合するシナプス結合であるとす
る。また、このニューラルネットGiは電流グラフGiであ
るとする。従って、実施例として、この電流グラフGi
基本カットセット行列を符号の検査行列Hに対応させ、
その符号はグラフGiの閉路あるいは2を法とする加算で
キルヒホッフの電流則を満足する電流符号iになる。
6 is a simplified schematic diagram of a neural network G i of the present invention. In the figure, the neuron N i is present in each node N i, each branch b k is assumed to be synaptic bond linking neurons. Further, the neural network G i is assumed to be the current graph G i. Thus, as an example, the basic cut set matrix of the current graph G i in correspondence to the check matrix H of the code,
The sign becomes the current code i satisfying the current law Kirchhoff's in addition modulo closed or 2 of the graph G i.

本発明のニューラルネットGiは例えば、2次元的な位
置(X,Y)に存在する部分ニューラルネットGi(X,Y)の
集合であり、その最小閉路の長さはこの例では6とす
る。各部分ニューラルネットGi(X,Y)が特徴のある個
を連想する部分で、例えば、「大きな耳」、「大きな
目」、「大きな歯」に対応する情報を入力すると、
「狼」であると連想し発火する部分である。個々の部分
ニューラルネットGi(X,Y)は、第6図において、カッ
トセット閉曲線(X,Y)によって切られるカットセッ
トQ(X,Y)上の枝の電流の値を強制的に全て0にする
ことによって生成される。部分ニューラルネットGi(X,
Y)に入る電流の値を全て0にすることは、他の部分ニ
ューラルネットを全て短絡し、その部分ニューラルネッ
トGi(X,Y)に対するアース節点N0としてまとめ、さら
にそのアース節点N0から出る電流を全て0にすることを
意味する。このように、部分ニューラルネットGi(X,
Y)に入る枝の値を全て0にすることにより、電流符号
iによる連想処理は、各部分ニューラルネットGi(X,
Y)上で独立にしかもそれらの処理が並列に実行される
ことになる。
Neural Network G i of the present invention are, for example, two-dimensional position (X, Y) is a set of partial neural network G i present in (X, Y), the length of the smallest closed and 6 in this example I do. Each partial neural network G i (X, Y) is a part associated with a distinctive individual. For example, when information corresponding to “large ears”, “large eyes”, and “large teeth” is input,
It is the part that fires in association with "wolf". In FIG. 6, the individual partial neural networks G i (X, Y) forcibly set all the current values of the branches on the cut set Q (X, Y) cut by the cut set closed curve (X, Y). It is generated by setting it to 0. Partial neural net G i (X,
Making all 0 the value of the current entering the Y) are shorted all other parts neural network, that portion neural network G i (X, collectively as a ground node N 0 for Y), further the ground node N 0 Means that all the currents flowing out of the circuit are zero. Thus, the partial neural network G i (X,
By setting all branch values in Y) to 0, the associative processing using the current code i allows each partial neural network G i (X,
Y), and these processes are executed independently and in parallel.

部分ニューラルネットGi(X,Y)に関する基本カット
セット行列Qを検査行列Hとする電流符号iはQi=0と
なるように構成される。電流符号iはこの部分ニューラ
ルネットGi(X,Y)の閉路を表わす2値系列となる。こ
の電流符号iは少なくとも最小閉路の長さ6以上の数の
“1"を含み、最小符号間距離は6で、このニューラルネ
ットGiは少なくとも曖昧度d(e)=2の連想が可能と
なる。
The current code i using the basic cutset matrix Q for the partial neural network G i (X, Y) as the check matrix H is configured so that Qi = 0. The current code i is a binary sequence representing the closed circuit of the partial neural network G i (X, Y). The current sign i includes "1" of 6 or more lengths of at least a minimum closed, a minimum code distance is 6, the neural network G i can at least ambiguity d (e) = 2 associative and Become.

第7図は本発明の部分ニューラルネットの実施例図で
ある。この部分ニューラルネットGi(X,Y)は隣接する
部分ニューラルネットと接続されているが、Gi(X,Y)
に入る電流の値を学習的に強制的に全て0にすることに
よって他とは独立に学習連想動作を実行できるものであ
る。
FIG. 7 is an embodiment of a partial neural network according to the present invention. This portion neural network G i (X, Y) is connected to the adjacent portion neural network, G i (X, Y)
The learning associative operation can be executed independently of the others by forcibly making the value of the current entering into all zeros by learning.

以下では、この部分ニューラルネットGi(X,Y)にお
ける学習連想動作として説明する。なお、隣接の部分ニ
ューラルネットに接続する枝のうち1本の枝b28のみを
考慮し、その枝b28が木枝として、仮想的なアース節点N
0(他の部分ニューラルネットを全て短絡してできたも
の)に接続されてるものとする。
Hereinafter, a description will be given as a learning associative operation in the partial neural network G i (X, Y). Incidentally, considering only one branch b 28 of the branches to be connected to an adjacent portion neural net, the branches b 28 is as Kieda, virtual ground node N
0 (all of the other partial neural networks are short-circuited).

第7図の部分ニューラルネットGi(X,Y)において、
基本カットセット行列Qは1つの木{b7,b8,・・・
b28}を定義した場合、各木枝を切る基本カットセット
の閉曲線によって定義される。
Partial neural network G i of FIG. 7 (X, Y) in,
The basic cut set matrix Q is one of the tree {b 7, b 8, ···
When b 28 } is defined, it is defined by a closed curve i of a basic cut set for cutting each tree branch.

今、基本カットセット行列Qの代わりに各節点{N1,N
2,・・・N22}を切り取るカットセットのカットセット
行列と等価な接続行列Aを用いることを考える。この考
えを導入することにより、各ニューロンNiの基本動作は
自分に入る電流の総和が0になるように制御するものと
なる。
Now, instead of the basic cutset matrix Q, each node {N 1 , N
2, consider the use of cut-set matrix equivalent connection matrix A cutset cut ··· N 22}. By introducing this concept, the basic operation of each neuron N i is the controls so that the sum of currents entering his becomes zero.

第8図は第7図の部分ニューラルネットGi(X,Y)の
接続行列である。接続行列Aは行がニューロンN1,N2
・・Nn(n=22)に対応し、列が枝b1,b2・・・bm(m
=28)に対応する。そして、枝b28以外の枝に対応する
各列ベクトルは2つの1を含み、その1で対応する枝の
ニューロンへの接続状態が示されている。例えば、枝b1
はニューロンN1とN6に接続されているので、b1に対応す
る第1列目は1行目と6行目が1でそれ以外は0となっ
ている。また、枝b2はニューロンN3とN8に接続されてい
るので、2列目は3行目と8行目が1でそれ以外の行は
全て0であるような列ベクトルである。ニューロンN1
アースニューロンN0に接続された枝b28の接続状態は接
続行列Aの一番最後の列に示されているが、アースN0
対応する行は取り除かれている。そのために、b28に対
応する列ベクトルは1が1個だけ含まれている。
FIG. 8 is a connection matrix of the partial neural network G i (X, Y) of FIG. The connection matrix A has rows whose neurons N 1 , N 2.
Corresponding to ·· N n (n = 22) , column branch b 1, b 2 ··· b m (m
= 28). Each column vector corresponding to the branch other than the branch b 28 includes one of two connection states of the corresponding branch of neurons is shown in its 1. For example, branch b 1
Is because it is connected to the neurons N 1 and N 6, the first column corresponding to b 1 is the first row and the sixth row is 0 otherwise 1. Also, branch b 2 is because it is connected to the neuron N 3 and N 8, the second column is a column vector such that all three row and 8 row 1 other rows 0. Although the connection state of the neurons N 1 and the ground neuron N 0 to the connected branch b 28 are shown in the last column of the connection matrix A, the rows corresponding to the ground N 0 is removed. Therefore, the column vector corresponding to b 28 are included 1 only one.

この接続行列Aは、ニューロンNi(i=1,2,・・・,
n)とアースN0とを仮想的に接続したグランジェの木
(以下L木といい、TLで表現する)によって定義される
基本カットセット行列Qに等しく、このとき、枝b28
外の枝集合{b1,b2・・・bm-1}が補木となる。この接
続行列Aを検査行列とし、Ai=0の電流符号iを生成し
たとき、電流符号iはやはり閉路を表わす2値系列とな
る。しかも、その電流符号iは各ニューロンNiに流れ込
む電流の和が0になるように決められる。そしてQi=0
を満足する電流符号iであれば、接続行列Aに対しても
Ai=0を満足する。
This connection matrix A is composed of neurons N i (i = 1, 2,...,
n) is equal to a basic cutset matrix Q defined by a Grange's tree (hereinafter referred to as an L-tree and represented by T L ) virtually connecting the ground N 0 to the ground N 0, and at this time, the branches other than the branch b 28 The set {b 1 , b 2 ... B m-1 } is a complement. When this connection matrix A is used as a check matrix and a current code i of Ai = 0 is generated, the current code i is also a binary sequence representing a closed circuit. Moreover, the current code i is determined as the sum of the currents flowing in each neuron N i is zero. And Qi = 0
If the current code i satisfies
Ai = 0 is satisfied.

例えば、第7図の部分ニューラルネットGi(X,Y)に
対して太線の木Tを定義する。いま補木枝の値が図の
ようになっている場合、木枝Tの値はキルヒホッフの電
流則Qi=0に従って決められる。すなわち、各木枝によ
って定義される基本カットセットにおいて、2を法をす
る加算でキルヒホッフの電流則が満足されるように補木
枝の論理が決められるとすれば、結果は第7図に示され
るように木枝の値が定められる。例えばb7によって定義
される基本カットセットは閉曲線によって切られる
枝集合であるから、上にある補木枝はb1ある。補木
枝b1上の値は1であるから木枝b7の値はキルヒホッフの
電流則が満足されるように1となる。また、木枝b13
よって定義される基本カットセットQ13は閉曲線13
よって切られる枝集合である。補切枝の状態は(b1,b2,
b3)=(111)であるから木枝b13の値はキルヒホッフの
電流則が満足されるように1となる。
For example, to define the tree T of a thick line for the partial neural network G i of FIG. 7 (X, Y). If the value of the tree branch is as shown in the figure, the value of the tree branch T is determined according to Kirchhoff's current law Qi = 0. That is, if the logic of the complementary tree branch is determined so that Kirchhoff's current law is satisfied by addition modulo 2 in the basic cut set defined by each tree branch, the result is shown in FIG. The value of the tree branch is determined so that For example, since the basic cut set defined by b 7 is a set of branches cut by the closed curve 7 , the complement tree branch on 7 is b 1 . The value of Kieda b 7 the value of the on Hokieda b 1 is 1 is 1 so that the current law Kirchhoff is satisfied. The basic cutset Q 13 defined by Kieda b 13 is a branch group that is cut by the closed curve 13. The state of the prosthetic branch is (b 1 , b 2 ,
Since b 3 ) = (111), the value of the tree branch b 13 is 1 so that Kirchhoff's current law is satisfied.

このように全ての木枝の値は補木枝の値から定まり、
その結果が第7図に示されている。但しアースN0に接続
された木枝b28の状態は0とする。このように1つの木
Tを定義すれば、補木枝の値から木枝Tの値が定ま
る。このとき実は、各節点で観察すると全ての節点に入
り込む電流の総和は0になっている。例えばニューロン
N2に入る1の数は2であるから、2を法とする加算では
0となる。ニューロンN3に入る電流は(b2,b8,b9)=
(110)であるから、やはり総和は0となる。
Thus, the values of all tree branches are determined from the values of the complementary tree branches,
The result is shown in FIG. However, the state of the tree branch b 28 connected to the ground N 0 is 0. When one tree T is defined in this way, the value of the tree branch T is determined from the value of the complementary tree branch. At this time, in fact, when observed at each node, the sum of the currents entering all the nodes is zero. For example, neurons
Since the number of 1s in N 2 is 2, the addition modulo 2 is 0. The current into the neuron N 3 (b 2, b 8 , b 9) =
Since it is (110), the sum is also 0.

全ての枝の値が電流符号iであるから、この電流符号
iはb1からbmまでのm(m=28)次元ベクトルとなり、 となる。
Since the value of all the branches is a current code i, the current code i becomes m (m = 28) dimensional vector from b 1 to b m, Becomes

ニューロンN1に接続されている枝はb1,b7,b28で、こ
の接続関係は第8図の接続行列Aの第1行目に対応す
る。接続行列Aの1行目はb1列目が1、b7列目が1、b
28列目が1で、それ以外は0となっており、この行ベク
トルはニューロンN1がどの枝に接続されているかという
情報を表現する。この行ベクトルと上記の方法で定めら
れた電流符号i、すなわち全ての枝の値を表わす2値系
列を掛けると0になる。このことは、ニューロンN1に入
る込む電流の総和が0であることを意味する。このよう
に部分ニューラルネットGi(X,Y)上の各節点にあるニ
ューロンN1,N2・・・Nn(n=22)は隣接する枝の値を
入力し、2を法とする加算で常にその総和が0になるよ
うに、すなわち1の数を数えてその和が偶数になるよう
に制御する。
Branch connected to neuron N 1 is b 1, b 7, b 28 , the connection relationship corresponding to the first row of the connection matrix A in Figure 8. First row first column b is 1, b 7 column of connection matrix A is 1, b
28 column is 1, otherwise has become 0, representing the information as to this row vector are connected to which branch neurons N 1. When this row vector is multiplied by the current code i determined by the above method, that is, by a binary sequence representing the values of all the branches, the result becomes 0. This means that the sum of currents writing into the neurons N 1 is 0. Thus, the neurons N 1 , N 2 ... N n (n = 22) at each node on the partial neural network G i (X, Y) input the value of the adjacent branch and modulo 2 The addition is controlled so that the sum always becomes 0, that is, the number of 1 is counted so that the sum becomes an even number.

今、部分ニューラルネットGi(X,Y)において補木枝
(b1,b2,・・・b6)に情報系列(111000)が入力された
とする。補木枝の枝の数をl(=6)とすればこのlビ
ットは任意に与えられる。補木に与えられるこの入力パ
ターンは、学習処理においては補木学習入力パターンと
呼び、連想処理においては、補木検索入力パターンと呼
ぶことにする。また、木枝に与えられるパターンを木連
想パターンと呼び、これは、学習時に予め入力されるも
のとする。まず本発明の学習動作を説明する。
Now, it is assumed that an information sequence (111000) is input to the complementary tree branch (b 1 , b 2 ,..., B 6 ) in the partial neural network G i (X, Y). If the number of branches of the complement tree is l (= 6), this l bit is arbitrarily given. This input pattern given to the complementary tree is called a complementary tree learning input pattern in the learning process, and is called a complementary tree search input pattern in the associative process. A pattern given to a tree branch is called a tree association pattern, which is input in advance during learning. First, the learning operation of the present invention will be described.

部分ニューラルネットGi(X,Y)による学習処理にお
いて、各ニューロンNjは、補木学習入力パターンが与え
られると、各木枝の電流を初期状態から順番に制御し常
に入力される枝の電流の和が2を法とする加算で常に0
になるように制御する。例えば、全ての木枝の初期値を
0とし、自分のニューロンNjに入る電流の総和が0にな
るようにその木枝の値を変える。その制御は、Gi(X,
Y)上の全てのニューロンNj上でキルヒホッフの電流則
が満足されるまで続行される。もし、全てのニューロン
上で入る電流の総和が0になれば入力された補木学習入
力パターンは完全に学習されたことになる。これをシン
ドローム0において学習されたという。例えば、第7図
に示された枝の値になれば、シンドローム0で学習され
たことになる。同図において、各ニューロンNjの節点内
に示された状態がシンドロームS(Nj)=0の値であ
る。補木学習入力パターン(b1,b2,b3,b4,b5,b6)=(1
11000)は、例えば、(大きな耳、大きな目、大きな
歯、優しくない、しわがない、ハンサムでない)という
情報であるとすれば、学習により得られたシンドローム
0における木連想パターン(b7,b8,・・・b28)=(1,
1,・・・,0)は「狼」を表現するものである。この木連
想パターンはビット数が多いため、普通はニューラルネ
ットの外部に出力されず、「狼」を表現する部分ニュー
ラルネットGi(X,Y)の位置(X,Y)あるいは連想時に復
号化された補木パターン等が入出力の対象とする。この
ように、補木学習入力パターン(111000)によって位置
(X,Y)の部分ニューラルネットGi(X,Y)は「狼」を記
憶したことになる。従って、本発明の学習処理では、補
木枝に補木学習入力パターンを入力した場合、この入力
パターンを固定したままで、木枝の状態がある初期パタ
ーンからはじめて各ニューロンにおいて常に入り込む電
流の総和が0になるように制御されて定められる。この
制御の各ステップでは各ニューロンNjは隣接する枝の値
の和を節点電流源(NjとアースN0との間にある電流源)
に相当する節点シンドロームS(Nj)を出力し、S
(Nj)=1であれば、後述する学習アルゴリズムに従っ
て、S(Nj)=0となるように制御する。ここで、節点
シンドロームはL木に対するカットセットシンドローム
であるといえる。すなわち、本発明の学習処理では、補
木学習パターンを固定して、木連想パターンを求める処
理であって、木の電流値が初期パターンからはじめて各
節点で電流則が満足されるように決定される処理とな
る。その最終値では基本カットセットに流れる電流の総
和も0になっている。全体の部分ニューラルネットG
i(X,Y)で各閉曲線QKによって切られる基本カットセッ
トQK上の枝の値の総和が0になるように各ニューロンが
制御するようにしてもよいが、この場合には、補木の値
を木の方に伝送する必要がある。そのため、通信上の問
題が発生する。各ニューロンは隣接する枝の値のみを入
力して制御する方が構成が簡単となる。
In the learning process using the partial neural network G i (X, Y), when a complementary tree learning input pattern is given, each neuron N j controls the current of each tree branch in order from the initial state, and constantly controls the current of each input branch. The sum of the currents is always 0 in addition modulo 2.
Control so that For example, the initial value of branch all trees to 0, changing the value of the Kieda so that the sum of currents entering his neuron N j becomes 0. The control is G i (X,
Y) Kirchhoff Current Law on all neurons N j on is continued until satisfied. If the sum of the currents input on all the neurons becomes 0, the input complementary tree learning input pattern has been completely learned. This is said to have been learned in syndrome 0. For example, if the value of the branch shown in FIG. In the figure, a state shown in nodes of each neuron N j is the value of the syndrome S (N j) = 0. Complementary tree learning input pattern (b 1 , b 2 , b 3 , b 4 , b 5 , b 6 ) = (1
For example, if the information is (large ears, large eyes, large teeth, unfriendly, not wrinkled, not handsome), the tree association pattern (b 7 , b) in syndrome 0 obtained by learning is obtained. 8 ,... B 28 ) = (1,
1, ..., 0) expresses "wolf". Since this tree association pattern is the number of bits is large, usually is not output to the neural net external decoding position (X, Y) or at the time of an associative part neural network G i to represent "Wolf" (X, Y) The complemented tree pattern and the like are subjected to input and output. Thus, partial neural network G i (X, Y) position by a complement tree learning input pattern (111000) (X, Y) will be storing the "wolves". Therefore, in the learning process of the present invention, when a complementary tree learning input pattern is input to a complementary tree branch, the sum of the currents that always enter each neuron starting from an initial pattern with a state of the tree branch is fixed while this input pattern is fixed. Is controlled to be 0. Each neuron N j is the sum of the nodal current source value of the branch adjacent the respective steps of the control (current source located between the N j and ground N 0)
Output the nodal syndrome S (N j ) corresponding to
If (N j ) = 1, control is performed so that S (N j ) = 0 according to a learning algorithm described later. Here, it can be said that the nodal syndrome is a cutset syndrome for the L-tree. That is, in the learning process of the present invention, the complementary tree learning pattern is fixed, and the tree association pattern is obtained. The current value of the tree is determined so that the current rule is satisfied at each node starting from the initial pattern. Processing. At the final value, the sum of the currents flowing through the basic cut set is also zero. Whole partial neural net G
Each neuron may be controlled so that the sum of the branch values on the basic cut set Q K cut by each closed curve Q K at i (X, Y) becomes 0, but in this case, The value of the tree needs to be transmitted to the tree. Therefore, a communication problem occurs. The configuration of each neuron is simpler when inputting only the value of the adjacent branch is controlled.

補木学習入力パターンは情報系列であるから、どんな
パターンであっても、Gi(X,Y)上の各節点の節点シン
ドロームを全て0にすることが可能であり、学習アルゴ
リズムが収束して木枝の状態が全て定まれば、できた全
ての枝の値のパターンはQi=0(及びAi=0)を満足す
る電流符号iになっている。補木枝に与える補木学習入
力パターンは、「狼」「きこり」「おばあさん」などの
連想すべき個によって異なり、そら等の個に対応する部
分ニューラルネットにそれぞれ与えられる。このとき各
部分ニューラルネットにおいて、節点シンドロームが0
になるように学習アルゴリズムが実行され、それが収束
した時点での木連想パターンはそのまま木枝上に記憶さ
れる。
Since complement tree learning input pattern is information sequence, be any pattern, it is possible to G i (X, Y) of all 0 nodal syndromes of each node on the learning algorithm converges When all the states of the tree branches are determined, the pattern of the values of all the branches formed is a current code i that satisfies Qi = 0 (and Ai = 0). The complementary tree learning input pattern given to the complementary tree branch differs depending on the individual to be associated, such as "wolf", "kikori", "grandmother", and is given to the partial neural net corresponding to the individual such as the sky. At this time, in each partial neural network, the nodal syndrome is 0
The learning algorithm is executed so that the tree association pattern is stored as it is on the tree branch when it converges.

第9図は本発明の部分ニューラルネットによる学習ア
ルゴリズムを説明するための実施例図である。説明を簡
単にするために部分ニューラルネットのグラフ構造を簡
単にし、6個のニューロンと8本の枝から成る電流グラ
フで説明する。同図において枝b1,b2,b3は補木枝で、
b4,b5,b6,b7,b8は木枝であるとする。本発明の学習処理
においては補木枝に補木学習パターン(b1,b2,b3)=
(110)が与えられた時に節点シンドロームS(Nj)が
0になるような木連想パターンを求める動作となる。節
点シンドロームS(N1)からS(N5)までは各ニューロ
ンN1からN5の各節点に入り込む電流の総和の結果であ
る。また各木枝に並行に挿入れたシンドロームS′
(N1)からS′(N5)は基本カットセット上を流れる電
流の総和に相当するカットセットシンドロームである。
FIG. 9 is an embodiment diagram for explaining a learning algorithm using a partial neural network according to the present invention. For the sake of simplicity, the graph structure of the partial neural network is simplified, and a current graph composed of six neurons and eight branches will be described. In the figure, the branches b 1 , b 2 , b 3 are complementary branches,
It is assumed that b 4 , b 5 , b 6 , b 7 , and b 8 are tree branches. In the learning processing of the present invention, the complementary tree learning pattern (b 1 , b 2 , b 3 ) =
When (110) is given, the operation is to find a tree association pattern such that the node syndrome S (N j ) becomes 0. Node syndromes S (N 1 ) to S (N 5 ) are the result of the sum of currents flowing into each node of each neuron N 1 to N 5 . Syndrome S 'inserted in parallel to each tree branch
(N 1 ) to S ′ (N 5 ) are cutset syndromes corresponding to the sum of currents flowing on the basic cutset.

節点N6を今アースと考えるとN6以外のN1からN5にある
節点シンドロームS(N1)からS(N5)まではそれぞれ
カットセットシンドロームS′(N1)からS′(N5)に
1対1に対応する。すなわち、一般に、 S(Nj)=S′(Nj) とし、節点シンドロームS(Nj)がカットセットシンド
ロームS′(Nj)に対応するようにする。この対応関係
をつくることは必ず可能であり、アース以外の節点の数
がn−1で木枝の数も連結グラフにおいてはn−1だけ
あるから明らかである。さらに詳しくは、節点シンドロ
ームに対応するラグランジェの木(L木)の木枝から定
義された木Tの枝に1対1に対応する初等変換が可能で
あることからも明らかである。第9図では点線上の情報
が節点シンドロームS(Nj)であり、その値が丸印内の
値となってカットセットシンドロームS′(Nj)とな
る。
Node syndrome S (N 1) from the S (N 5) each cut set up with the N 1 other than N 6 Given node N 6 and now grounded to N 5 syndrome S '(N 1) from S' (N 5 ) One-to-one correspondence. That is, in general, S (N j ) = S ′ (N j ), and the node syndrome S (N j ) corresponds to the cut set syndrome S ′ (N j ). It is always possible to make this correspondence, and it is clear that the number of nodes other than the ground is n-1 and the number of tree branches is only n-1 in the connected graph. More specifically, it is clear from the fact that elementary transformation can be performed on a one-to-one basis to a branch of a tree T defined from a tree branch of a Lagrange tree (L-tree) corresponding to the nodal syndrome. In FIG. 9, the information on the dotted line is the nodal syndrome S (N j ), and the value becomes the value in the circle, and becomes the cut set syndrome S ′ (N j ).

本発明の学習処理では補木に入力された補木学習入力
パターンは固定であり、木枝上に任意の初期パターンを
与えた場合に節点シンドロームがすべて0、かつカット
セットシンドロームもすべて0になるように制御され
る。例えば、初期パターンとして第9図の(a)に示さ
れるように木枝の値をすべて0とする。この初期状態で
カットセットシンドロームS′(Nj)もすべて0である
とする。このような初期状態から第9図の(b)に移
る。
In the learning processing of the present invention, the complementary tree learning input pattern input to the complementary tree is fixed, and when an arbitrary initial pattern is given on the tree branch, the node syndromes are all zero and the cut set syndromes are all zero. Is controlled as follows. For example, as shown in FIG. 9A, the values of the tree branches are all set to 0 as the initial pattern. In this initial state, it is assumed that all of the cut set syndromes S ′ (N j ) are also 0. The process shifts from such an initial state to FIG. 9B.

ニューロンN1においては、b1=1、b4=0であるから
節点シンドロームS(N1)が1となり、対応するカット
セットシンドロームS′(N1)も1となる。N2において
はb4,b5,b6すべて0であるから、S′(N2)は0とな
る。N3においてはb1=1,b5=0、b2=1であるから和を
とるとS′(N3)は0となる。N4においてはb6=0、b7
=0、b8=0であるからS′(N4)は0となる。Nl5
おいてはb21、b7=0、b3=0であるからS′(N5)は
1となる。そして第9図の(c)に移る。
In neurons N 1, b 1 = 1, b 4 = 0 a is from node syndrome S (N 1) becomes 1, the corresponding cutset syndrome S '(N 1) also becomes 1. Since in the N 2 is b 4, b 5, b 6 all 0, S '(N 2) is zero. In N 3 , b 1 = 1, b 5 = 0 and b 2 = 1, so that S ′ (N 3 ) becomes 0 when the sum is calculated. B 6 = 0 In N 4, b 7
= 0 and b 8 = 0, so that S ′ (N 4 ) becomes 0. S '(N 5) is 1 because it is b 2 1, b 7 = 0 , b 3 = 0 in the N l5. Then, the process proceeds to (c) of FIG.

第9図(c)において、カットセットシンドローム
S′(Nj)が1である木枝の値は反転される。すなわ
ち、カットセットシンドロームS′(Nj)=1に並行に
存在する木枝の値は前の状態を反転することで訂正され
る。従って、木枝b4が0か1に変わり、S′(N1)は0
に変わる。また木枝b7の値も0から1に変わり、対応す
るカットセットシンドロームS′(N5)は0となる。第
9図(d)に移る。
In FIG. 9 (c), the value of the tree branch whose cut set syndrome S ′ (N j ) is 1 is inverted. That is, the value of the tree branch existing in parallel with the cut set syndrome S ′ (N j ) = 1 is corrected by inverting the previous state. Therefore, Kieda b 4 is changed to 0 or 1, S '(N 1) is 0
Changes to The value of Kieda b 7 also changes from 0 to 1, corresponding cutset syndrome S '(N 5) is zero. It moves to FIG. 9 (d).

第9図(d)において、ニューロンN2に入る込む電流
の総和は1+0+0で1となるので、S′(N2)は1に
変わる。また、N4においてもb6=0,b7=1,b8=0である
から、節点シンドロームS(N4)は1となり、対応する
カットセットシンドロームS′(N4)も1となる。第9
図(e)に移る。
In Figure 9 (d), since the sum of the current writing into the neurons N 2 becomes 1 1 + 0 + 0, S ' (N 2) is changed to 1. Moreover, consisting of a b 6 = 0, b 7 = 1, b 8 = 0 even in the N 4, node syndrome S (N 4) is 1, cutset syndrome S '(N 4) which also corresponds to 1 and . Ninth
It moves to a figure (e).

前の状態においてS′(N2)が1であるから、対応す
る木枝の木枝b6の値が0から1に変わる。同様にS′
(N4)が1であるから対応する木枝b8の値は0から1に
変わる。そして、第9図(f)に移る。
Since S ′ (N 2 ) is 1 in the previous state, the value of the corresponding tree branch b 6 changes from 0 to 1. Similarly, S '
Since (N 4 ) is 1, the value of the corresponding tree branch b 8 changes from 0 to 1. Then, the processing moves to FIG. 9 (f).

第9図(f)において、N4に入り込む電流の総和は1
+1+1であるから1となってS′(N4)が再び1に変
わる。第9図(g)に移ると第9図(f)において、
S′(N4)が1であるから対応する木枝b8の値が1から
0に変わる。
In FIG. 9 (f), the sum of the currents flowing into N4 is 1
Since it is + 1 + 1, it becomes 1 and S '(N 4 ) changes to 1 again. Turning to FIG. 9 (g), in FIG. 9 (f),
Since S ′ (N 4 ) is 1, the value of the corresponding tree branch b 8 changes from 1 to 0.

第11図(g)では、カットセットシンドロームS′
(Nj)が全て0の状態になっている。これは与えられた
補木枝のパターンに対して木枝のパターンが全て基本カ
ットセットに流れる電流の総和が0になるように決定さ
れたことを意味する。例えば、木枝b4に定義される基本
カットセットはb4とb1であるから共に1で、その総和が
0になっている。木枝b5によって定義される基本カット
セットはb5,b1,b2であるからその和はやはり0である。
木枝b6によって定義される基本カットセットはb6とb2
あるから共に1で和は0である。木枝b7によって定義さ
れる基本カットセットはb7,b2,b3で総和をとると0にな
っている。また、木枝b8によって定義される基本カット
セットはb8とb3であるから共に0となっている。従っ
て、これはシンドローム0において学習されたことを意
味する。
In FIG. 11 (g), the cut set syndrome S '
(N j ) are all 0. This means that, for a given complementary tree branch pattern, all the tree branch patterns have been determined so that the sum of currents flowing through the basic cutset becomes zero. For example, the basic cut set defined in Kieda b 4 a b 4 and b 1 are both 1 because, the sum is zero. Basic cut set defined by Kieda b 5 is the sum because a b 5, b 1, b 2 is also zero.
Since the basic cut sets defined by the tree branch b 6 are b 6 and b 2 , both are 1 and the sum is 0. Basic cut set defined by Kieda b 7 is set to 0 when summing in b 7, b 2, b 3 . Moreover, it is both zero because the basic cut set defined a b 8 and b 3 by Kieda b 8. Therefore, this means that learning was performed in syndrome 0.

このように本発明の学習処理においては、与えられた
補木学習入力パターンに対して木連想パターンが各ニュ
ーロンの節点において入り込む電流の総和、すなわち、
節点シンドロームが0になるように決定され、結果とし
て、基本カットセット上の電流の総和が0になるように
決定されている。
As described above, in the learning process of the present invention, the sum of the currents at which the tree association pattern enters at the nodes of each neuron with respect to the given complementary tree learning input pattern, that is,
The node syndrome is determined to be zero, and as a result, the sum of the currents on the basic cutset is determined to be zero.

次に、本発明の部分ニューラルネットGi(X,Y)にお
ける連想処理を説明する。連想処理時には、学習処理時
とは異なり、木枝上の木連想パターンは学習時に定まっ
たパターンとして固定され、補木枝に補木検索入力パタ
ーンが入力される。このとき、符号語に属さないパター
ンが枝に与えられる場合があり、全ての枝に対するパタ
ーンは必ずしも節点シンドロームを0にするとは限らな
い。今、全ての枝にあるパターンi′が与えられたとす
る。もし、このi′が電流符号であるならば、各節点の
ニューロンNjにおける節点シンドロームS(Nj)の値は
0になるはずである。しかし、もし符号語に属さなけれ
ば、i′=i+eとなり、誤りパターンeが0でないも
のとなる。そして、当然各ニューロンNjの中で節点シン
ドロームS(Nj)が0でないものがでてくる。すなわ
ち、枝にあるパターンを与えると、もし各ニューロンNj
の節点上で電流則が満足されていなければその電流則を
満足するようにそのニューロンNjはシンドロームS
(Nj)を1として出力する。このことは線形符号理論で
いえば、検査行列Hと誤りパターンeとの積のシンドロ
ームSが0でないことを意味し、グラフ理論上では接続
行列Aにeをかけた値が節点電流源に対応する節点シン
ドロームの値として出力されることを意味する。このと
き、Ae=Sであるから、誤りパターンeを出力するため
に、節点シンドロームSをできるかぎり0にするように
連想アルゴリズムが実行される。すなわち、この連想ア
ルゴリズムは木連想パターンを固定したまま、節点シン
ドロームSから誤りパターンeを見つける手続きにな
る。シンドロームSから誤りパターンeを求める過程は
符号理論と同様であるが、本発明では、この連想アルゴ
リズムは、ニューラルネット上で直接実行される。符号
理論から明らかなように、節点シンドロームSは誤りパ
ターンeの1の要素に対応する検査行列Aの列ベクトル
を加えたものであるから、節点シンドロームSからeが
求まれば、誤りパターンeの1の要素に対応する補木枝
の値を反転させればそれが連想の復号動作となる。電流
符号iが2ビット訂正可能な符号であるならば、誤りパ
ターンeの1の数は1個または2個である。誤りパター
ンeの1の要素に対応する補木枝の値を反転することに
より節点シンドロームが0になれば、2ビットの訂正能
力の範囲内すなわち曖昧度d(e)=2でi′は電流符
号iに連想されたことになる。電流符号iは従来の符号
理論により生成される符号と比べると情報点数と検査点
数の比、すなわち伝送速度は低いが、本発明では、木連
想パターンは木枝に保持さたまま連想処理が実行される
ので、符号の利用形態が従来と異なるものとなる。本発
明での連想処理では、木連想パターンには誤りは一般に
はなく、補木検索パターンにのみ曖昧性に伴う誤りがあ
るとして、その補木検索入力パターンを連想することに
なる。
Next, the association process in the partial neural network G i of the present invention (X, Y). At the time of associating processing, unlike at the time of learning processing, a tree associative pattern on a tree branch is fixed as a pattern determined at the time of learning, and a complementary tree search input pattern is input to a complementary tree branch. At this time, a pattern that does not belong to the code word may be given to the branch, and the pattern for all the branches does not always have the node syndrome set to 0. Now, suppose that a pattern i 'in all branches is given. If this i 'is the current code, the value of the node syndrome S (N j) in neurons N j of each node should be zero. However, if they do not belong to a code word, i ′ = i + e, and the error pattern e is not zero. Then, it comes out what node syndrome S (N j) is not zero in course of each neuron N j. That is, given a pattern on the branch, if each neuron N j
The syndrome S that neuron N j as current law on nodes in satisfies the current law if it is not satisfied
(N j ) is output as 1. This means that the syndrome S of the product of the check matrix H and the error pattern e is not 0 in the linear code theory, and the value obtained by multiplying the connection matrix A by e corresponds to the node current source in the graph theory. Output as a value of the nodal syndrome. At this time, since Ae = S, in order to output the error pattern e, the associative algorithm is executed so that the node syndrome S is made as small as possible. That is, this associative algorithm is a procedure for finding an error pattern e from the node syndrome S while keeping the tree associative pattern fixed. The process of obtaining the error pattern e from the syndrome S is the same as the coding theory, but in the present invention, this associative algorithm is directly executed on a neural network. As is clear from the coding theory, the nodal syndrome S is obtained by adding the column vector of the parity check matrix A corresponding to one element of the error pattern e, so if e is obtained from the nodal syndrome S, the If the value of the complement tree branch corresponding to the element of 1 is inverted, it becomes an associative decoding operation. If the current code i is a code capable of correcting two bits, the number of 1s in the error pattern e is one or two. If the nodal syndrome becomes 0 by inverting the value of the complement tree branch corresponding to the 1 element of the error pattern e, i 'is the current within the range of the 2-bit correction capability, that is, the ambiguity d (e) = 2. This is associated with the symbol i. The current code i has a lower ratio between the number of information points and the number of check points, that is, the transmission speed, as compared with a code generated by the conventional code theory. Therefore, the use form of the code is different from the conventional one. In the associative processing according to the present invention, it is assumed that there is generally no error in the tree associative pattern, and only the complementary tree search pattern has an error due to ambiguity, and the complementary tree search input pattern is associated.

次に、本発明の連続処理の動作をさらに詳細に説明す
る。第10図は本発明の部分ニューラルネットGi(X,Y)
による連想動作を説明するための実施例図である。同図
において、太線が木であって木連想パターン(b7,b8,・
・・・,b28)=(1,1,・・・,0)は第7図に示される木
連想パターンと同じもので、既に学習処理によって木枝
上の値として記憶されているものとする。連想処理は学
習処理とは逆に木枝上の値が固定で、その木連想パター
ンに対して補木枝に与えられた補木検索入力パターンが
曖昧度2をもって連想される処理となる。第10図に示さ
れる木連想パターンは例えば「狼」に対応するものとす
る。この状態で補木検索入力パターンとして、図に示さ
れるように、 (b1,b2,b3,b4,b5,b6)=(111100) が入力されたとする。この補木検索入力パターンは、例
えば(大きな耳,大きな眼,大きな歯,やさしい,しわ
がない,ハンサムでない)という情報に対応するもので
あり、(やさしい)ということ以外はほぼ「狼」を連想
させるものである。
Next, the operation of the continuous processing of the present invention will be described in more detail. FIG. 10 is a partial neural network G i (X, Y) of the present invention.
FIG. 6 is an embodiment diagram for explaining the associative operation according to FIG. In the figure, the bold line is a tree and the tree association pattern (b 7 , b 8 ,.
.., B 28 ) = (1, 1,..., 0) are the same as the tree association pattern shown in FIG. I do. The associating process is a process in which the value on the tree branch is fixed, contrary to the learning process, and the complementary tree search input pattern given to the complementary tree branch is associated with the tree association pattern with ambiguity 2. The tree association pattern shown in FIG. 10 corresponds to, for example, "wolf". In this state, it is assumed that (b 1 , b 2 , b 3 , b 4 , b 5 , b 6 ) = (111100) is input as a complementary tree search input pattern as shown in the figure. This complementary tree search input pattern corresponds to information such as (large ears, large eyes, large teeth, gentle, no wrinkles, not handsome), and is almost associated with "wolf" except for "friendly". It is to let.

上記の補木検索入力パターンが補木に与えられると部
分ニューラルネットGi(X,Y)上の各節点にあるニュー
ロンN1,N2,・・・,Nn(n=22)の各ニューロンNjは隣
接する枝の値を入力し、2を法とする加算を実行し、節
点シンドロームS(Nj)(j=1,2,・・・,n)を計算す
る。図中各ニューロンNjの節点内に示されている状態が
節点シンドロームS(Nj)で、第10図では節点N9とN14
の節点シンドロームが1となる。すなわち、 S(N9)=1,S(N14)=1 であって、それ以外の節点シンドロームは0となる。こ
の時、補木枝b4の値は上記の補木検索入力パターンの4
ビット目であり、「やさしい」に対応するものである。
この補木枝b4の値を1から0に訂正すれば「やさしくな
い」という情報に変わり、このとき節点シンドロームS
(N9)=0,S(N14)=0となり、部分ニューラルネット
Gi(X,Y)上の全ての節点シンドロームS(Nj)は0に
なる。従ってこの部分ニューラルネットGi(X,Y)によ
って曖昧度d(e)=1で「狼」が連想されたことにな
る。
When the above complementary tree search input pattern is given to the complementary tree, each of the neurons N 1 , N 2 ,..., N n (n = 22) at each node on the partial neural network G i (X, Y) The neuron Nj inputs the value of the adjacent branch, performs addition modulo 2, and calculates a nodal syndrome S (N j ) (j = 1, 2,..., N). In figure each neuron N nodes the conditions shown in the nodes of the j syndrome S (N j), in the FIG. 10 node N 9 and N 14
Is 1 in the nodal syndrome. That is, S (N 9 ) = 1 and S (N 14 ) = 1, and the other node syndromes are 0. At this time, the value of the complement tree branch b4 is 4 in the above-described complement tree search input pattern.
It is a bit and corresponds to "easy".
If the correct value of this Hokieda b 4 from 1 to 0 instead to the information of "unfriendly", this time node syndrome S
(N 9 ) = 0, S (N 14 ) = 0, and the partial neural network
All node syndromes S (N j ) on G i (X, Y) become zero. Thus "Wolf" is that which is associative with ambiguity d (e) = 1 This part neural network G i (X, Y).

さて、この場合、補木枝b4は節点N9を切り取る節点カ
ットセットと節点N14を切り取る節点カットセットの両
方に共通に含まれるもので、本発明ではこれらの節点カ
ットセットに共通に含まれる枝b4の値を訂正することが
まず第1の処理となる。この理由を符号理論上で説明す
る。
By the way, in this case, the complementary tree branch b 4 is included in both the node cut set that cuts the node N 9 and the node cut set that cuts the node N 14, and in the present invention, it is commonly included in these node cut sets. to correct the value of the branch b 4 to the the first of the process. The reason for this will be described in the code theory.

その理由を説明するには、 Ai′=A(i+e)=A e=S の関係式を用いることになる。節点シンドロームSは第
10図の節点に示されたシンドロームS(Nj)(j=1,2,
・・・,22)の列ベクトルであって、これは第8図の接
続行列Aのb4に対応する4列目の列ベクトルと等価とな
る。従って、誤りパターンeは4ビット目のみが1の
(00010・・・00)となる。補切枝b4の値を1から0に
訂正することは与えられた枝の値から形成される符号
i′=(111100011・・・0)の4ビット目を1から0
に訂正することを意味する。すなわち、符号i′はi=
i′+eより節点シンドロームを0にする電流符号i=
(111000011・・・0)に復号されることになる。
In order to explain the reason, a relational expression of Ai '= A (i + e) = Ae = S will be used. Nodal syndrome S
Syndrome S (N j ) (j = 1,2,
..., a column vector of 22), which is the fourth column of the column vectors equivalent corresponding to b 4 of the connection matrix A in Figure 8. Therefore, only the fourth bit of the error pattern e is 1 (00010... 00). Complement cuttings code i It is formed from the values of the branches a given b 4 of the value from 1 to correct the 0 '= 0 to 4 bit from the first (111,100,011 ... 0)
Means to correct. That is, the code i ′ is i =
The current code i = 0 for the node syndrome from i ′ + e
(111000011... 0).

このように本発明では、補木枝の値に対してその補木
枝bkに接続する節点Ni,Njの節点シンドロームS
(Nj′),S(Nj)が共に1である場合には、自動的にそ
の補木枝bkの値が反転されるように制御される。このこ
とは2ビット誤りの場合に対しても同様である。
As described above, in the present invention, the node syndrome S of the nodes N i and N j connected to the complement tree branch b k for the value of the complement tree branch
When both (N j ′) and S (N j ) are 1, control is performed so that the value of the complementary branch b k is automatically inverted. The same applies to the case of a two-bit error.

第11図は本発明の部分ニューラルネットによる連想動
作を説明するための実施例図である。図中、木連想パタ
ーンは第7図及び第10図に示されるものと同じであり、
「狼」に対応するものとする。この状態で補木検索入力
パターンとして、第11図に示されるように、 (b1,b2,b3,b4,b5,b6)=(111101) が入力されたものとする。この入力パターンは「大きな
耳」、「大きな目」、「大きな歯」、「やさしい」、
「しわがない」「ハンサムである」という情報に対応す
るもので、「やさしい」と「ハンサムである」という情
報以外はほぼ「狼」を連想させるものである。すなわ
ち、曖昧度2を有する「狼」の連想パターンである。こ
の場合でも、第11図の部分ニューラルネットの最小閉路
の長さが6であるから、この部分ニューラルネット上で
その2ビットの訂正が可能となる。
FIG. 11 is an embodiment for explaining the associative operation by the partial neural network according to the present invention. In the figure, the tree association pattern is the same as that shown in FIGS. 7 and 10,
It corresponds to "wolf". In this state, it is assumed that (b 1 , b 2 , b 3 , b 4 , b 5 , b 6 ) = (111101) is input as a complementary tree search input pattern as shown in FIG. This input pattern can be "big ears", "big eyes", "big teeth", "friendly",
It corresponds to the information of "no wrinkles" and "handsome", and is almost reminiscent of "wolf" except for the information of "easy" and "handsome". That is, the associative pattern of “wolf” having the degree of ambiguity 2. Also in this case, since the minimum cycle length of the partial neural network shown in FIG. 11 is 6, the 2-bit correction can be performed on this partial neural network.

各ニューロンNjは隣接する枝の値を入力し2を法とす
る加算を実行し、節点シンドロームS(Nj)を計算す
る。ニューロンN9とN14の節点シンドロームS(N9)=
1とS(N14)=1は第10図と同じであり、さらに第11
図では、ニューロンNl5及びN20における節点シンドロー
ムに対しても S(N15)=1,S(N20)=1 となる。ニューロンN9,N14,N15,N20以外の節点シンドロ
ームは全て0である。ここでも、補木枝に接続された節
点の節点シンドロームが共に1である場合には、その補
木枝の値は反転される。すなわち、補木枝b4,b6は共に
反転され0になる。この誤り訂正により入力された補木
検索入力パターンは (b1,b2,b3,b4,b5,b6)=(111000) に訂正され、これは明らかに、第7図の補木枝に与えら
れた入力パターンと同じで、学習時に入力した「狼」の
補木学習入力パターンとなっている。従って、この部分
ニューラルネットGi(X,Y)によって2ビットの曖昧度
をもって「狼」が連想されたことになる。
Each neuron N j to perform an addition to the 2 inputs the value of the branch adjacent law, to calculate the node syndrome S (N j). Nodal syndrome S (N 9 ) of neurons N 9 and N 14 =
1 and S (N 14 ) = 1 are the same as in FIG.
Figure In, S (N 15) against node syndrome in neurons N l5 and N 20 = 1, the S (N 20) = 1. Node syndromes other than the neurons N 9 , N 14 , N 15 , and N 20 are all zero. Here, if the node syndromes of the nodes connected to the complementary tree branch are both 1, the value of the complementary tree branch is inverted. That is, the complementary branches b 4 and b 6 are both inverted to 0. The complementary tree search input pattern input by this error correction is corrected to (b 1 , b 2 , b 3 , b 4 , b 5 , b 6 ) = (111000), which is clearly shown in FIG. This is the same as the input pattern given to the tree branch, and is a complementary tree learning input pattern of “wolf” input during learning. Therefore, "wolf" is associated with the 2-bit ambiguity by the partial neural network Gi (X, Y).

第11図の部分ニューラルネットにおいては各補木枝は
全て木枝によって分離された形になっており、2つの補
木枝が節点を介して隣接する形にはなっていない。も
し、部分ニューラルネット上において節点を介して補木
枝が連続されている場合の2ビット訂正を次に説明す
る。
In the partial neural network shown in FIG. 11, each complementary tree branch is separated by a tree branch, and two complementary tree branches are not adjacent to each other via a node. Next, a description will be given of a 2-bit correction in the case where a complementary tree branch is continuous via a node on a partial neural network.

第12図は2つの補木枝が1つのニューロンを介して連
続的に接続されている場合の部分ニューラルネットの一
部を示すグラフである。図中Ni,Nk,Njは部分ニューラル
ネット上のニューロンであり、NiとNkを連結する枝bik
及びNkとNjを連結する枝bkjは共に補木枝であるとす
る。今この補木枝{bik,bkj}の値が2ビットとも誤り
があるとし、この部分ニューラルネットの最小閉路の長
さは5以上であって、2ビットの訂正が少なくとも可能
であるものとする。このような場合、補木枝bik,bkj
共に限りがあるとすると補木枝bikの誤りによってニュ
ーロンNiの節点シンドロームS(Ni)が1で、さらにNk
の節点シンドロームS(Nk)も1になるが、同時に補木
枝bkjも誤りがあるためにニューロンNjの節点シンドロ
ームS(Nj)が1であり、更にNkの節点シンドロームS
(Nk)も1となる。結果として、Nkの節点シンドローム
S(Nk)はbikの誤りによる節点シンドロームとbkjによ
り誤りによる節点シンドロームとの和の結果として、図
に示すように0となる。
FIG. 12 is a graph showing a part of a partial neural network when two complementary tree branches are continuously connected via one neuron. In the figure, N i , N k , and N j are neurons on the partial neural network, and a branch b ik connecting N i and N k
And the branch b kj connecting N k and N j are both complementary tree branches. Now, assume that the value of the complementary tree branch {b ik , b kj } is erroneous in both 2 bits. The minimum cycle length of this partial neural network is 5 or more, and 2-bit correction is at least possible. And In such a case, Hokieda b ik, node syndrome neuron N i by the error of Hokieda b ik When b kj is limited both S (N i) is 1, and further N k
Node syndrome S (N k) is also set to 1, at the same time Hokieda b kj also a neuron N j node syndrome S (N j) is 1 because there is an error, further nodes syndrome S of N k
(N k ) is also 1. As a result, as a result of the sum of the nodal syndrome by the error by node syndrome S (N k) is node syndrome and b kj by the error of b ik of N k, it becomes 0 as shown in FIG.

このような場合、本発明ではニューロンNiはニューロ
ンNjの節点シンドロームの値と節点Nkのシンドロームを
共に入力し、Ni,Nk,Njの節点シンドロームS(Ni),S
(Nk),S(Nj)の値が101になった場合には補木枝bik
値を訂正するように制御する。また、節点Njに対しても
同様で、ニューロンNjはニューロンNiと節点Niの節点シ
ンドロームを入力し、Ni,Nk及にNjの節点シンドローム
が101というパターンであることを検出した場合には、
補木枝bkjの値を訂正する。
In this case, the neurons N i in the present invention is to input both syndrome values and the node N k node syndrome neuron N j, N i, N k, node syndrome S (N i) of N j, S
(N k), if the value of S (N j) becomes 101 controls to correct the value of Hokieda b ik. Also, similarly for the node N j, neuron N j inputs a node syndrome neuron N i and the node N i, N i, that node syndrome N k及to N j is the pattern that 101 If detected,
Correct the value of the complement tree branch b kj .

なお、Niは、NjよりS(Nj)を制御線bijを介して入
力し、NjはNiよりS(Ni)を制御線bijを介して入力す
る。
Incidentally, N i is the S than N j (N j) input via the control line b ij, N j is input via the control line b ij and S (N i) from N i.

このことは、一般の場合にも拡張され、2ビット以上
の訂正能力をもった部分ニューラルネットで、節点シン
ドロームが1となっているニューロンNi,Njの間で連続
する最短パス上の補木枝すなわち、節点シンドロームが
1の節点カットセットに共通に含まれる補木枝の値は全
て訂正されるように制御線が付加される。そしてその最
短パス上の節点シンドロームの情報系列を節点シンドロ
ームが1のニューロンに入力し、最短パス上の補木枝の
値を反転する制御が実行される。
This is extended to the general case, and is a partial neural network having a correction capability of 2 bits or more, and complements the shortest path that is continuous between the neurons N i and N j having the node syndrome of 1. A control line is added so that the value of the tree branch, that is, the value of the complementary tree branch commonly included in the node cut set having the node syndrome of 1 is corrected. Then, control is performed to input the information sequence of the node syndrome on the shortest path to one neuron of the node syndrome and invert the value of the complement tree branch on the shortest path.

以上は電流符号によるニューラルネットを説明した
が、電圧符号によるニューラルネットは、グラフの「双
対」の概念によって、同様に説明される。ニューラルネ
ットを形成する電圧グラフのカットセットを表現する線
形グラフ符号が用いられる場合、その線形グラフ符号の
最小符号間距離を電圧グラフの最小カットセットの長さ
に対応させたときその最小符号間距離によって定められ
る誤り訂正能力が連想の曖昧性の能力に対応する。そし
て学習処理時においてその電圧符号の木学習入力パター
ンをニューラルネット内の木に入力し、ビット誤りがな
いように補木連想パターンを該ニューラルネット上で形
成し補木上に記憶することになる。また連想処理時にお
いて、各ニューロンは、前記補木連想パターンと入力さ
れた木検索入力パターンの中から該ニューロンの網路
(内部に閉路のない閉路)にある情報のみを入力し、2
を法とする加算で網路シンドロームを計算しながら、ビ
ット誤りを訂正し、学習処理時に生成した電圧符号に復
号することになる。ここで網路シンドロームとは網路に
含まれる枝の電圧値の和である。この部分ニューラルネ
ットでは基本閉路行列又は、網路行列(各行が網路に対
応し、列が枝に対応するもので、その枝がその網路に含
まれるとき1とする)をパリティ検査行列に対応させ、
その部分ニューラルネットの電圧グラフにおけるカット
セットを表現する電圧符号の誤り訂正能力、すなわち、
等価的に部分ニューラルネット上の最小カットセット
(カットセットの枝数が最小なもの)の枝の数に対応す
る最小符号間距離から定まる誤り訂正能力を用いて学習
処理及び連想処理を行うことになる。すなわち、ニュー
ラルネットを複数の部分ニューラルネットに分割したと
き、各部分ニューラルネットにおいて、枝集合を木と補
木に分割する。このとき、学習処理手段は、木枝に与え
られる(木学習入力パターン)を与えた場合に、補木に
よって定義される基本閉路の枝の値の総和が、キルヒホ
ッフの電圧則のように、2を法とする加算で0になるよ
うに補木連想パターンを生成する手段となる。またその
連想処理手段は、学習時に生成された補木連想パターン
を固定し、入力された木検索入力パターンに対し、閉路
シンドローム(閉路または網路内の枝の値の総和)を計
算し、得られた閉路シンドロームから誤りパターンを生
成し、その誤りパターンの中の誤りビットに対応する枝
の電圧値を訂正することとなる。
Although the neural network based on the current code has been described above, the neural network based on the voltage code is similarly described based on the concept of “dual” in the graph. When a linear graph code representing a cut set of a voltage graph forming a neural network is used, the minimum inter-code distance when the minimum inter-code distance of the linear graph code corresponds to the length of the minimum cut set of the voltage graph. The error correction capability determined by the above corresponds to the capability of ambiguity of association. Then, at the time of the learning process, the tree learning input pattern of the voltage code is input to a tree in the neural network, and a complementary tree association pattern is formed on the neural network and stored on the complementary tree so that there is no bit error. . At the time of the associative processing, each neuron inputs only information on the neuron's network (a closed cycle without an internal cycle) from the complementary tree associative pattern and the input tree search input pattern,
The bit error is corrected while calculating the network syndrome by addition modulo, and is decoded into a voltage code generated during the learning process. Here, the network syndrome is the sum of the voltage values of the branches included in the network. In this partial neural network, a basic cycle matrix or a network matrix (each row corresponds to a network, and a column corresponds to a branch, and when the branch is included in the network, 1 is used as a parity check matrix) Corresponding,
The error correction capability of the voltage code representing the cut set in the voltage graph of the partial neural network, that is,
Equivalently, the learning process and the associative process are performed using the error correction capability determined from the minimum inter-code distance corresponding to the number of branches of the minimum cut set (the one having the minimum number of branches of the cut set) on the partial neural network. Become. That is, when the neural network is divided into a plurality of partial neural nets, a branch set is divided into a tree and a complementary tree in each partial neural network. At this time, the learning processing means, when given to the tree branch (tree learning input pattern), sums the values of the branches of the basic cycle defined by the complementary tree, as in Kirchhoff's voltage law. Is a means for generating a complementary tree associative pattern so that it becomes 0 by addition modulo. The associative processing means fixes the complementary tree associative pattern generated at the time of learning, calculates a closed syndrome (sum of values of branches in a closed circuit or a network) for the input tree search input pattern, and obtains An error pattern is generated from the obtained closed syndrome, and the voltage value of the branch corresponding to the error bit in the error pattern is corrected.

各部分ニューラルネットの学習処理において、与えら
れた木検索入力パターンに対し補木連想パターンを初期
パターンとして与え、各網路に存在するニューロンがそ
の網路に含まれる枝の電圧値が2を法とする加算で0に
なるように網路シンドロームを求め、その網路シンドロ
ームの値を用いてその網路に1対1に対応する補木枝の
値を反転して行く動作であり、この動作をすべての網路
シンドロームが0、すなわち網路に含まれる枝の電圧値
の和が2を法とする加算で0になるまで繰り返すことに
なる。そして与えられた木学習入力パターンに対する補
木連想パターンを補木枝上に生成する。連想処理におい
ては学習時に記憶された補木連想パターンを固定し、木
枝に与えられる木検索入力パターンに対して各網路のニ
ューロンがその網路に含まれる枝の値の総和として網路
シンドロームを2を法とする加算で計算する。そして網
路シンドロームの値が1となっている間の最短パス上の
木枝値を反転することで与えられた木検索入力パターン
をシンドロームが0になるように訂正することになる。
In the learning process of each partial neural network, a complementary tree associative pattern is given as an initial pattern for a given tree search input pattern, and neurons existing in each network are modulo 2 by a branch voltage included in the network. This is an operation of obtaining a network syndrome so as to become 0 by the addition, and inverting the value of the complementary tree branch corresponding to the network one-to-one using the value of the network syndrome. Is repeated until all network syndromes become 0, that is, the sum of the voltage values of the branches included in the network becomes 0 by addition modulo 2. Then, a complementary tree association pattern for the given tree learning input pattern is generated on the complementary tree branch. In the associative processing, the complementary tree associative pattern stored at the time of learning is fixed, and a neuron of each network is calculated as a sum of branch values included in the network with respect to a tree search input pattern given to the tree branch. Is calculated by addition modulo 2. Then, by inverting the tree branch value on the shortest path while the value of the network syndrome is 1, the given tree search input pattern is corrected so that the syndrome becomes 0.

このように電圧符号によるニューラルネットに対して
伝送速度が大きくなるように最小カットセットが大きい
ニューラルネットを例えば球面上で形成することもで
き、例えば、すべての節点から出る枝の数がなるべく大
きくなるように形成すればよい。
In this way, a neural network having a large minimum cut set can be formed on, for example, a spherical surface so that the transmission speed is increased with respect to the voltage-neutral neural network. What is necessary is just to form it.

尚、電流符号(電圧符号)によるニューラルネットに
おいて、最小閉路(最小カットセット)の長さを大きく
するためにニューロンを枝に1つ挿入し、それに接続さ
れる2本の枝が直列(並列)になるようにしてもよい。
In a neural network based on a current code (voltage code), one neuron is inserted into a branch in order to increase the length of a minimum closed circuit (minimum cut set), and two branches connected to the branch are connected in series (parallel). May be used.

本発明のニューラルネットの応用は広範囲であって、
例えば部分ニューラルネット上の情報系列である補木検
索入力パターン(木検索入力パターン)の各ビットを2
値画像の画素に対応させ、与えられた画素入力に対して
部分ニューラルネット上の画像ブロック毎に本発明の学
習と連想の処理を実行すれば画像認識を行うことができ
る。
The application of the neural network of the present invention is extensive,
For example, each bit of a complementary tree search input pattern (tree search input pattern), which is an information sequence on a partial neural network, is set to 2
Image recognition can be performed by executing the learning and association processing of the present invention for each image block on the partial neural network with respect to a given pixel input in correspondence with the pixels of the value image.

電流符号による連想処理において、節点シンドローム
が1のニューロン間の補木枝の最短パスをみつけだすの
に各枝を単位抵抗に置換し、節点シンドロームが1にな
っている節点に単位電流を流し、電圧降下の大きい枝を
たどるようにしても良い。
In the associative processing based on the current code, the nodal syndrome finds the shortest path of the complement tree branch between one neuron, and replaces each branch with a unit resistance. A unit current is applied to the node where the nodal syndrome is 1, and a voltage is applied. A branch with a large descent may be followed.

〔発明の効果〕〔The invention's effect〕

本発明によれば各ニューロンは基本的には2を法とす
る加算すなわち排他的論理和を用いて簡単に連想型ニュ
ーラルネットが構成でき、しかもそのニューラルネット
は完全グラフではなく、従ってLSIとして構成でき、そ
して各ニューロンの動作は近傍のニューロンからの情報
あるいは近傍の枝の情報に対する演算のみとなり、全体
的には、極めて高度並列化による学習と連想の処理が可
能となる。その部分ニューラルネットは閉曲線上の枝の
値を0にすることによって自由に形成でき製作されてし
まった集積回路に対して学習時にその0の情報を与える
ことができ部分ニューラルネットの大きさを可変にでき
る。さらにウェハー等において必然的に発生する結晶欠
陥等があってもその結晶欠陥を含むように部分ニューラ
ルネットを形成すれば、欠陥部分ニューラルネットは他
の正常な部分ニューラルネットから分離され、カット上
の枝の電流を0とすることにより、それを動作的に無意
味とすることができ、従って本発明では結晶欠陥があっ
ても全体の学習と連想動作はそのまま実行できる。さら
に各ニューロンの内部及び伝送する情報はデジタル情報
であって極めて信頼性の高いニューラルネットが構成で
き、さらに、その学習や連想処理はすべて各ニューロン
毎の並列処理となるため、極めて高速となる。
According to the present invention, each neuron can simply construct an associative neural net simply by using addition modulo 2, that is, exclusive OR, and the neural net is not a complete graph, and thus is constructed as an LSI. The operation of each neuron can be performed only on the information from the neighboring neurons or the information on the neighboring branches, and as a whole, learning and associative processing by extremely high parallelism can be performed. The partial neural network can be formed freely by setting the value of the branch on the closed curve to 0, and the information of the 0 can be given at the time of learning to the manufactured integrated circuit, and the size of the partial neural network can be changed Can be. Furthermore, if a partial neural net is formed so as to include the crystal defect, which is inevitably generated in a wafer or the like, the defective partial neural network is separated from other normal partial neural nets, and the By setting the branch current to 0, it can be made operationally meaningless. Therefore, in the present invention, even if there is a crystal defect, the entire learning and associative operation can be executed as it is. Further, the information inside and transmitted to each neuron is digital information, and a highly reliable neural network can be formed. Further, the learning and the associative processing are all parallel processing for each neuron, so that the speed is extremely high.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明の構成図、 第2図は補木電流符号ilから木電流符号itを求める過程
を説明するための実施例図、 第3図(a),(b)は簡単なニューラルネットのグラ
フ構造を示す実施例図、 第4図(a),(b)は電流符号iを形成するための電
流グラフGiと電圧符号vを形成するための電圧グラフGv
の簡単な実施例図、 第5図(a),(b)はシンドロームを考慮した電流グ
ラフと電圧グラフの実施例図、 第6図は本発明のニューラルネットGiの簡単な概念図、 第7図は本発明の部分ニューラルネットの実施例図、 第8図は第7図の部分ニューラルネットGi(X,Y)の接
続行列を示す図、 第9図(a)〜(g)は本発明の部分ニューラルネット
による学習アルゴリズムを説明するための実施例図、 第10図は本発明の部分ニューラルネットGi(Y,Y)によ
る連想動作を説明するための実施例図、 第11図は本発明の部分ニューラルネットによる連想動作
を説明するための実施例図、 第12図は2つの補木枝が1つのニューロンを介して連続
的に接続されている場合の部分ニューラルネットの一部
を示すグラフ、 第13図はHopfield型のニューラルネットの基本概念図、 第14図は従来の学習機能付のニューラルネットの概念
図、 第15図は従来の連想メモリの構造図である。 16……全体のニューラルネット、 17……部分ニューラルネット、 18……ニューロン、 19……最小閉路、 20……木、 21……補木.
Figure 1 is a configuration diagram of the present invention, FIG. 2 embodiment for explaining a process of obtaining a wood current code i t from Hoki current code i l view, FIG. 3 (a), (b) Easy FIGS. 4 (a) and 4 (b) show a current graph G i for forming a current code i and a voltage graph Gv for forming a voltage code v.
Simple embodiment diagram of, FIG. 5 (a), (b) the embodiment diagram of the current graph i and voltage graphs v considering syndrome, simple conceptual diagram of a neural network G i in FIG. 6 is the invention example view of a portion a neural net in Figure 7 is the present invention, FIG. 8 is a diagram showing the connection matrix of the partial neural network G i of FIG. 7 (X, Y), Figure 9 (a) ~ (g ) the embodiment for explaining a learning algorithm by partial neural network view of the present invention, Fig. 10 embodiment diagram for describing the associative operation by the partial neural network G i (Y, Y) of the present invention, the FIG. 11 is an embodiment diagram for explaining the associative operation by the partial neural network of the present invention. FIG. 12 is a diagram of the partial neural network when two complementary branches are continuously connected via one neuron. Graph showing a part, Fig. 13 is a Hopfield type neural Tsu basic concept of bets diagram, FIG. 14 is a conceptual diagram of a neural network of conventional with learning function, FIG. 15 is a structural view of a conventional associative memory. 16: Whole neural net, 17: Partial neural net, 18: Neuron, 19: Minimum cycle, 20: Tree, 21: Complementary tree.

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】ニューロンを相互に配線して形成されるニ
ューラルネットにおいて、 該ニューラルネットを形成するグラフの閉路(または、
カットセット)を表現する線形グラフ符号であって、前
記線形グラフ符号の最小符号間距離を前記グラフの最小
閉路(あるいは最小カットセット)の長さに対応させた
とき前記最小符号間距離によって定められる誤り訂正能
力が連想の曖昧性の能力に対応する符号を用いて、 学習処理時において、該線形グラフ符号の一部を学習入
力パターンとしてニューラルネット内に入力し、ビット
誤りがないように前記線形グラフ符号の他の部分を該ニ
ューラルネット上で形成し、該ニューラルネット上に連
想パターンとして記憶する学習処理手段と、 連想処理時において、各ニューロンは、前記連想パター
ンと入力された検索入力パターンの中から該ニューロン
の近傍にある情報のみを入力し、加算でシンドロームを
計算しながらビット誤りを訂正し、学習処理時に生成し
た線形グラフ符号に復号することにより連想する連想処
理手段を有し、 グラフにおける閉路とカットセットの直交性を利用する
ことを特徴とする連想型ニューロコンピュータ。
In a neural network formed by mutually interconnecting neurons, a closed circuit (or a graph) forming the neural network is provided.
Cutoff set), and is determined by the minimum intersymbol distance when the minimum intersymbol distance of the linear graph code corresponds to the length of the minimum cycle (or minimum cutset) of the graph. In the learning process, a part of the linear graph code is input as a learning input pattern into the neural network using a code whose error correction capability corresponds to the capability of associative ambiguity. Learning processing means for forming the other part of the graph code on the neural network and storing it on the neural network as an associative pattern; and during the associative processing, each neuron generates the associative pattern and the input search input pattern. Input only information in the vicinity of the neuron from inside and correct bit errors while calculating syndrome by addition , Associative neuro-computer, characterized in that having an associative processing means for association by decoding a linear graph code generated at the time of learning processing, utilizing the orthogonality of closed and cut set in the graph.
JP63201094A 1988-08-12 1988-08-12 Associative neurocomputer Expired - Lifetime JP2714600B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63201094A JP2714600B2 (en) 1988-08-12 1988-08-12 Associative neurocomputer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63201094A JP2714600B2 (en) 1988-08-12 1988-08-12 Associative neurocomputer

Publications (2)

Publication Number Publication Date
JPH0250757A JPH0250757A (en) 1990-02-20
JP2714600B2 true JP2714600B2 (en) 1998-02-16

Family

ID=16435298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63201094A Expired - Lifetime JP2714600B2 (en) 1988-08-12 1988-08-12 Associative neurocomputer

Country Status (1)

Country Link
JP (1) JP2714600B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101878579B1 (en) 2014-02-10 2018-07-13 미쓰비시덴키 가부시키가이샤 Hierarchical neural network device, learning method for determination device, and determination method
JP6227052B2 (en) * 2016-05-11 2017-11-08 三菱電機株式会社 Processing apparatus, determination method, and program
CN109450459B (en) * 2019-01-16 2023-04-28 中国计量大学 Polarization code FNSC decoder based on deep learning

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
電子情報通信学会 技術研究報告 Vol.88,No.252 P23−29

Also Published As

Publication number Publication date
JPH0250757A (en) 1990-02-20

Similar Documents

Publication Publication Date Title
Bruck et al. Neural networks, error-correcting codes, and polynomials over the binary n-cube
Tarakanov et al. Immunocomputing: principles and applications
JP2019502970A (en) Resistive processing unit
JP3328935B2 (en) Parallel multi-valued neural network
Chervyakov et al. The architecture of a fault-tolerant modular neurocomputer based on modular number projections
US20210152125A1 (en) All Electrical Fully Connected Coupled Oscillator Ising Machine
JP2714600B2 (en) Associative neurocomputer
Wu et al. Neural network decoders for linear block codes
Dunyak et al. Fuzzy number neural networks
JPH06111038A (en) Neural network and operating method thereof
Javaheripi et al. Swann: Small-world architecture for fast convergence of neural networks
WO2019049127A1 (en) System and method for efficient evolution of deep convolutional neural networks using filter-wise recombination and propagated mutations
Kohut et al. Boolean neural networks
Tanaka Silicon retina: image compression by associative neural network based on code and graph theories
Mofrad et al. Nested-clique network model of neural associative memory
WO2020049492A1 (en) Probability propagation over factor graphs
Avanesov et al. Building a fusion-based quantum computer using teleported gates
Chang et al. Polynomial and standard higher order neural network
Ocal et al. Fast Compressive Large-Scale Matrix-Matrix Multiplication Using Product Codes
Murthy et al. A new algorithm based on Givens rotations for solving linear equations on fault-tolerant mesh-connected processors
JPH02165369A (en) Associative memory
JPH0359780A (en) Associative neural net
Tanaka et al. Associative digital neural network based on code and graph theories
Htay et al. Correcting errors in linear codes with neural network
Sayani Associative memory neural networks for error correction of linear block codes