JPH0348364A - Matrix/vector product sum computing element - Google Patents

Matrix/vector product sum computing element

Info

Publication number
JPH0348364A
JPH0348364A JP1183052A JP18305289A JPH0348364A JP H0348364 A JPH0348364 A JP H0348364A JP 1183052 A JP1183052 A JP 1183052A JP 18305289 A JP18305289 A JP 18305289A JP H0348364 A JPH0348364 A JP H0348364A
Authority
JP
Japan
Prior art keywords
matrix
thin film
magnetic
state
leads
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1183052A
Other languages
Japanese (ja)
Inventor
Yasuharu Hidaka
檜高 靖治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP1183052A priority Critical patent/JPH0348364A/en
Publication of JPH0348364A publication Critical patent/JPH0348364A/en
Pending legal-status Critical Current

Links

Landscapes

  • Complex Calculations (AREA)

Abstract

PURPOSE:To improve the performance of a system by using a constitutional part consisting of a magnetic thin film capable of holding magnetic bubbles, two conductor lines intersecting with each other on the thin film and a magnetic detector arranged on the thin film and connected with the conductor line as a unit. CONSTITUTION:A bubble holding garnet film 2 is a ferrimagnetic thin film formed on a Gd3Ga5O12(111) substrate 1 by epitaxial method having the film face perpendicular direction as the easy axis of magnetization. Conductor lines 4 arrayed in the vertical direction are X leads, conductor lines 5 arrayed in the horizontal direction are Y leads and both the X and Y leads are allowed to intersect with each other on respective cells. The detector 6 utilizing the magneto-resistance effect is shown on the upper right area of the matrix and the detectors 6 of respective cells are connected in series in the Y direction similarly to the Y leads as shown by 7. Consequently, the calculation speed can be improved, a matrix storage part can be formed as a completely non- volatile part and the system performance can be improved.

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は不揮発性の高密度固体磁気記憶素子を組込んだ
行列・ベクトル積和演算素子に関する。
DETAILED DESCRIPTION OF THE INVENTION (Field of Industrial Application) The present invention relates to a matrix/vector product-sum calculation element incorporating a nonvolatile high-density solid-state magnetic storage element.

(従来の技術〉 基本技術内容をエレクトロニクス((株)オーム社、1
988.8月号、52〜56ページ、米津宏雄著)およ
び麻生英樹著二二ューラルネットワーク情報処理(産業
図書(株)、1988.6月発行、20〜27ページ)
を引用して説明する。ニューラルネットワークの工学的
モデルでは、実際の神経回路網のように、あるニューロ
ンの出力が他のニューロンの入力に互いに結合している
。シナプス結合といわれるこの結合の仕方は、一般に十
とーおよびOの3通りである例が多い。+はニューロン
の出力をそのまま別のニューロンの人力に結合すること
(正結合)を意味している。一はニューロンの出力を逆
転して一にして別のニューロンの入力に結合すること(
負結合)を意味する。前者は興奮性の結合に相当し、後
者は抑制性の結合に相当する。Oは結合していないこと
を意味する。ニューロンの数がN個ある場合、第5図(
a)のような結合回路ができる。この結合のパターンは
結合マトリックス(記憶行列)といわれ、これによって
ニューラルネソトワークがプログラムされる。j番目の
ニューロンの出力Vjがi番目のニューロンの入力ui
に結合される重みはWijと書かれ、結合強度と称され
る。i番目のニューロンに入る入力uiは結合している
他の多くのニューロンからの出力を受けるから、 ui=ΣjWijVj + Ii で与えられる。ここで、Iiはi番目のニューロンへの
外部からの入力あるいはしきい値である。ニューロンの
入力uiと出力Viの間の関係は第5図(b)に示され
ているような ■i ” g(ui) なる特性曲線で表せる。この曲線はシグモイド(sig
moid)関数(S字型関数〉といわれ、人力が正で大
きくなると、出力1を出し、入力が負の大きな値になる
と、出力0を出す。シグモイド関数の立上がりが急峻に
なった極限がデイジタル的な動作に対応する。演算の仕
組みや記憶の内容を決める結合強度Wijは実効的なコ
ンダクタンスである。
(Conventional technology) The basic technology is provided by Electronics (Ohmsha Co., Ltd., 1)
988. August issue, pages 52-56, written by Hiroo Yonezu) and Hideki Aso, Binal Network Information Processing (Sangyo Tosho Co., Ltd., published June 1988, pages 20-27)
Explain by quoting. In engineering models of neural networks, the outputs of one neuron are interconnected to the inputs of other neurons, just like in a real neural network. There are generally three types of connections called synaptic connections: 10, 1 and 0. + means that the output of a neuron is directly connected to the human power of another neuron (positive connection). One is to reverse the output of a neuron, make it one, and connect it to the input of another neuron (
negative bond). The former corresponds to excitatory connections, and the latter corresponds to inhibitory connections. O means not bonded. When the number of neurons is N, Figure 5 (
A coupling circuit like a) is created. This pattern of connections is called a connection matrix (memory matrix), and it is used to program the neural network. The output Vj of the jth neuron is the input ui of the ith neuron
The weights coupled to are written Wij and are called the coupling strength. Since the input ui entering the i-th neuron receives outputs from many other connected neurons, it is given by ui=ΣjWijVj+Ii. Here, Ii is an external input to the i-th neuron or a threshold value. The relationship between the input ui and the output Vi of a neuron can be expressed by a characteristic curve ``i''g(ui) as shown in Figure 5(b).This curve is a sigmoid (sigmoid)
moid) function (S-shaped function), when the human power becomes positive and large, it produces an output of 1, and when the input becomes a large negative value, it produces an output of 0.The limit where the rise of the sigmoid function becomes steep is the digital The coupling strength Wij, which determines the operation mechanism and the contents of memory, is the effective conductance.

結合された第5図のニューラルネットワークにI1〜I
Nの入力が一斉に入ると、この回路は相互に関連し合い
ながら動作し、ある状態に多くの場合落ち着く。このと
きの各ニューロンの出力が人力に対する出力になる。以
上がHopfieldによって提案されたモデルである
I1 to I in the connected neural network of FIG.
When N inputs are input all at once, the circuit operates in conjunction with each other and often settles into a certain state. The output of each neuron at this time becomes the output for human power. The above is the model proposed by Hopfield.

ニューラルネットワークにおいて特徴的なことは、従来
のコンピュータのようにCPU1個だけが時系列上で高
速に動作するのではなく、N個のニューロンが並列に一
斉に動作していることである。第5図の回路を連想メモ
リに適用する例について説明する。第6図はその内容を
図示している。まず、3種類の生き物を記憶させるため
、出力■1と■2をそれぞれ2本足と4本足の形状に関
する情報と考える。■3、■4をそれぞれ飛ぶ歩くの運
動能力に関する情報と考え、■5と■6を背が高いと低
いの大きさに関する情報と考える。
What is distinctive about neural networks is that instead of just one CPU operating at high speed in time series as in conventional computers, N neurons are operating all at once in parallel. An example in which the circuit shown in FIG. 5 is applied to an associative memory will be described. FIG. 6 illustrates its contents. First, in order to memorize three types of living things, outputs (1) and (2) are considered to be information regarding the shapes of two-legged and four-legged creatures, respectively. Consider ■3 and ■4 as information regarding the athletic ability of flying and walking, respectively, and consider ■5 and ■6 as information regarding the size of height and shortness.

そこで、信号1は上記の情報に該当するとし、0は該当
しないとすると、人間と犬と鳥は第6図のような6ビッ
トの情報で表せる。たとえば、人間は2本の足で歩いて
背が高いと覚えることになる。
Therefore, assuming that signal 1 corresponds to the above information and signal 0 does not correspond, humans, dogs, and birds can be represented by 6-bit information as shown in FIG. For example, humans learn that they are tall because they walk on two legs.

この三つの6ビットの情報を覚えた場合の結合マトノッ
クス(Wij)はHopfieldによるモデルでは次
式で与えられる。
The combined matnox (Wij) when these three 6-bit information are memorized is given by the following equation in the model by Hopfield.

Wij =Σ,=13(2Vi(8)−1X2Vj(a
)−1>ここで、Sは人間、犬、烏の3種類を意味する
。すなわち、三種類の情報を重ねて記憶する。ここで、
二本足で、背が高いという運動能力に関する情報が欠け
た部分情報(I1=I5=1、I2 = I3 : 1
4 = I5 = 0)が入力として入ると、第5図の
回路はフィードバックし合いながら動作して、ある状態
に落ち着く。このときの出力が二本足で、歩いて、背が
高い(Vl=V4=V5=1,V2=V3=V5=0)
と出れば、人間という完全情報が得られたことになる。
Wij =Σ,=13(2Vi(8)-1X2Vj(a
)-1>Here, S means three types: humans, dogs, and crows. That is, three types of information are stored in an overlapping manner. here,
Partial information that lacks information regarding athletic ability such as having two legs and being tall (I1 = I5 = 1, I2 = I3: 1
4 = I5 = 0) as an input, the circuit of FIG. 5 operates while feeding back each other and settles into a certain state. The output at this time is two-legged, walking, and tall (Vl=V4=V5=1, V2=V3=V5=0)
If you get this, you have obtained complete information about humans.

これが連想メモリといわれる機能である。このように部
分情報から完全情報を得るという作業は、何かを一瞬見
たとき、おぼろげな記憶の中からしばらくしてはっきり
と思い出すという人間がよく遭遇する状況に似ている。
This is a function called associative memory. Obtaining complete information from partial information in this way is similar to the situation that humans often encounter, where they see something for a moment and then go from having a vague memory to remembering it clearly after a while.

それゆえ、このネットワークはパターン認識や音声認識
などで注目されている重要な課題である。
Therefore, this network is an important issue that is attracting attention in areas such as pattern recognition and speech recognition.

もう少し一般的説明をすると、Hopfieldのネッ
トワークは、相互結合型のネットワークで、最初は二値
ユニットのものが提案され、後に、多値(連続、離散)
のユニットへの拡張が行われた。ここでは、動作の本質
的な理解のために、二値のものを紹介する。
To give a more general explanation, Hopfield's network is an interconnected network, first proposed as a binary unit, and later as a multivalued (continuous, discrete) network.
Expansion to the unit was carried out. Here, we will introduce binary values for a basic understanding of the operation.

Hopfieldのネットワークの相互結合型のネソト
ワークとしての特徴は、ユニット間の結合が原則として
対称結合である点である。すなわち、ユニットiからj
へ強さWijの結合があると、その逆のjからiへも、
同じ強さの結合Wjiがあるようになっている。
A feature of Hopfield's network as an interconnected network is that the connections between units are, in principle, symmetrical connections. That is, units i to j
If there is a connection with strength Wij to
There are connections Wji with the same strength.

また、状態変化は非同期的で、各ユニットは勝手なタイ
ミングで結合の強さで重み付けられた入力を検知し、そ
の総和をとって、その値により、状態を遷移させ出力を
出す。この状態変化規則を式で書くと、 ΣjWjtuj+st  ei>0ならば、uiの状態
=1ΣjWjiuj+ si− ei < oならば、
uiの状態=0ΣjW34uj+ si− ei = 
oならば、uiの状態不変ここで、ΣjWjiujは、
他のユニットからの入力の和、Siはネットワークの外
部からの人力、Oiはユニットiのしきい値である。非
同期的な動作とは1つのセルが自分の出力する値を変化
させるとき、他のセルは自分の出力値を保持している。
In addition, state changes are asynchronous, and each unit detects inputs weighted by the strength of connections at arbitrary timing, sums them up, and changes the state based on that value to output an output. Writing this state change rule as a formula: If ΣjWjtuj+st ei>0, then the state of ui=1ΣjWjiuj+si− ei<o,
State of ui=0ΣjW34uj+si−ei=
o, the state of ui remains unchanged. Here, ΣjWjiuj is
The sum of inputs from other units, Si is the human input from outside the network, and Oi is the threshold of unit i. Asynchronous operation means that when one cell changes its output value, other cells maintain their output value.

つまり、2つ以上のセルが同時に出力を変えることはな
い動作方法である。各セルは互いに独立に演算を行う。
In other words, this is an operating method in which two or more cells do not change their outputs at the same time. Each cell performs calculations independently of each other.

ここでは、Hopfieldによる、簡単な自己想起的
な連想記憶の例を示す。ネットワークは、16個の二値
のユニットからなっているとする。それらのユニットは
第4図では4×4の正方形に並べてある。
Here, an example of a simple self-remembering associative memory by Hopfield is shown. It is assumed that the network consists of 16 binary units. These units are arranged in a 4x4 square in Figure 4.

ネットワークの状態は(1,0.0・・・,1)のよう
な16次元の二値ベクトルになる。適当に3つの状態α
、、α2、α3を選んで、それらを記憶させる。すなわ
ち、それらがネットワークの安定な平衡状態に相当する
ようにする。そのためには、結合WijをWij=Σ,
(2ui(as)− 1)(2uj(a,)−1), 
WH = 0とする。
The state of the network becomes a 16-dimensional binary vector such as (1, 0.0..., 1). Appropriately three states α
, , α2, α3 and store them. That is, let them correspond to a stable equilibrium state of the network. To do this, we define the combination Wij as Wij=Σ,
(2ui(as)-1)(2uj(a,)-1),
Let WH = 0.

適当な初期状態から出発して、記憶させたパターンを想
起する。Hopfieldのネットワークの新しい点は
、結合を対称的なものに限り、非同期的な動作を導入し
、ネットワークのエネルギーの概念を導入することによ
って、ネットワークの動作を分かりやすくした点である
Starting from an appropriate initial state, the memorized pattern is recalled. What is new about Hopfield's network is that it makes the operation of the network easier to understand by limiting the connections to symmetric ones, introducing asynchronous operations, and introducing the concept of network energy.

Hopfleldのネットワークは、ネットワークにフ
ィードバノクループが含まれているため、その動作を特
徴づけるものとして、ネットワークの平衡状態が重要に
なる。そこで、ネットワークを使う場合には、平衡状態
の性質を調べることが重要になる。
Since the Hopfleld network includes a feeder loop, the equilibrium state of the network is important as a characteristic of its operation. Therefore, when using networks, it is important to investigate the properties of the equilibrium state.

そのため、次のようなネソトワークの状態αの関数を考
える。
Therefore, consider the following function of the state α of the network.

E(a) =ΣiΣjWijuj(a)uj(a)十Σ
i(si− ei)ui(a)ただし、u4(α)など
は、状態αでユニットiがとっている値である。いま、
あるユニッ}u4が状態変化規則6にのっとり、状態変
化をしたとしたとき、この関数がどのように変化するが
をみる。uiの値が1がら0に変わったとすると、それ
にょるEの変化量は、ΔiE(α)=ΣiWjiuj(
Q) +Si − Oiとなる。
E (a) = ΣiΣj Wijuj (a) uj (a) ten Σ
i(si-ei)ui(a) However, u4(α) etc. are the values taken by unit i in state α. now,
Let's see how this function changes when a certain unit u4 changes state according to state change rule 6. If the value of ui changes from 1 to 0, the amount of change in E is ΔiE(α)=ΣiWjiuj(
Q) +Si − Oi.

ところで、状態変化規則から、uiの値が1がら0にな
ったということは uiへの入力の総和一しきい値くo、 すなわち、 ΣjWjHuj− sH − ei< 0であったはず
である。ところが、この左辺と上のΔiEとは等しいが
ら、結局、状態変化によって、Eは減少したことになる
By the way, according to the state change rule, the fact that the value of ui changed from 1 to 0 means that the sum of the inputs to ui is equal to the threshold value o, that is, ΣjWjHuj−sH−ei<0. However, although the left side and ΔiE above are equal, E has decreased due to the state change.

uiの値が0から1に変わる場合についても、同様の議
論が戒り立ち、結局、いずれの場合にもEは減少するこ
とがわかる。
A similar argument can be made for the case where the value of ui changes from 0 to 1, and it can be seen that E decreases in either case.

状態変化が起こる度にEは減少していくがら、いま、ネ
ットワークの状態が、どのユニットの状態を変えてもE
の値が増えてしまうような状態になった場合には、それ
以上の状態変化は生じない。このことから、平衡状態と
は、Eの値が極小値をとるような状態であることがわが
る。
E decreases each time a state change occurs, but no matter which unit's state changes in the network state, E decreases.
If the state is such that the value of increases, no further state changes occur. From this, it can be seen that an equilibrium state is a state in which the value of E takes a minimum value.

平衡状態を、ネットワークのエネルギーの極小値を与え
るものとして特徴づけるとともに、ネットワークの動作
を、そのエネルギーの極小化をしていると意味づけるこ
ともできる。こうした解釈が可能になったのは、結合を
対称的なものに限ったためである。
The equilibrium state can be characterized as giving a minimum value of the energy of the network, and the operation of the network can also be interpreted as minimizing its energy. This interpretation is possible because we limit bonds to symmetrical ones.

ある評価関数がちょうどエネルギーになるようなネット
ワークをつくって動作させれば、そのネットワークによ
って、評価関数を最適化するような状態を並列処理で求
めることができる。つまり、ネットワークを最適化機械
とみることができる。
If you create and operate a network such that a certain evaluation function has just the energy, you can use that network to find a state that optimizes the evaluation function using parallel processing. In other words, networks can be viewed as optimization machines.

結合Wijの決め方について説明する。上記の例では、 α1,α2,α3を記憶させるため、 Wij=Σ,:13(2ui(a,)−1X2uj(a
,)−1)Wii=0,si=0,ei=0 としている。
How to determine the connection Wij will be explained. In the above example, in order to store α1, α2, α3, Wij=Σ, :13(2ui(a,)-1X2uj(a
, )-1) Wii=0, si=0, ei=0.

いま、ネットワークに覚えさせた状態のうちのどれか1
つがα8であるとする。
Which one of the states you have now memorized by the network?
Suppose that the value is α8.

このとき、ユニットiへの人力の総和は、ii=ΣiW
ijui(αs) =Σ,(2ui(a8)−1) {Σjuj(αs) 
(2uj(αB) 1)){}の中は、Sの値によって
変化する。これがS=Sの場合以外は0になるように、
うまくα1,α2,α3が作ってあると、 ii=2ui(a,−1) X C (C>0)となり
、 もし、ui(a,) = 1ならば、ii>0、したが
って、uiの次の状態も1になる。また、もし、ui(
αs)=0ならば、ii<0、したがって、uiの次の
状態もOになる。したがって、ネットワークの状態は、
α,から変化しないことがわかる。
At this time, the total human power for unit i is ii=ΣiW
ijui(αs) =Σ, (2ui(a8)−1) {Σjuj(αs)
(2uj(αB) 1)) The values in {} vary depending on the value of S. So that this becomes 0 except when S=S,
If α1, α2, α3 are created well, ii=2ui(a,-1) The next state will also be 1. Also, if, ui(
If αs)=0, then ii<0, so the next state of ui will also be O. Therefore, the state of the network is
It can be seen that there is no change from α.

エネルギーの言葉でいうと、全てのユニットの状態変化
についてΔE>Oということである。つまり、asはE
の極小を与えている。したがって、上述の結合の決め方
でうまくいくためには、 Σiuj(aB冫(2uj(a,)  1)=2Σju
j(α8)uj(α,)一Σiui (α,)が、S=
8以外のSについて、0になる条件を満たしているとよ
い(十分条件)。
In terms of energy, this means that ΔE>O for all unit state changes. In other words, as is E
It gives the minimum of . Therefore, in order to successfully determine the connections described above, Σiuj(aB冫(2uj(a,) 1)=2Σju
j(α8)uj(α,)−Σiui(α,) is S=
It is preferable that the condition for S other than 8 to be 0 is satisfied (sufficient condition).

この条件はα1,α2,.α3が16次元のうちのちょ
うど半分について1であるようなベクトルで、さらに、
2つのベクトルが共有している1がそのまた半分の4個
であるような場合には或り立つ。しかし、このようにα
,が選んであると、そのベクトルを反転した(1とOを
入れ替えた)ようなベクトルについても、上の条件が満
たされるので、そうしたベクトルも平衡状態になってし
まう。一般に、記憶させたいものだけを平衡状態にする
ことは、それほど易しくないわけである。
This condition is α1, α2, . A vector such that α3 is 1 for exactly half of the 16 dimensions, and furthermore,
This holds true if the number of 1's shared by two vectors is half of the number of 4's. However, like this α
, is selected, the above condition is also satisfied for a vector that is the inverse of that vector (1 and O are swapped), so such a vector will also be in an equilibrium state. In general, it is not so easy to bring only the things you want to remember into an equilibrium state.

これはさておき、結合マトリックス{Wij}とベクト
ル(u,)との積和を効率的に計算することがこの素子
では重要である。{Wij}はアプリオリに与えておく
Aside from this, it is important for this element to efficiently calculate the sum of products of the coupling matrix {Wij} and the vector (u,). {Wij} is given a priori.

(発明が解決しようとする課題) このような演算目的に適する素子、つまり並列処理を可
能な限り取り入れられるハードウェアの必要性が強まっ
ている。この目的を達成するため半導体記憶素子(DR
AM)を適用した例が報告されている。DRAMはディ
ジタル記憶では高速性を発揮するが、上記のようなマト
リックスとベクトルとの積の計算では、意外にCPU時
間がかがる。これはマトリックスの各要素とベクトルの
各成分との積と和をそれぞれ別々に、しかも積について
は各要−素毎に逐次計算し、その後、和を計算する方式
しか取れないため、時間がかかる。これはDRAMがデ
ィジタル素子であるため、出力電圧を積み上げていくこ
とができないことによる。つまり、各素子毎にアース電
位があり、そのレベルから外部印加電圧によって決る電
圧にしかならない。したがって、各要素毎の電圧を改め
て足し算する必要がある。この部分の計算に費やされる
時間を短縮することが重要な技術課題である。従来の半
導体メモリを使った方法では、計算時間の短縮が素子自
体の特性(構造)に由来する理由で難しかった。本発明
では、この問題を解決する新しい方法を提示する。
(Problems to be Solved by the Invention) There is an increasing need for elements suitable for such calculation purposes, that is, hardware that can incorporate parallel processing as much as possible. To achieve this purpose, semiconductor memory elements (DR)
An example of applying AM) has been reported. Although DRAM exhibits high speed in digital storage, calculation of the product of a matrix and a vector as described above takes a surprising amount of CPU time. This takes time because the only way to do this is to calculate the product and sum of each element of the matrix and each component of the vector separately, and the product is calculated for each element sequentially, and then the sum is calculated. . This is because the DRAM is a digital device and cannot accumulate output voltages. In other words, each element has a ground potential, and from that level the voltage can only be determined by the externally applied voltage. Therefore, it is necessary to add up the voltages for each element again. An important technical challenge is to reduce the time spent on this part of the calculation. With conventional methods using semiconductor memory, it has been difficult to shorten calculation time due to the characteristics (structure) of the device itself. The present invention presents a new method to solve this problem.

(課題を解決するための手段) 本発明では、磁気メモリを使って半導体メモリでは上記
の計算時間を短くできなかった欠点を取り除いている。
(Means for Solving the Problems) In the present invention, a magnetic memory is used to eliminate the drawback that the calculation time cannot be shortened with a semiconductor memory.

本発明は磁気バブルを保持し得る磁性薄膜と、該薄膜上
で交差する2本の導体線と、同じく前記薄膜上に配置さ
れ導体で結線された磁気検出器とからなる構成部分を単
位とする行列・ベクトル積和演算素子である。
The unit of the present invention is a component consisting of a magnetic thin film that can hold magnetic bubbles, two conductor wires that intersect on the thin film, and a magnetic detector that is also placed on the thin film and connected with a conductor. It is a matrix/vector product-sum calculation element.

(実施例1) 半導体メモリの代わりにバブルメモリを使った例を示す
。第1図は本発明の素子の構或例で、簡単のため9×9
のマトリックスからなっている例を考える。バブル保持
用ガーネット膜2はGd3Ga5012(111)基板
1上に液相エピタキシャル法で或長じた膜面垂直方向を
磁化容易軸とするフエリ磁性薄膜である。図に2で示す
セル相互間の干渉を防ぐため、セル毎に分離している。
(Example 1) An example in which a bubble memory is used instead of a semiconductor memory will be shown. Figure 1 shows an example of the structure of the element of the present invention, which is 9x9 for simplicity.
Consider an example consisting of a matrix of The bubble-retaining garnet film 2 is a ferrimagnetic thin film that is elongated to a certain extent on the Gd3Ga5012 (111) substrate 1 by liquid phase epitaxial method and whose axis of easy magnetization is perpendicular to the film surface. In order to prevent interference between the cells shown by 2 in the figure, each cell is separated.

分離方法はセルとセルとの境界領域を第2図に8で示す
ように完全に削り取ってしまうとか、あるいはイオン注
入方法を利用して削り取ってしまう領域に相当する場所
の磁性を弱くしてしまうといった方法を適用する。
Separation methods include completely scraping off the boundary area between cells as shown at 8 in Figure 2, or using ion implantation to weaken the magnetism in the area corresponding to the scraped area. Apply methods such as:

第1図の縦方向に走っている導体線4がXリード、横方
向に走っている導体線5がYリードである。
The conductor wire 4 running in the vertical direction in FIG. 1 is the X lead, and the conductor wire 5 running in the horizontal direction is the Y lead.

Xリード、Yリードは各セル上で互いに交差させている
。第1図の右上の領域に示してある6が磁気抵抗効果を
利用した検出器である。各セルの検出器は7で示すよう
に、Yリードと同じくY方向に直列に結線されている。
The X leads and Y leads cross each other on each cell. 6 shown in the upper right area of FIG. 1 is a detector that utilizes the magnetoresistive effect. The detectors of each cell are connected in series in the Y direction, as shown by 7, like the Y leads.

セル内の円3は磁気バブルを示している。次にこの素子
の動作を説明する。記憶行列の生戒はマトリックスに配
列した各セルに磁気バブルを選択的に書き込むことで達
或する。磁気バブルはXおよびY導体線が交差する場所
にあるセルにX導体電流およびY導体電流による磁界の
合成バイアス磁界がバブル発生臨界磁界に比べて高くな
るようにX,Y導体電流からの各磁界の大きさを選択的
に選んで書き込む。当然のことなからXまたはY導体電
流だけではバブルが発生しないようにしておく。なお、
本素子では、記憶行列の内容の変更はそれほど頻繁でな
く、したがって、書き込んだデータの書換えに要する時
間のスピードはあまり厳しく要求されない点も磁気メモ
リにとって有利な点である。
Circle 3 within the cell indicates a magnetic bubble. Next, the operation of this element will be explained. The preservation of the memory matrix is achieved by selectively writing magnetic bubbles into each cell arranged in the matrix. A magnetic bubble is created by applying each magnetic field from the X and Y conductor currents to the cell where the X and Y conductor lines intersect so that the composite bias magnetic field of the magnetic fields from the X conductor current and the Y conductor current is higher than the critical magnetic field for bubble generation. Selectively select the size of the image and write. As a matter of course, bubbles should not be generated only by the X or Y conductor current. In addition,
Another advantage of the magnetic memory is that in this device, the contents of the storage matrix are not changed very frequently, and therefore the time required to rewrite the written data is not required to be very fast.

この素子で要求されているのは読み出し時間のスピード
である。第1図の例はこの要求に整合している。
What is required of this element is the speed of readout time. The example of FIG. 1 meets this requirement.

第1図の例における読み出し方法を説明する。縦方向に
走っている各X導体線に一斉にベクトルの各威分xkの
大きさ(Oorl)に応じた電流パルスを与える。例え
ば、ベクトル或分が0の導体線jには電流パルスを与え
ず、ベクトル威分が1である導体線j′には所定の振幅
の電流パルスを与えるといった方法である。そうすると
、横方向(Y方向)に直列に結線されている各セルの磁
気抵抗効果を利用した検出器出力は各セルの状態(バブ
ルがあるか、ないか)と、X導体線に電流パルスを与え
たか、否かとの積に相当する磁気抵抗効果に基づく電圧
変化を生じる。その真理値表を第3図に示す。第3図(
5)に示すように、マトリックスのij要素が゛1″(
バブルが存在)であれば、ベクトル或分Xjに甲を入れ
ると、検出線iに出力“1′”に相当する電圧変化を生
じる。第3図(b)に示すように、ij要素が“0”(
バブルがない)であれば、ベクトル或分jに“1′゛を
入れても、検出線iの出力は(1011になる。第3図
(C)に示すように、マトリックスのり要素が“1”(
バブルが存在)であっても、ベクトル或分Xjに“0”
を入れると、検出線iには、出力“0”′に相当する電
圧変化しか生じない。第3図(d)に示すように、U要
素が゜“0′”(バブルがない)のときは、ベクトル戒
分jに“0”を入れれば検出線iの出力も“0′″にな
る。このような各検出器を直列に繋いだ線を定電流電源
に接続しておくと、各セルの電圧変化の総和をマトリッ
クスの各行毎に一斉に検出することができる。この総和
は、マトリックスのi行要素と各ベクトル或分との積和
ΣjWijxjに相当する。
The reading method in the example of FIG. 1 will be explained. A current pulse corresponding to the magnitude (Oorl) of each force xk of the vector is applied simultaneously to each X conductor line running in the vertical direction. For example, a method is such that a current pulse is not applied to the conductor line j whose vector value is 0, and a current pulse of a predetermined amplitude is applied to the conductor line j' whose vector value is 1. Then, the detector output using the magnetoresistive effect of each cell connected in series in the horizontal direction (Y direction) will determine the state of each cell (whether there is a bubble or not) and the current pulse in the X conductor wire. A voltage change is generated based on the magnetoresistive effect, which corresponds to the product of whether or not the current is applied. The truth table is shown in FIG. Figure 3 (
5), the ij element of the matrix is ``1'' (
If a bubble exists), when the vector Xj is inserted by a certain amount, a voltage change corresponding to the output "1'" is generated on the detection line i. As shown in FIG. 3(b), the ij element is “0” (
If there is no bubble), even if "1'" is inserted into the vector j, the output of the detection line i will be (1011).As shown in FIG. ”(
Even if a bubble exists), the vector Xj is “0” to some extent
, only a voltage change corresponding to the output "0"' occurs on the detection line i. As shown in Fig. 3(d), when the U element is ゜“0′” (no bubble), if “0” is entered in the vector command j, the output of the detection line i will also be “0′”. Become. If a line connecting each of these detectors in series is connected to a constant current power source, the sum of voltage changes of each cell can be detected simultaneously for each row of the matrix. This sum corresponds to the product sum ΣjWijxj of the i-row element of the matrix and a certain portion of each vector.

セル内の磁気バブルによる磁気抵抗効果は次のようにし
て検知する。各行毎の検出線の基底状態(X導体線に電
流パルスをあたえていない状態)と励起状態(X導体線
に電流パルスを与えている状態冫との差をとる。励起状
態と基底状態との差は第4図に示すようにX導体線に電
流パルスを与えると、バブル直径が9から10へ小さく
なり、したがって磁気バブルと磁気抵抗効果検出器との
結合が小さくなり、バブル磁界による磁気抵抗効果が減
少することによってでてくる。いま、(YSmLuCa
)3(FeGe)5012系材料を選ぶと、バブルドメ
イン磁壁の移動度は5m/see−Oe程度になるから
、検出時に直径5pmのバブルを311mまで小さくす
るには、see−Oe=2X10 −7を満たす必要が
ある。例えば、パルスバイアス磁界の時間幅を0.5p
secとすると、磁界振幅は0.40eで充分である。
The magnetoresistive effect due to magnetic bubbles within the cell is detected as follows. The difference between the ground state (state where no current pulse is applied to the X conductor wire) and the excited state (state where a current pulse is applied to the X conductor wire) of the detection line for each row is taken. The difference is as shown in Figure 4, when a current pulse is applied to the X conductor wire, the bubble diameter decreases from 9 to 10, and therefore the coupling between the magnetic bubble and the magnetoresistive detector becomes smaller, and the magnetoresistance due to the bubble magnetic field decreases. This occurs when the effect decreases.Now, (YSmLuCa
)3 (FeGe) 5012-based material, the mobility of the bubble domain domain wall will be about 5 m/see-Oe, so in order to reduce a bubble with a diameter of 5 pm to 311 m at the time of detection, see-Oe = 2X10 -7 need to be met. For example, the time width of the pulse bias magnetic field is set to 0.5p.
sec, a magnetic field amplitude of 0.40e is sufficient.

つまり、0.5psecで、積和計算が1回完了する。In other words, one product-sum calculation is completed in 0.5 psec.

必要な情報を得るためには、この計算を10回程度繰り
返す必要があるから、総計算時間は5psec程度にな
る。この計算時間は半導体DRAMを使って1000x
lO00のマトリックス計算をしたとき、約100ps
ecと要するのに比べて格段に処理速度が上がっている
ことになる。
In order to obtain the necessary information, it is necessary to repeat this calculation about 10 times, so the total calculation time is about 5 psec. This calculation time is 1000x using semiconductor DRAM.
When calculating the matrix of lO00, about 100 ps
This means that the processing speed is significantly higher than that required with ec.

なお、パルスバイアス磁界振幅を10倍高くすると、理
論的には上記の計算時間はさらにl桁小さくなる。
Note that if the pulse bias magnetic field amplitude is increased by 10 times, the above calculation time will theoretically be further reduced by an order of magnitude.

(実施例2) シナプス結合といわれるこの結合の仕方−は、一般に十
とーおよび0の3通りである例が多い。+はニューロン
の出力をそのまま別のニューロンの入力に結合すること
(正結合)を意味している。一はニューロンの出力を逆
転して一にして別のニューロンの人力に結合すること(
負結合)を意味する。前者は興奮性の結合に相当し、後
者は抑制性の結合に相当する。0は結合していないこと
を意味する。実際の素子におけるこれらの興奮性、抑制
性の結合の作り方としては実施例1で示した記憶行列を
最も簡単な例としては、2つ用意しておき、1つを興奮
性結合用に、もう1つを抑制性結合用に使うことで、3
レベルの結合を持つ行列・ベクトル積和回路を組み立て
ることができる。3レベル以上のセル構造をもつ記憶行
列も同様の方法で組み上げることが可能である。
(Example 2) There are many cases in which there are generally three ways of making this connection, which is called a synaptic connection: 10, 0, and 0. + means that the output of a neuron is directly connected to the input of another neuron (positive connection). One is to reverse the output of a neuron, make it one, and connect it to the human power of another neuron (
negative bond). The former corresponds to excitatory connections, and the latter corresponds to inhibitory connections. 0 means no bond. The simplest example of how to create these excitatory and inhibitory connections in an actual element is to prepare two memory matrices, one for excitatory connections and the other for excitatory connections. By using one for inhibitory binding, 3
It is possible to construct matrix/vector multiply-accumulate circuits with level connections. Storage matrices with cell structures of three or more levels can also be assembled in a similar manner.

(発明の効果) 本発明により、Hopfieldの自己想起型連想メモ
リの計算速度を向上させ、かつマトリックス記憶部を完
全不揮発性にすることが可能になり、従来の半導体RA
M使用のシステムに比べて、システム性能が格段に改善
された。
(Effects of the Invention) According to the present invention, it is possible to improve the calculation speed of Hopfield's self-remembering associative memory, and to make the matrix storage part completely non-volatile.
System performance was significantly improved compared to the system using M.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の素子の主要部の図。第2図はセル分離
の方法の例を示す図。第3図は本発明における行列要素
とベクトル戒分との積回路を説明する図。第4図は本発
明の磁気抵抗効果検出器の動作を説明する図。第5図は
ニューラルネットワークのホップフィールドモデルを示
す図。第6図はホップフィールドモデルを使った連想メ
モリの動作例を示す図。 1:磁気バブル保持層基板、2:セル、3:磁気バブル
、4:X導体線、5:Y導体線、6:磁気抵抗効果検出
器、7:各磁気抵抗効果検出器の結線、8:セル間分離
帯、9:磁気バブル、10:tjf気バブル。
FIG. 1 is a diagram of the main parts of the device of the present invention. FIG. 2 is a diagram showing an example of a cell separation method. FIG. 3 is a diagram illustrating a product circuit of matrix elements and vector precepts in the present invention. FIG. 4 is a diagram illustrating the operation of the magnetoresistive detector of the present invention. FIG. 5 is a diagram showing a Hopfield model of a neural network. FIG. 6 is a diagram showing an example of the operation of an associative memory using the Hopfield model. 1: Magnetic bubble holding layer substrate, 2: Cell, 3: Magnetic bubble, 4: X conductor wire, 5: Y conductor wire, 6: Magnetoresistive detector, 7: Connection of each magnetoresistive detector, 8: Intercell separation zone, 9: magnetic bubble, 10: TJF air bubble.

Claims (1)

【特許請求の範囲】[Claims]  磁気バブルを保持し得る磁性薄膜と、該薄膜上で交差
する2本の導体線と、同じく前記薄膜上に配置され導体
で結線された磁気検出器とからなる構成部分を単位とす
ることを特徴とする行列・ベクトル積和演算素子。
A unit is a component consisting of a magnetic thin film that can hold magnetic bubbles, two conductor wires that intersect on the thin film, and a magnetic detector that is also placed on the thin film and connected with a conductor. Matrix/vector product-sum operation element.
JP1183052A 1989-07-14 1989-07-14 Matrix/vector product sum computing element Pending JPH0348364A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1183052A JPH0348364A (en) 1989-07-14 1989-07-14 Matrix/vector product sum computing element

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1183052A JPH0348364A (en) 1989-07-14 1989-07-14 Matrix/vector product sum computing element

Publications (1)

Publication Number Publication Date
JPH0348364A true JPH0348364A (en) 1991-03-01

Family

ID=16128897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1183052A Pending JPH0348364A (en) 1989-07-14 1989-07-14 Matrix/vector product sum computing element

Country Status (1)

Country Link
JP (1) JPH0348364A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11169732B2 (en) 2017-05-18 2021-11-09 Kabushiki Kaisha Toshiba Computing device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11169732B2 (en) 2017-05-18 2021-11-09 Kabushiki Kaisha Toshiba Computing device

Similar Documents

Publication Publication Date Title
Jaiswal et al. Proposal for a leaky-integrate-fire spiking neuron based on magnetoelectric switching of ferromagnets
Sengupta et al. Encoding neural and synaptic functionalities in electron spin: A pathway to efficient neuromorphic computing
US9646243B1 (en) Convolutional neural networks using resistive processing unit array
US11055608B2 (en) Convolutional neural network
TW201837917A (en) Neuromorphic weight cell and method of forming the same and artificial neural network
CN107368888B (en) Brain-like computing system and synapse thereof
CN105637541A (en) Shared memory architecture for a neural simulator
Elmasry VLSI artificial neural networks engineering
US10453527B1 (en) In-cell differential read-out circuitry for reading signed weight values in resistive processing unit architecture
Chen et al. Nanoscale room-temperature multilayer skyrmionic synapse for deep spiking neural networks
US11216728B2 (en) Weight matrix circuit and weight matrix input circuit
Sengupta et al. Stochastic inference and learning enabled by magnetic tunnel junctions
Cai et al. Unconventional computing based on magnetic tunnel junction
Lone et al. Magnetic tunnel junction based implementation of spike time dependent plasticity learning for pattern recognition
US11195089B2 (en) Multi-terminal cross-point synaptic device using nanocrystal dot structures
CN108154226B (en) Neural network chip using analog computation
CN112270409B (en) Non-supervision learning synaptic unit circuit based on Hall strip
CN108154227B (en) Neural network chip using analog computation
Mondal et al. In-situ stochastic training of MTJ crossbar based neural networks
JPH0348364A (en) Matrix/vector product sum computing element
Sheikhfaal et al. Long short-term memory with spin-based binary and non-binary neurons
Gupta et al. On-chip unsupervised learning using STDP in a spiking neural network
Chen et al. Spintronic memristor synapse and its RWC learning algorithm
KR102490774B1 (en) Synaptic Device For Neural Network Training
Walls et al. Self-organization in autonomous, recurrent, firing-rate CrossNets with quasi-hebbian plasticity