JPH02181258A - Semiconductor integrated circuit device using neuro network and its production and neuro network device - Google Patents

Semiconductor integrated circuit device using neuro network and its production and neuro network device

Info

Publication number
JPH02181258A
JPH02181258A JP64000299A JP29989A JPH02181258A JP H02181258 A JPH02181258 A JP H02181258A JP 64000299 A JP64000299 A JP 64000299A JP 29989 A JP29989 A JP 29989A JP H02181258 A JPH02181258 A JP H02181258A
Authority
JP
Japan
Prior art keywords
learning
circuit
semiconductor integrated
neuron
integrated circuit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP64000299A
Other languages
Japanese (ja)
Inventor
Moritoshi Yasunaga
守利 安永
Minoru Yamada
稔 山田
Akira Masaki
亮 正木
Noboru Masuda
昇 益田
Masayoshi Yagyu
正義 柳生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP64000299A priority Critical patent/JPH02181258A/en
Priority to US07/461,080 priority patent/US5165010A/en
Priority to DE69032680T priority patent/DE69032680T2/en
Priority to EP90100171A priority patent/EP0378115B1/en
Publication of JPH02181258A publication Critical patent/JPH02181258A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L2924/00Indexing scheme for arrangements or methods for connecting or disconnecting semiconductor or solid-state bodies as covered by H01L24/00
    • H01L2924/0001Technical content checked by a classifier
    • H01L2924/0002Not covered by any one of groups H01L24/00, H01L24/00 and H01L2224/00

Abstract

PURPOSE:To relieve the defects of a neuron learning circuit without deteriorating the overall degree of integration of a semiconductor integrated circuit device by separating the neuron learning circuit from a neuro network to use it in common and attaining such a constitution where the detects can be relieved for the neuron learning circuit. CONSTITUTION:A learning circuit system 999 is separated from each neuron 1 and used in common among the neurons 1, and a signal system 998 is neces sary for learning. In a neuro network enclosed by a broken line, the learning is performed normally as long as the system 999 is normal even when a defect is generated. Then a defective neuron is excluded. Since the defect of the learn ing system is relieved in advance, an erroneous learning signal is never transmit ted to the neuro network. The learning is carried out as follows. That is, the synapse weight value of the neuron of an Lm layer is fetched to the system 999 and then written into the original synapse after the weight value is changed. This operation is applied to each neuron of an Lm layer. The same process is carried out to the next Ln layer.

Description

【発明の詳細な説明】 [産業上の利用分野コ 本発明は電子計算機等の情報処理装置に係り、特にニュ
ーラルネットワークを備えた情報処理装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an information processing device such as an electronic computer, and more particularly to an information processing device equipped with a neural network.

[従来の技術] 従来より代表的なニューラルネットワークの構造として
、パターン連想型(Pattern associat
or)ネットワークが知られている。また、パターン連
想型ネットワークの代表的な学習アルゴリズムとしてパ
ックプロパゲーション法が知られている。
[Prior Art] As a typical neural network structure, pattern associative
or) network is known. Furthermore, the pack propagation method is known as a typical learning algorithm for pattern associative networks.

パターン連想型ネットワーク、パックプロパゲーション
法については日経エレクトロニクス1987年8月10
8号(第427号)P115〜P124にその詳細が示
されている。
Nikkei Electronics August 10, 1987 for information on pattern associative networks and pack propagation methods.
The details are shown in P115 to P124 of No. 8 (No. 427).

第2図を用いてパターン連想型ネットワーク構造の概略
を説明する。1はニューロンであり、ニューロンは一つ
の細胞体2と複数のシナプス3から構成されている。9
は信号線であり、矢印は信号の流れを示している。図面
左側より入力された入力信号は該ネットワーク中を伝搬
する間に処理され1図面右側より出力される。なお、こ
こで示す信号機とはネットワークを通常動作させた時の
信号の経路であり、学習時の学習信号の流れを示すもの
では無い。学習信号の流れについては後述する。本図で
は各/1(Ll〜Ln)は三つのニューロンから構成さ
れているが、いくつのニューロンから構成されていても
よい。
The outline of the pattern associative network structure will be explained using FIG. 1 is a neuron, and the neuron is composed of one cell body 2 and a plurality of synapses 3. 9
is a signal line, and the arrows indicate the signal flow. An input signal input from the left side of the drawing is processed while propagating through the network and output from the right side of the drawing. Note that the traffic lights shown here are the signal paths when the network is normally operated, and do not indicate the flow of learning signals during learning. The flow of the learning signal will be described later. In this figure, each /1 (Ll to Ln) is composed of three neurons, but it may be composed of any number of neurons.

第3図はパックプロパゲーション法による学習アルゴリ
ズムを説明するための概略図で、第2図で示したニュー
ロン1の一つを示している。II。
FIG. 3 is a schematic diagram for explaining a learning algorithm based on the pack propagation method, and shows one of the neurons 1 shown in FIG. 2. II.

I2.13は前の層の各ニューロンからの出力信号であ
り、○UTはニューロンの出力信号で1次の層のニュー
ロンのシナプスに入力される。本図では、実線は通常動
作時の信号の流れを示し、破線はパックプロパゲーショ
ン学習時の信号の流れを示す。シナプス3はそれぞれ固
有の重み値Wを与えられており、各入力信号に重み値W
を掛け。
I2.13 is the output signal from each neuron in the previous layer, and UT is the output signal of the neuron, which is input to the synapse of the neuron in the first layer. In this figure, solid lines indicate the flow of signals during normal operation, and broken lines indicate the flow of signals during pack propagation learning. Each synapse 3 is given a unique weight value W, and each input signal is given a weight value W.
Multiply.

その値を出力するステップに相当する。4は重み値Wを
掛けた後、入力値の総和を計算するステップ、5は入力
値の関数値fを出力するステップを示す。なお、5の関
数形としては、シグモイド関数等が知られている。6は
スイッチであり、通常動作時と学習時で切り替えられる
。7は学習時にシナプスの重み値の変更1d (n)を
計算するステップを示す。D (n+1)は次段からの
学習信号である。詳細には d(n)=aXf’(s)XIX(D(n+1)の総和
)(1)式である。ここでSはステップ4の出力で、f
′は先に述べたステップ5における関数値fの微分値で
ある。■はシナプスへの入力信号(II〜I3)であり
、aは定数である。8は前段への学習信号D (n)を
計算するステップである。D (n)はD (n)=W
Xd (n)        (2)式によって計算さ
れる。以上説明した通常動作と学習動作を繰り返すこと
により、シナプスの重み値Wがd (n)によって変更
され、ネットワーク全体は所望の入出力対応を実現でき
るように構成される。
This corresponds to the step of outputting that value. 4 indicates a step of calculating the sum of input values after being multiplied by the weight value W, and 5 indicates a step of outputting a function value f of the input values. Note that a sigmoid function and the like are known as the functional form of 5. 6 is a switch, which can be switched between normal operation and learning. 7 indicates a step of calculating a change in synaptic weight value 1d (n) during learning. D (n+1) is a learning signal from the next stage. Specifically, d(n)=aXf'(s)XIX (sum of D(n+1)) (1) is the formula. Here S is the output of step 4 and f
' is the differential value of the function value f in step 5 mentioned above. (2) is an input signal (II to I3) to the synapse, and a is a constant. 8 is a step of calculating the learning signal D (n) to the previous stage. D (n) is D (n)=W
Xd (n) Calculated using equation (2). By repeating the normal operation and learning operation described above, the weight value W of the synapse is changed by d (n), and the entire network is configured to realize the desired input/output correspondence.

以上説明したように、パターン連想型ネットワーク構造
、パックプロパゲーション学習アルゴリズムはその単純
な構成と単純なアルゴリズムのため計算機上のシミュレ
ーションに留まらず、半導体集積回路装置として実現す
ることが容易であるという大きな利点がある。即ち第3
図における、3は乗算回路とメモリ回路 4は加算回路 5はメモリ回路 6スイツチ回路 7は乗算回路と加算回路とメモリ回路 8は乗算回路 によって容易に装置化できる。更に、この従来技術の大
きな特長は、半導体集積回路を用いた装置化の際、ニュ
ーロンの欠陥を学習により自動的に排除する点にある。
As explained above, the pattern associative network structure and pack propagation learning algorithm have a simple structure and a simple algorithm, so they are not limited to computer simulations, and have the potential to be easily realized as semiconductor integrated circuit devices. There are advantages. That is, the third
In the figure, 3 is a multiplication circuit, memory circuit 4 is an adder circuit 5 is a memory circuit, 6 is a switch circuit 7 is a multiplier circuit, an adder circuit, and a memory circuit 8 can be easily implemented as a multiplication circuit. Furthermore, a major feature of this prior art is that it automatically eliminates neuron defects through learning when a device is fabricated using a semiconductor integrated circuit.

以下、その利点を第4@を用いて説明する。100は欠
陥ニューロンであり、101は欠陥ニューロンの細胞体
、102は欠陥ニューロンのシナプスである。200は
欠陥ニューロンの前段のニューロンであり、201は細
胞体、202はシナプスである。300は欠陥ニューロ
ンの次段のニューロンで、301.は細胞体である。3
02は欠陥ニューロン100の出力につながったシナプ
スである。実線は通常動作時の信号の流れ、破線は学習
信号の流れを示す。欠陥ニューロン100の出力OUT
は異常な値であるため、ニューロン300は学習を繰り
返すことによりシナプス3020重み値WをOにする。
The advantages thereof will be explained below using the fourth @. 100 is a defective neuron, 101 is a cell body of the defective neuron, and 102 is a synapse of the defective neuron. 200 is a neuron in the previous stage of the defective neuron, 201 is a cell body, and 202 is a synapse. 300 is a neuron at the next stage of the defective neuron, 301. is the cell body. 3
02 is a synapse connected to the output of the defective neuron 100. The solid line shows the signal flow during normal operation, and the broken line shows the learning signal flow. Output OUT of defective neuron 100
Since is an abnormal value, the neuron 300 sets the synapse 3020 weight value W to O by repeating learning.

即ち、欠陥ニューロン100とニューロン300との信
号接続は学習によって切り離される。また、この欠陥が
ニューロン100の学習回路系、即ち第3図における3
、4,6,8,7 (3,4は通常動作にも使用され、
共通回路系である)の欠陥でない場合、前段への学習信
号D (n)も正常に伝達される。従って、前段のニュ
ーロン200も正常に学習することが可能である。要約
すれば、このような欠陥モード、即ち、欠陥ニューロン
100の出力値が異常でも学習系が正常であれば、ネッ
トワーク全体は正常に学習を実行し、欠陥ニューロン1
00を自動的に排除することができる。これはニューロ
ンが学習によって自動的に欠陥を救済していることに等
しい。従って、このネットワーク構造とアルゴリズムを
半導体集積回路で装置化した場合、以上のような欠陥は
学習によって自動救済されるため、装置の歩留まりは非
常に太きく向上する。
That is, the signal connection between the defective neuron 100 and the neuron 300 is separated by learning. This defect also affects the learning circuit system of the neuron 100, that is, 3 in FIG.
, 4, 6, 8, 7 (3, 4 are also used for normal operation,
If there is no defect in the common circuit system), the learning signal D (n) to the previous stage is also transmitted normally. Therefore, the neurons 200 in the previous stage can also learn normally. In summary, in such a defect mode, that is, if the learning system is normal even if the output value of the defective neuron 100 is abnormal, the entire network will perform learning normally and the defective neuron 1
00 can be automatically excluded. This is equivalent to neurons automatically correcting defects through learning. Therefore, when this network structure and algorithm are incorporated into a device using a semiconductor integrated circuit, the above-mentioned defects are automatically repaired by learning, and the yield of the device is greatly improved.

[発明が解決しようとする課題] 一方、不都合な点は欠陥ニューロン100の学習回路系
に欠陥があった場合である。この場合でも、上で述べた
ように次段のニューロン300は学習によってシナプス
302の重み値WをOにする。しかし、前段のニューロ
ン200は欠陥ニューロン100より誤った学習信号を
伝達されるため、正しい学習を実行することが非常に困
難である。従って、このような欠陥モードの場合、自動
的に欠陥を救済することができない。このため通常の1
cm”程度の半導体チップに装置化しても歩留まりを1
00%に近づけることは困難である。
[Problems to be Solved by the Invention] On the other hand, a disadvantage is when there is a defect in the learning circuit system of the defective neuron 100. Even in this case, as described above, the next stage neuron 300 sets the weight value W of the synapse 302 to O by learning. However, since the preceding neuron 200 receives an incorrect learning signal from the defective neuron 100, it is very difficult to perform correct learning. Therefore, in such a defect mode, the defect cannot be automatically repaired. For this reason, the normal 1
Even if the device is made into a semiconductor chip with a size of 1 cm, the yield will be 1.
It is difficult to approach 00%.

さらには、ウェーハスケール集積回路で実現した場合、
学習回路系の全面積が非常に大きくなるため、歩留まり
の向上はほとんど0%に等しい。
Furthermore, when realized with wafer scale integrated circuits,
Since the total area of the learning circuit system becomes very large, the improvement in yield is almost equal to 0%.

第5図は半導体ウェーハ上に装置化した時の概略図であ
る。、10はウェーハであり、11は半導体製造プロセ
スによって作られたニューロンである。ニューロン11
の内、斜線で示した部分12は学習回路系(通常動作時
の共通回路系を含む)である。学習回路系12は二ニー
ロン11の1/2近くの面積を占めている。ウェーハ1
0の寸法は5インチで、0.4cmX0.4cmの二ニ
ーロン11が400個載せられている。この例の場合、
学習回路系の総面積Aは32 c m”である。先に説
明したように歩留まりは学習回路系の総面積で決定され
、従って歩留まり計算 Y=exp (−DXA)       (3)式Y二
歩留まり D:欠陥密度 A:面積 より1歩留まりはほとん0%である。ここで欠陥密度は
1個/cm2としているに の問題点を解決する方法として、学習回路12を歩留ま
りを見越して多重に設ける方法が挙げられる。第6図に
その概略を示す。10はウェーハで、12′は学習回路
である。12′は第3図における回路3,4,6,7.
8である。また第6図の13は学習回路系以外の回路で
あり、第3図における5に等しい。12′と13を1対
に組合せることによりニューロン1が構成される。
FIG. 5 is a schematic diagram of the device formed on a semiconductor wafer. , 10 is a wafer, and 11 is a neuron made by a semiconductor manufacturing process. neuron 11
A shaded portion 12 is a learning circuit system (including a common circuit system during normal operation). The learning circuit system 12 occupies nearly 1/2 of the area of the two-needle 11. wafer 1
The dimensions of 0 are 5 inches, and 400 0.4cm x 0.4cm two-kneelons 11 are placed thereon. For this example,
The total area A of the learning circuit system is 32 cm". As explained earlier, the yield is determined by the total area of the learning circuit system, so yield calculation Y = exp (-DXA) (3) Equation Y2 Yield D: Defect density A: The yield rate is almost 0% from the area.Here, the defect density is set at 1 piece/cm2, but as a way to solve the problem, there is a method of providing multiple learning circuits 12 in anticipation of the yield rate. The outline thereof is shown in FIG. 6. 10 is a wafer, 12' is a learning circuit, and 12' is a circuit 3, 4, 6, 7, . . . in FIG.
It is 8. Further, 13 in FIG. 6 is a circuit other than the learning circuit system, and is equal to 5 in FIG. 3. Neuron 1 is constructed by combining 12' and 13 as a pair.

ここで学習回路12′は必要ニューロン数Nより多く設
けである。学習回路12′の内焦欠陥のものをN個選び
、回路13と1対に接続することにより、全てのニュー
ロンの学習回路を無欠陥にすることが可能である。この
ような回路の多重化により欠陥を救済する方法について
は、例えば、日程エレクトロニクス1987年6月1日
(第422巻)号P141〜P161等によって知られ
ている。
Here, the number of learning circuits 12' is greater than the required number N of neurons. By selecting N learning circuits 12' having internal focal defects and connecting them to the circuit 13 as a pair, it is possible to make the learning circuits of all neurons defect-free. A method for relieving defects by multiplexing circuits is known, for example, from Journal Electronics, June 1, 1987 (vol. 422), issue P141 to P161.

しかし、この方法によれば次のような問題点が生じる。However, this method causes the following problems.

即ち、ニューロン数Nを実現するためには、学習回路1
2′の数をNよりも多くすることが必要となり、ウェー
ハあるいはチップ上に実現できるニューロン数が少なく
なる。
That is, in order to realize the number of neurons N, the learning circuit 1
It becomes necessary to make the number of 2' larger than N, which reduces the number of neurons that can be realized on a wafer or chip.

本発明の目的は上述した問題点を解決することにより、
ニューロネットワークを ■学習回路系に欠陥が生じても正常に学習を実行し、 ■高集積度に 半導体集積回路装置化することである。
The purpose of the present invention is to solve the above-mentioned problems.
The goal of neuronetworks is to (1) execute learning normally even if a defect occurs in the learning circuit system, and (2) convert it into a highly integrated semiconductor integrated circuit device.

[問題を解決するための手段] 上記目的を達成するために本発明では、1.学習回路系
を各二ニーロンから分離、かつ共通化し、2、分離した
学習回路系を欠陥救済が可能な装置によって構成したこ
とを特徴とする。
[Means for solving the problem] In order to achieve the above object, the present invention has the following features: 1. The learning circuit system is separated from each two-needle system and shared, and the separated learning circuit system is constructed by a device capable of repairing defects.

[作用] 本発明によるネットワークの概念を第1図に示す。99
9は各ニューロン1より分離、かつ共通化された学習回
路系であり、998は学習のための信号系である。破線
内は先に第2図で説明したネットワーク構造と変わりが
ないが、各二ニーロン1は学習回路を持たない。破線内
のニューロネットワークは先に説明したように、欠陥が
生じても学習回路系999が正常であれば、正常に学習
を実行し、欠陥ニューロンを排除する。一方、本発明で
は学習回路の欠陥は予め救済されているので、ニューロ
ネットワークに誤った学習信号を伝達することはない。
[Operation] The concept of the network according to the present invention is shown in FIG. 99
9 is a learning circuit system separated from each neuron 1 and shared, and 998 is a signal system for learning. The area inside the broken line is the same as the network structure explained earlier in FIG. 2, but each two-neelon 1 does not have a learning circuit. As described above, the neural network within the broken line performs learning normally and eliminates the defective neuron if the learning circuit system 999 is normal even if a defect occurs. On the other hand, in the present invention, since defects in the learning circuit are repaired in advance, an erroneous learning signal is not transmitted to the neural network.

学習は、例えば次のように実行される。即ち、Lm層ニ
ューロンのシナプス重み値を学習回路系999に取り込
み、重み値変更の後、もとのシナプスに書き込む。これ
をLmJlのニューロン−つ一つに対し実行し、同様の
処理を次にLn層に対して実行する。
Learning is performed, for example, as follows. That is, the synapse weight value of the Lm layer neuron is taken into the learning circuit system 999, and after the weight value is changed, it is written to the original synapse. This is executed for each neuron of LmJl, and the same process is then executed for the Ln layer.

また、第3図に示したように、全てのニューロン1は共
通の回路から構成されているので、学習回路の共通化可
能である。本発明による学習回路系999は、第3図に
おける回路3,4,6,7゜8と、これらを各ニューロ
ンに共通に割り当てるコントロール回路だけで構成でき
る。従って集積度は第6図はもとより第5図の場合以上
に高集積化が可能である。
Furthermore, as shown in FIG. 3, all the neurons 1 are composed of a common circuit, so that the learning circuit can be shared. The learning circuit system 999 according to the present invention can be constructed only from circuits 3, 4, 6, and 7.8 in FIG. 3 and a control circuit that commonly allocates these circuits to each neuron. Therefore, the degree of integration can be increased not only in the case of FIG. 6 but also in the case of FIG. 5.

一方、全てのニューロンは共通な回路から構成されてい
るが、通常動作に必要な回路(即ち第1図の破線内)に
ついて、学習回路と同様な共通化は困雉である。何故な
らば、N個のニューロンを共通化して、例えば一つにし
た場合、ネットワーり全体の処理速度が1/Hに低減さ
れるからである。例えばN=1000とすると、ネット
ワーク全体の処理速度は1/1000に減少する。この
程度の処理速度であれば、半導体集積回路で装置化せず
とも、電子計算機上のネットワークシミュレーションで
十分実現できる。
On the other hand, although all neurons are composed of common circuits, it is difficult to make the circuits necessary for normal operation (ie, the area within the broken line in FIG. 1) common in the same way as the learning circuit. This is because if N neurons are shared, for example, into one, the processing speed of the entire network will be reduced to 1/H. For example, if N=1000, the processing speed of the entire network decreases to 1/1000. With this level of processing speed, network simulation on a computer can be sufficient to achieve this without using a semiconductor integrated circuit as a device.

[実施例コ 以下、本発明の実施例を図を用いて説明する。[Example code] Embodiments of the present invention will be described below with reference to the drawings.

第7図は、共通化された学習回路系999と、学習回路
を取りのぞいたニューロン1′の一実施例を説明するた
めの図である。なお、本図の機能ブロックの詳細は第8
図、第9図を用いて後に説明する。また、学習回路の欠
陥救済方式についての実施例を後述する。999は共通
化された学習回路で、1′は学習回路を取り除いたニュ
ーロンである。シナプス(乗算回路とメモリ回路)3.
加算回路4.メモリ回路5は第3図と同等である。
FIG. 7 is a diagram for explaining an embodiment of a shared learning circuit system 999 and a neuron 1' from which the learning circuit is removed. For details of the functional blocks in this figure, see Section 8.
This will be explained later using FIGS. Further, an embodiment of a defect relief method for a learning circuit will be described later. 999 is a shared learning circuit, and 1' is a neuron from which the learning circuit has been removed. Synapse (multiplication circuit and memory circuit) 3.
Addition circuit 4. The memory circuit 5 is the same as that shown in FIG.

20は各シナプスへの入力信号11〜Inにシナプスの
重み値Wを掛け、その総和を計算する乗算及び加算回路
である。これは回路3,4と同等である。21はメモリ
回路で、第3図で述べた関数値fの微分値を出力する6
22は第3図におけるD (n) 、 d (n)を計
算する乗算回路と加算回路である。回路21.22は第
3図における7゜8に等しい。20,21.22は各ニ
ューロンに共通して使用される回路であり、23は各二
ニーロンへの逐次割当を総括する制御回路である。
20 is a multiplication and addition circuit that multiplies the input signals 11 to In to each synapse by the weight value W of the synapse and calculates the sum thereof. This is equivalent to circuits 3 and 4. 21 is a memory circuit 6 which outputs the differential value of the function value f described in FIG.
22 is a multiplication circuit and an addition circuit for calculating D (n) and d (n) in FIG. Circuit 21,22 is equal to 7°8 in FIG. 20, 21, and 22 are circuits commonly used for each neuron, and 23 is a control circuit that oversees sequential assignment to each neuron.

20.21.22は第3図に示すニューロン−っに含ま
れるほど規模の小さい回路であり、学習回路999は制
御回路23を含めても0.5cm2程度である。従って
、学習回路999の歩留まりは式(3)式より60%程
度である。ネットワークが欠陥に依存しない、即ち歩留
まり100%であることから、半導体集積回路装置全体
の歩留まりは分離、共通化した学習回路999の歩留ま
り6o%に等しくなる。本実施例をウェーハスケール集
積回路装置に適用した場合、欠陥救済構造無しでもウェ
ーハスケール集積回路の歩留まりを60%まであげるこ
とが可能となる。学習回路を分離、共通化しただけで第
5図に示す従来構成に比べ、歩留まりは飛躍的に向上す
る。なお、図中lx、Wxは他のニューロンの出力値、
他のニューロンのシナプスの重み値に接続された配線を
示す。
20, 21, and 22 are circuits that are small enough to be included in the neuron shown in FIG. 3, and the learning circuit 999, including the control circuit 23, is about 0.5 cm2. Therefore, the yield of the learning circuit 999 is about 60% according to equation (3). Since the network does not depend on defects, that is, the yield is 100%, the yield of the entire semiconductor integrated circuit device is equal to the yield of the separated and shared learning circuit 999 of 60%. When this embodiment is applied to a wafer scale integrated circuit device, it is possible to increase the yield of the wafer scale integrated circuit to 60% even without a defect relief structure. By simply separating and sharing the learning circuit, the yield can be dramatically improved compared to the conventional configuration shown in FIG. In addition, lx and Wx in the figure are the output values of other neurons,
Shows wires connected to synaptic weight values of other neurons.

第8図は第7図における3、4.5を詳細説明するため
の図である。シナプス3への入力信号11〜工3とそれ
ぞれの重み値レジスタ1111に記憶された重み値Wの
積IXW)p/を乗算器1100で計算する。乗算結果
はセレクタ回路1112で逐次選択され、加算器111
3で逐次加算される。加算された結果は次にテーブルI
10回路1114に入力される。ここで加算された結果
に対応した関数値fがf関数テーブル(メモリ)111
5から選択され9選択された値fが細胞体の出力となる
FIG. 8 is a diagram for explaining in detail 3 and 4.5 in FIG. 7. A multiplier 1100 calculates the product IXW)p/ of the input signals 11 to 3 to the synapse 3 and the weight values W stored in the respective weight value registers 1111. The multiplication results are sequentially selected by the selector circuit 1112, and the adder 111
3 is added sequentially. The added results are then shown in Table I
10 circuit 1114. The function value f corresponding to the result of addition here is the f function table (memory) 111
The value f selected from 5 and 9 becomes the output of the cell body.

第9図は第7図における20〜23を詳細に説明するた
めの図である。セレクタ回路1010゜1011には各
ニューロンの出力信号11〜Inと各シナプスの重み値
W1〜Wnが接続されている。セレクト信号2000.
2001はコントロール回路23中のアドレス生成回路
1000゜1001から出力される。セレクタ回路10
10゜1o11で選択されたニューロンの出力信号とシ
ナプスの重み値は、それぞれレジスタ回路1007.1
012に保持され、乗算器1008でその積TXWが計
算される。なお、1013はシナプス重み値を書き込み
、読み出しするためのバッファ回路である。乗算器10
08の乗算結果は加算器1009で逐次加算される。加
算された結果が式(1)のSに相当する。加算結果Sは
テーブルI10回路1014に入力され、加算結果Sに
対応した関数f′がf′関数テーブル1015より選択
される。乗算器1017は先に示した式(1)の乗算を
実行するためのものである。その乗算結果d (n)は
加算器1016に入力され、重み値レジスタ1012に
保持されている変更前の重み値Wに加算される。加算さ
れた結果が変更後、即ち学習後の新しいシナプス重み値
Wである。変更後のWは重み値レジスタ1012.R/
Wバッファ1013、セレクタ回路1011を通して、
ネシトワーク中の各シナプス重み値レジスタ(第8図の
1111)に書き込まれる。なお、乗算器1o20は重
み値レジスタ1012の値Wとd(n)の積を計算する
ための乗算器であり、(2)式に示した乗算を実行する
。加算器1021、レジスタ1022は乗算器102o
の結果を逐次加算して、D (n)の総和を計算し、更
に次の層のニューロンの学習が実行されるまでD (n
)の総和値を保持しておくためのものである。次の層の
学習が実行される場合、D (n)の値はレジスタ10
19に転送される。以上が20.21.22の回路構成
である。23は以上説明した学習(重み値変更プロセス
)を制御するためのコントロー塙 ル回路である。制御は粒子1o05から入力されるクロ
ック信号に同期して実行される。なお、本図では、コン
トロール回路23の外部からクロック信号が供給される
例を示したが、コントロール回路23の中にクロック信
号発振器を備えることもできる。1004はコントロー
ル回路23の各回路ブロックにクロック信号を供給する
ための分配回路である。このクロック信号を用いてタイ
ミング信号発生回路1003よりタイミング信号が生成
される。タイミング信号に従って、先に説明した一連の
学習プロセス即ち、レジスタへのデータ転送、逐次加算
、乗算が実行される。なお1本図ではタイミング信号2
000が回路20,21゜22への接続しか明記してい
ないが、実際は各回路ブロックへ接続されている。10
02は外部回路との接続のための工10(インタフェー
ス)回路である。入出力信号ピン1006から入力され
た外部制御信号等は170回路10o2で解読され、I
10回路1002からはシナプスアドレス生成回路10
00、ニューロン出力信号線アドレス生成回路1001
、タイミング信号発生回路1003へ制御信号を送信す
る。シナプスアドレス生成回路1000.ニューロン出
力信号線アドレス生成回路1001より送信されたセレ
クト信号に従い、先に説明した工とWの選択が実行され
る。
FIG. 9 is a diagram for explaining 20 to 23 in FIG. 7 in detail. The output signals 11 to In of each neuron and the weight values W1 to Wn of each synapse are connected to the selector circuits 1010 and 1011. Select signal 2000.
2001 is output from the address generation circuit 1000.degree. 1001 in the control circuit 23. Selector circuit 10
The output signal of the neuron selected at 10°1o11 and the weight value of the synapse are respectively stored in the register circuit 1007.1.
012, and the multiplier 1008 calculates the product TXW. Note that 1013 is a buffer circuit for writing and reading synaptic weight values. Multiplier 10
The multiplication results of 08 are sequentially added by an adder 1009. The added result corresponds to S in equation (1). The addition result S is input to the table I10 circuit 1014, and the function f' corresponding to the addition result S is selected from the f' function table 1015. Multiplier 1017 is for executing the multiplication of equation (1) shown above. The multiplication result d (n) is input to an adder 1016 and added to the weight value W before change held in the weight value register 1012. The added result is the new synaptic weight value W after the change, that is, after learning. The changed W is stored in the weight value register 1012. R/
Through the W buffer 1013 and the selector circuit 1011,
It is written to each synapse weight value register (1111 in FIG. 8) in the network. Note that the multiplier 1o20 is a multiplier for calculating the product of the value W of the weight value register 1012 and d(n), and executes the multiplication shown in equation (2). Adder 1021 and register 1022 are multiplier 102o
The sum of D (n) is calculated by sequentially adding the results of D (n) until learning of neurons in the next layer is executed.
) is used to hold the total value. When the next layer learning is performed, the value of D(n) is in register 10
Transferred to 19. The above is the circuit configuration of 20.21.22. 23 is a control circuit for controlling the learning (weight value changing process) described above. The control is executed in synchronization with the clock signal input from the particle 1o05. Note that although this figure shows an example in which a clock signal is supplied from outside the control circuit 23, a clock signal oscillator may also be provided in the control circuit 23. 1004 is a distribution circuit for supplying a clock signal to each circuit block of the control circuit 23. A timing signal is generated by the timing signal generation circuit 1003 using this clock signal. According to the timing signals, the series of learning processes described above, namely data transfer to registers, sequential addition, and multiplication, are performed. In addition, in this figure, timing signal 2
Although it is specified that 000 is only connected to circuits 20, 21 and 22, it is actually connected to each circuit block. 10
02 is an interface circuit 10 for connection with an external circuit. External control signals etc. input from the input/output signal pin 1006 are decoded by the 170 circuit 10o2 and sent to the I/O signal pin 1006.
From the 10 circuit 1002, the synapse address generation circuit 10
00, neuron output signal line address generation circuit 1001
, transmits a control signal to the timing signal generation circuit 1003. Synapse address generation circuit 1000. In accordance with the select signal transmitted from the neuron output signal line address generation circuit 1001, the selection of WORK and W described above is executed.

第10図を用いて学習回路の欠陥救済構造の一実施例を
説明する。999’は例えば第9図に示した分離、共通
化した学習回路である0本実施例では学習回路999′
は5重化して設けである。
An example of a defect relief structure for a learning circuit will be described with reference to FIG. 999' is, for example, the separated and shared learning circuit shown in FIG. 9. In this embodiment, the learning circuit 999'
is set up in five layers.

997はスイッチ回路で、5重の学習回路999′の出
力d (n)の中から一つを選ぶ回路である。装置の製
造プロセス終了後、各学習回路999′は検査され、無
欠陥と判定された学習回路999′の出力をスイッチ回
路997によって選択する。一つの学習回路999′の
歩留まりが上述したように60%である場合、5重化し
た学習回路の内少なくとも一つが無欠陥である確率、即
ち学習回路の歩留まりは99%である。多重度を更にあ
げることによって歩留まりを更に上げることが可能であ
る。なお、学習回路999′は0.5cm”程度である
ため、5個多重にしても全体で2.5cm2程度にすぎ
ず、スイッチ回路997を含めて3cm”程度である。
997 is a switch circuit which selects one of the outputs d(n) of the five-fold learning circuit 999'. After the manufacturing process of the device is completed, each learning circuit 999' is inspected, and the output of the learning circuit 999' determined to be defect-free is selected by the switch circuit 997. When the yield of one learning circuit 999' is 60% as described above, the probability that at least one of the quintuple learning circuits is defect-free, that is, the yield of the learning circuit is 99%. It is possible to further increase the yield by further increasing the degree of multiplicity. Note that since the learning circuit 999' is about 0.5 cm", even if five pieces are multiplexed, the total area is only about 2.5 cm2, and including the switch circuit 997, it is about 3 cm".

これは5インチウェーハの装置形成領域の5%程度にす
ぎない。
This is only about 5% of the device formation area of a 5-inch wafer.

第11図にウェーハ上に形成されたニューロンのネット
ワーク回路と学習回路の関係の一実施例を示す、10は
ウェーハであり、800は第10図における多重に設け
られた学習回路999′とスイッチ回路997からなる
学習回路系である。
FIG. 11 shows an example of the relationship between a neuron network circuit formed on a wafer and a learning circuit. 10 is a wafer, and 800 is a learning circuit 999' and a switch circuit provided multiplexed in FIG. 10. This is a learning circuit system consisting of 997.

1′は第7図の下段に示した学習回路を持たないニュー
ロンである。
1' is a neuron without a learning circuit shown in the lower part of FIG.

上記実施例では同一のウェーハ上にニューロンの形成と
同時に学習回路を形成する構造において、学習回路の欠
陥を救済する場合について述べた。
In the above embodiment, a case has been described in which a defect in a learning circuit is repaired in a structure in which a learning circuit is formed simultaneously with the formation of neurons on the same wafer.

一方、学習回路の欠陥を、いわゆリハイブリッド方式に
よって救済することも可能である。第12図にその一つ
の実施例を示す。10は学習回路を持たないニューロン
のネットワークが形成されたウェーハの断面を示す。8
00’は学習回路999′が形成された半導体集積回路
チップの断面を示す、ただし、学習回路は多重に設けら
れていない。ウェーハ10に搭載されたチップ800′
は、第13図に示すようにチップ800′だけを複数形
成したウェーハから無欠陥チップを選択切り出したもの
である。第12図のウェーハ10とチップsoo’の電
気的接続は、例えば30で示す半田を用いたフリップチ
ップ接続法によって行なわれる。チップ800′の寸法
は1cm”である。学習回路999を無欠陥にするもう
一つの実施例を第14図を用いて説明する。この実施例
では、回路999を、既に正常動作が保証されている計
算機500によって実行させている。ニューロンのネッ
トワークが形成されたウェーハ10は基板32の上に実
装されている。基板32とウェーz11Qとの接続はワ
イヤーボンディング31を通して行なわれ、基板32と
計算機500はコネクタ33とケーブル34により電気
的に接続されている。本実施例では、学習回路999は
計算機500と計算機500上のプログラムによって実
現されているので、学習回路系を無欠陥にすることがで
きる。本実施例では、31,32,33゜34を介して
計算機500から学習信号を伝達する他に、ニューロネ
ットワークの入出力信号も伝達している。
On the other hand, it is also possible to remedy defects in the learning circuit by a so-called rehybrid method. FIG. 12 shows one embodiment. 10 shows a cross section of a wafer on which a network of neurons without a learning circuit is formed. 8
00' shows a cross section of a semiconductor integrated circuit chip on which a learning circuit 999' is formed, but the learning circuits are not provided in multiple layers. Chip 800' mounted on wafer 10
As shown in FIG. 13, defect-free chips are selectively cut out from a wafer in which only a plurality of chips 800' are formed. The electrical connection between the wafer 10 and the chip soo' shown in FIG. 12 is performed, for example, by a flip-chip connection method using solder as shown at 30. The size of the chip 800' is 1 cm". Another embodiment in which the learning circuit 999 is defect-free will be described with reference to FIG. The wafer 10 on which the neuron network is formed is mounted on the substrate 32. The connection between the substrate 32 and the wafer z11Q is made through wire bonding 31, and the connection between the substrate 32 and the computer 500 is are electrically connected by the connector 33 and the cable 34. In this embodiment, the learning circuit 999 is realized by the computer 500 and the program on the computer 500, so that the learning circuit system can be made defect-free. In this embodiment, in addition to transmitting learning signals from the computer 500 via 31, 32, 33 and 34, input/output signals of the neural network are also transmitted.

以上では、チップ、あるいはウェーハ1枚を中心に実施
例を示した。更に上述したウェーハを複10は、先に説
明した本発明によるニューロンと分離、共通化された学
習系80oが実装されたウェーハである。ウェーハ10
が10枚以上縦積みされている。本実施例によれば、ウ
ェーハを非常に接近して実装できるので、大規模なニュ
ーロン回路を超高密度に実装できる。本実施例では、各
ウェーハ10毎に学習回路800が設けであるが、複数
枚のウェーハに一つでもよい。また、学習回路800は
第12図に示したハイブリッド技術により、学習回路チ
ップ800′を実装してもよい。
In the above, embodiments have been mainly shown based on one chip or one wafer. Further, the above-mentioned wafer 10 is a wafer on which a learning system 80o which is separated and shared with the neurons according to the present invention described above is mounted. wafer 10
10 or more sheets are stacked vertically. According to this embodiment, since the wafers can be mounted very close to each other, large-scale neuron circuits can be mounted at extremely high density. In this embodiment, the learning circuit 800 is provided for each wafer 10, but one learning circuit 800 may be provided for a plurality of wafers. Furthermore, the learning circuit 800 may be implemented with a learning circuit chip 800' using the hybrid technology shown in FIG.

さらには、基板32上に設けられたコネクタ33を介し
て第14図に示した計算機500に接続し、学習制御を
計算機500を用いて行なってもよい。
Furthermore, the computer 500 shown in FIG. 14 may be connected to the computer 500 shown in FIG. 14 via the connector 33 provided on the board 32, and learning control may be performed using the computer 500.

なお、ウェーハを縦積みし、そのウェーハ間を電気的に
接続する・方法として例えば、特開昭−2662に示さ
れる技術等が用いられる。
Incidentally, as a method for stacking wafers vertically and electrically connecting the wafers, for example, a technique disclosed in Japanese Patent Application Laid-Open No. 2662/1998 is used.

[発明の効果] 以上説明したように、本発明によるニューロネットを用
いた半導体集積回路装置によれば、学習回路系を含めた
装置全体を高集積度を損なわず、欠陥救済可能にするこ
とができるので、大規模ニューロネットの半導体装置化
に効果がある。
[Effects of the Invention] As explained above, according to the semiconductor integrated circuit device using the neuronet according to the present invention, it is possible to make defect repair possible without impairing the high degree of integration of the entire device including the learning circuit system. This is effective in converting large-scale neuronets into semiconductor devices.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図・・・本発明の基本的な考え方を説明するための
図、 第2図・・・従来技術を説明するための図、第3図・・
・従来技術を説明するための図、第4図・・・欠陥ニュ
ーロンがある時の学習過程を説明するための図。 第5図・・・従来技術によるニューロネットの半導体集
積回路装置を説明するための図、 第6図・・・従来技術による欠陥救済技術を説明するた
めの図、 第7図・・・本発明の一つの実施例を説明するための図
、 第8図・・・第7図を詳しく説明するための図、第9図
・・・第7図を詳しく説明するための図、第10図・・
・学習回路の欠陥を救済するための一つの実施例を説明
するための図、 第11図・・・本発明の一つの実施例を説明するための
図、 第12図・・・本発明の一つの実施例を説明するための
図、 第13図・・・第12図に於ける実施例を説明するため
の図、 第14図・・・本発明の一つの実施例を説明するための
図、 第15図・・・本発明の一つの実施例を説明するための
図。 符号の説明 1・・・ニューロン、2・・・細胞体、3・・・重み値
を掛けるステップ(シブナス)、4・・・和を計算する
ステップ、5・・・関数値を計算するステップ、6・・
・スイッチ、7・・・重み値の変更値を計算するステッ
プ、8・・・学習信号を計算するステップ、9・・・信
号経路、10・・・ウェーハ、11・・・従来技術によ
るニューロン、12.12’・・・従来技術による学習
回路、13・・・ニューロンの学習回路以外の回路、2
0・・・本発明による重み値を掛け、積を計算する回路
、21・・・関数値の微分値を出力する回路、22・・
・学習信号を計算する回路、23・・・コントロール回
路、30・・・フリップチップ、31・・・ワイヤボン
ディング、32・・・基板、33・・・コネクタ、34
・・・ケーブル、100・・・欠陥ニューロン、101
・・・欠陥ニューロンの細胞体、102・・・欠陥ニュ
ーロンのシナプス、200・・・欠陥ニューロンの前段
のニューロン、201・・・欠陥ニューロンの前段のニ
ューロンの細胞体、202・・・欠陥ニューロンの前段
のニューロンのシナプス、300・・・欠陥ニューロン
の次段のニューロン、301・・・欠陥ニューロンの次
段のニューロンのm胞体、302・・・欠陥ニューロン
の次段のニューロン欠陥のニューロンの出力のつながっ
たシナプス、500・・・計算機、800゜800′・
・・本発明による分離、共通化され、かつ欠陥救済が可
能な学習回路、997・・・選択回路、998・・学習
信号、999・・・分離、共通化し、欠陥救済可能な構
造を設けた学習回路、999′・・・分離、共通化し、
多重に設けた学習回路、1100・・・乗算器、111
1・・・重み値レジスタ、1112・・・セレクタ回路
、1113・・・加算器、1014.1114・−・ケ
ーブルI10回路、1015.1115・・・関数テー
ブル、1000゜1001・・・アドレス生成回路、1
002・・・I10回路、1003・・・タイミング信
号発生回路、1004・・・クロック分配回路、100
5・・・クロック信号入力ピン、1006・・・外部信
号入出力ビン、1007.1012,1018,101
9゜1022・・・レジスタ、1010.1011・・
・セレクタ回路、1008,1017.1020・・・
乗算器、1009,1016,1021・・・加算器2
000.2001.セレクト信号、2002・・・タイ
ミング信号。 L7 第 ? 図 第4回 竿8図 第7目 第7目 第10図
Figure 1: Diagram for explaining the basic idea of the present invention, Figure 2: Diagram for explaining the prior art, Figure 3...
- Diagram for explaining the prior art, FIG. 4... A diagram for explaining the learning process when there is a defective neuron. Fig. 5: A diagram for explaining a neuronet semiconductor integrated circuit device according to the prior art. Fig. 6: A diagram for explaining a defect relief technique according to the prior art. Fig. 7: The present invention. FIG. 8...A diagram to explain FIG. 7 in detail. FIG. 9... A diagram to explain FIG. 7 in detail. FIG.・
・A diagram for explaining one embodiment for relieving a defect in a learning circuit, FIG. 11... A diagram for explaining one embodiment of the present invention, FIG. 12... A diagram for explaining one embodiment of the present invention A diagram for explaining one embodiment, FIG. 13... A diagram for explaining the embodiment in FIG. 12, FIG. 14... A diagram for explaining one embodiment of the present invention. FIG. 15: A diagram for explaining one embodiment of the present invention. Explanation of symbols 1...Neuron, 2...Cell body, 3...Step of multiplying weight values (Sibunas), 4...Step of calculating sum, 5...Step of calculating function value, 6...
- Switch, 7... Step of calculating a change value of the weight value, 8... Step of calculating a learning signal, 9... Signal path, 10... Wafer, 11... Neuron according to conventional technology, 12.12'...Learning circuit according to conventional technology, 13...Circuit other than neuron learning circuit, 2
0... A circuit that multiplies the weight value according to the present invention and calculates the product, 21... A circuit that outputs a differential value of a function value, 22...
- Circuit for calculating a learning signal, 23... Control circuit, 30... Flip chip, 31... Wire bonding, 32... Board, 33... Connector, 34
... Cable, 100 ... Defective neuron, 101
...Cell body of defective neuron, 102...Synapse of defective neuron, 200...Neuron in front of defective neuron, 201...Cell body of neuron in front of defective neuron, 202...Synapse of defective neuron Synapse of the previous neuron, 300...Neuron next to the defective neuron, 301...M cell body of the neuron next to the defective neuron, 302...Neuron next to the defective neuron Output of the defective neuron Connected synapses, 500... Computers, 800°800'.
...A learning circuit according to the present invention that can be separated, shared, and capable of relieving defects, 997...Selection circuit, 998...Learning signal, 999...A structure that can be separated, shared, and capable of relieving defects is provided. Learning circuit, 999'... Separate and share,
Multiple learning circuits, 1100...multipliers, 111
1... Weight value register, 1112... Selector circuit, 1113... Adder, 1014.1114... Cable I10 circuit, 1015.1115... Function table, 1000° 1001... Address generation circuit ,1
002... I10 circuit, 1003... Timing signal generation circuit, 1004... Clock distribution circuit, 100
5... Clock signal input pin, 1006... External signal input/output bin, 1007.1012, 1018, 101
9゜1022...Register, 1010.1011...
・Selector circuit, 1008, 1017.1020...
Multiplier, 1009, 1016, 1021...Adder 2
000.2001. Select signal, 2002...timing signal. L7 No.? Figure 4th Rod 8 Figure 7 Eye 7 Figure 10

Claims (11)

【特許請求の範囲】[Claims] 1.ニューロンの学習回路をニューロネットワークから
分離して共通化し、該学習回路を欠陥の救済が可能な構
成としたことを特徴とするニューロネットワークを用い
た半導体集積回路装置。
1. 1. A semiconductor integrated circuit device using a neural network, characterized in that a neuron learning circuit is separated from a neural network and shared, and the learning circuit is configured to be capable of repairing defects.
2.学習回路の数がニューロンの数以下であることを特
徴とするニューロネットワークを用いた半導体集積回路
装置。
2. A semiconductor integrated circuit device using a neuronetwork, characterized in that the number of learning circuits is less than or equal to the number of neurons.
3.回路中に欠陥が存在しても動作可能な第1の回路と
、欠陥が存在すると動作不可能な第2の回路から構成さ
れた半導体集積回路装置であって、上記第2の回路のみ
に欠陥を救済する構造を設けたことを特徴とする半導体
集積回路装置。
3. A semiconductor integrated circuit device comprising a first circuit that can operate even if there is a defect in the circuit, and a second circuit that cannot operate if there is a defect, wherein only the second circuit is defective. A semiconductor integrated circuit device characterized by having a structure for relieving.
4.学習回路を具備しない複数のニューロ回路が形成さ
れた半導体集積回路装置であって、該複数のニューロ回
路に共通に使用され、かつ欠陥の救済が可能な構造を具
備した学習回路が該複数のニューロ回路と同時形成され
たことを特徴とする半導体集積回路装置。
4. A semiconductor integrated circuit device in which a plurality of neural circuits that do not include a learning circuit are formed, wherein the learning circuit that is commonly used by the plurality of neural circuits and has a structure capable of repairing defects is used for the plurality of neural circuits. A semiconductor integrated circuit device characterized in that it is formed simultaneously with a circuit.
5.学習回路を具備しない複数のニューロ回路が形成さ
れた半導体基板上に、該複数のニューロ回路に共通に使
用され、かつ無欠陥である学習回路が形成された別のチ
ップを実装したことを特徴とする半導体集積回路装置。
5. A semiconductor substrate on which a plurality of neurocircuits without a learning circuit are formed is mounted with another chip on which a learning circuit that is commonly used by the plurality of neurocircuits and is defect-free is formed. Semiconductor integrated circuit device.
6.学習回路を具備しない複数のニューロ回路が形成さ
れた半導体集積回路装置と該半導体集積回路装置に電気
的に接続された計算機から構成されたニューロネットワ
ーク装置であって、該ニューロ回路の学習を該計算機お
よび該計算機上のプログラムによって行なうことを特徴
としたニューロネットワーク装置。
6. A neural network device comprising a semiconductor integrated circuit device in which a plurality of neural circuits without a learning circuit are formed and a computer electrically connected to the semiconductor integrated circuit device, the neural network device being configured to perform learning of the neural circuits by the computer. and a neuronetwork device that is operated by a program on the computer.
7.素子,配線,電極パット,保護膜を半導体基板上に
形成する第一の工程と、欠陥があると動作しない回路部
分の欠陥を救済する第二の工程と、学習アルゴリズムに
よって欠陥があっても動作可能な回路の中の欠陥ニュー
ロンを切り離す第三の工程とからなるニューロネットワ
ークを用いた半導体集積回路装置の製造方法。
7. The first step is to form elements, wiring, electrode pads, and protective films on the semiconductor substrate, the second step is to repair defects in circuit parts that do not work if there are defects, and the learning algorithm allows the circuit to work even if there are defects. A method for manufacturing a semiconductor integrated circuit device using a neuronetwork, comprising a third step of separating defective neurons in a possible circuit.
8.学習回路を具備していない複数のニューロンが形成
された半導体基板上に、該複数のニューロンの学習に用
いられる学習回路が形成された別の半導体集積回路チッ
プを実装する第一の工程と、実装された該半導体集積回
路チップによる学習によって上記複数のニューロン中の
欠陥ニューロンを切り離す第二の工程からなるニューロ
ネットワークを用いた半導体集積回路装置の製造方法。
8. A first step of mounting another semiconductor integrated circuit chip on which a learning circuit used for learning of the plurality of neurons is formed on a semiconductor substrate on which a plurality of neurons without a learning circuit are formed, and mounting. A method for manufacturing a semiconductor integrated circuit device using a neural network, comprising a second step of separating defective neurons from the plurality of neurons through learning by the semiconductor integrated circuit chip.
9.学習回路を具備しない複数のニューロンが形成され
た半導体ウェーハが複数枚縦づみされた構造であって、
該複数枚のウェーハ各々、あるいはウェーハ複数枚ごと
に一つ、欠陥救済が可能な学習回路が該複数ニューロン
と同時に形成されたことを特徴とするニューロネットワ
ークを用いた半導体集積回路装置。
9. A structure in which a plurality of semiconductor wafers on which a plurality of neurons without a learning circuit are formed are stacked vertically,
A semiconductor integrated circuit device using a neural network, characterized in that a learning circuit capable of repairing defects is formed simultaneously with the plurality of neurons, one for each of the plurality of wafers or one for each of the plurality of wafers.
10.学習回路を具備しない複数のニューロンが形成さ
れた半導体ウェーハが複数枚縦づみされた構造であって
、該複数ニューロンに共通に使用され、かつ無欠陥であ
る学習回路が形成された別のチップを該複数枚のウェー
ハ各々、あるいはウェーハ複数枚ごとに一つ実装したこ
とを特徴とする半導体集積回路装置。
10. It has a structure in which a plurality of semiconductor wafers on which a plurality of neurons without a learning circuit are formed are stacked vertically, and another chip on which a defect-free learning circuit is formed is commonly used for the plurality of neurons. A semiconductor integrated circuit device characterized in that one semiconductor integrated circuit device is mounted on each of the plurality of wafers or on each of a plurality of wafers.
11.学習回路を具備しない複数のニューロンが形成さ
れた半導体ウェーハが複数枚縦づみされた構造であって
、該複数枚のウェーハに計算機が電気的に接続され、該
ニューロンの学習を該計算機および該計算機上のプログ
ラムによって行なうことを特徴としたニューロネットワ
ーク装置。
11. It has a structure in which a plurality of semiconductor wafers on which a plurality of neurons are formed without a learning circuit are stacked vertically, and a computer is electrically connected to the plurality of wafers, and the learning of the neurons is performed by the computer and the computer. A neuronetwork device characterized by being operated by the above program.
JP64000299A 1989-01-06 1989-01-06 Semiconductor integrated circuit device using neuro network and its production and neuro network device Pending JPH02181258A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP64000299A JPH02181258A (en) 1989-01-06 1989-01-06 Semiconductor integrated circuit device using neuro network and its production and neuro network device
US07/461,080 US5165010A (en) 1989-01-06 1990-01-04 Information processing system
DE69032680T DE69032680T2 (en) 1989-01-06 1990-01-04 Neural calculator
EP90100171A EP0378115B1 (en) 1989-01-06 1990-01-04 Neural computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP64000299A JPH02181258A (en) 1989-01-06 1989-01-06 Semiconductor integrated circuit device using neuro network and its production and neuro network device

Publications (1)

Publication Number Publication Date
JPH02181258A true JPH02181258A (en) 1990-07-16

Family

ID=11470024

Family Applications (1)

Application Number Title Priority Date Filing Date
JP64000299A Pending JPH02181258A (en) 1989-01-06 1989-01-06 Semiconductor integrated circuit device using neuro network and its production and neuro network device

Country Status (1)

Country Link
JP (1) JPH02181258A (en)

Similar Documents

Publication Publication Date Title
EP0378115B1 (en) Neural computer
JPH0334444A (en) Minimization of interconnecting cost of object linked electronically
JPH0310378A (en) Method and device for optimizing arrangement and circuit designing device
US5196362A (en) Multilayer wiring method of on-chip modification for an lsi
Yasunaga et al. A self-learning digital neural network using wafer-scale LSI
CN113157248A (en) In-memory Processing (PIM) system and method of operating PIM system
JPH05242065A (en) Information processor and its system
JPH10116232A (en) Memory system
JPH05282272A (en) Neural network parallel distribution processor
JPH02181258A (en) Semiconductor integrated circuit device using neuro network and its production and neuro network device
WO2021036094A1 (en) Chip and electronic apparatus
JPH0945778A (en) Semiconductor integrated circuit device, and its wiring method
EP0408060A2 (en) Semiconductor integrated circuit device and logic correcting method of the same
US4979018A (en) Semiconductor device with parallel multiplier using at least three wiring layers
WO2022029825A1 (en) Computation circuit and ai processing module
US20220222045A1 (en) Processing-in-memory devices having multiplication-and-accumulation circuits
JPS59119743A (en) Structural system of redundancy of integrated circuit
JPH11154708A (en) Programmable semiconductor device
JPH0243665A (en) Neural network device
JP2804069B2 (en) Information processing device
JPH04242916A (en) Method for generating exposure data
JPH05197707A (en) Information processing system
Tomabechi Hierarchical redundancy design for WSI neuro-processors
JPH0283656A (en) Learning processor
KR20210093126A (en) Processing-In-Memory(PIM) system and operating method of the PIM system