JPH0227493A - Boltzmann machine type neuro-computer system - Google Patents

Boltzmann machine type neuro-computer system

Info

Publication number
JPH0227493A
JPH0227493A JP63176824A JP17682488A JPH0227493A JP H0227493 A JPH0227493 A JP H0227493A JP 63176824 A JP63176824 A JP 63176824A JP 17682488 A JP17682488 A JP 17682488A JP H0227493 A JPH0227493 A JP H0227493A
Authority
JP
Japan
Prior art keywords
output
circuit
units
input
boltzmann machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63176824A
Other languages
Japanese (ja)
Other versions
JP2552711B2 (en
Inventor
Shunsuke Fueki
俊介 笛木
Hironobu Kitajima
弘伸 北島
Masao Yamada
雅雄 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP63176824A priority Critical patent/JP2552711B2/en
Publication of JPH0227493A publication Critical patent/JPH0227493A/en
Application granted granted Critical
Publication of JP2552711B2 publication Critical patent/JP2552711B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Neurology (AREA)
  • Manipulation Of Pulses (AREA)
  • Feedback Control In General (AREA)

Abstract

PURPOSE:To make a Boltzmann machine into a circuit by inserting a transistor (TR) for weighting to the circuit combining the units of respective input, hidden and output layers at the section of the layers. CONSTITUTION:Units U1 and U2 respectively consist of an adder Add and a comparator COMP, and a weight W12 is consists of a TR 14. A threshold potential theta is applied to the comparator COMP, when the output of the adder is larger than theta, the output of the unit is set at 1 (firing), when it is smaller than theta, the output is set at 0, and the output of a threshold unit is used for the threshold theta. For the TR 14, an AND gate 11, the latch of the output, a counter 12, a DA converter 13 are provided, and the unit output (the output of the comparator) is added to the AND gate 11 together with a reference pulse. Further, a random noise generator 16 is provided, and the output is applied through an amplifier 15 to one input terminal of the adder of the respective units. Thus, the Boltzmann machine can be formed as hardware.

Description

【発明の詳細な説明】 〔発明の概要〕 ボルツマンマシン型ニューロコンピュータシステム特に
そのニューラルネットワークに関し、ボルツマンマシン
の回路化への手法を提供することを目的とし、 入力信号と共にランダムノイズを入力される加算器およ
び、該加算器の出力と閾値電圧が入力され前者が後者を
越えるとき発火する比較器を備えるユニットを複数個備
え、入力、隠れ、出力各層の前記ユニットを層間で結合
する回路には、重み付け用にトランジスタを挿入し、結
合される2ユニットの前記比較器の出力と基準パルスを
入力されて、該出力が共に発火状態である期間をパルス
数化するゲート回路、該回路の出力パルスを計数するカ
ウンタ、該カウンタの出力をアナログに変換して前記ト
ランジスタのベースに加えるDA変換器を、各トランジ
スタに付属させたニューラルネットワークを備えるよう
構成する。
[Detailed Description of the Invention] [Summary of the Invention] It is an object of the present invention to provide a method for circuitizing a Boltzmann machine in relation to a Boltzmann machine type neurocomputer system, particularly its neural network, and to provide an addition method in which random noise is input together with an input signal. The circuit includes a plurality of units including a comparator and a comparator that fires when the output of the adder and the threshold voltage are input and the former exceeds the latter, and connects the units of the input, hidden, and output layers between layers, A gate circuit which inserts a transistor for weighting, receives the outputs and reference pulses of the two combined comparators, and converts the period during which both of the outputs are in a firing state into a number of pulses, and the output pulse of the circuit is A counter for counting, a DA converter for converting the output of the counter into analog and applying it to the base of the transistor, and a neural network attached to each transistor are configured.

〔産業上の利用分野〕[Industrial application field]

本発明は、ボルツマンマシン型ニューロコンピュータシ
ステム特にそのニューラルネットワークに関する。
The present invention relates to a Boltzmann machine type neurocomputer system, particularly to its neural network.

近年のコンピュータ情報処理の分野では所謂ノイマン型
コンピュータに対して非ノイマン型のコンピュータの研
究開発が進められているが、その1つのアプローチとし
て神経組繊の動作をシュミレーションするニューラルネ
ットワークタイプのコンピュータの研究が注目されてい
る。その中でも、ネットワークの構成を熱力学的系と等
価とし、エネルギ状態がボルツマン分布に従い、充分な
時間が経過した後に熱平衡状態に到達することを保証し
たボルツマンマシンの概念が有望視されている。
In recent years, in the field of computer information processing, research and development of non-Neumann-type computers has been progressing in contrast to so-called Neumann-type computers, and one approach is research on neural network-type computers that simulate the operation of neural tissues. is attracting attention. Among these, the concept of a Boltzmann machine, which has a network configuration equivalent to a thermodynamic system, guarantees that the energy state follows the Boltzmann distribution and reaches a thermal equilibrium state after a sufficient amount of time is seen as promising.

〔従来の技術〕[Conventional technology]

ボルツマンマシンの原理は、83頃にヒントン等によっ
て提案されたものであり(Geffrey E。
The principle of the Boltzmann machine was proposed by Hinton et al. around 1983 (Geffrey E.

旧nton、 et、al Boltzman l’1
achin: Con5traintSatisfac
tion Networks that Learn、
 TechnicalRaport CMU−C5−8
4−119) 、概要を述べると次の如くなる。
Former nton, et, al Boltzman l'1
achin: Con5traintSatisfac
tion networks that learn,
Technical Report CMU-C5-8
4-119), the outline is as follows.

ネットワークは2値のみをとるユニットUi(t=1.
2+ ・・・・・・n)を持ち、各ユニットは相互に結
合され、その結合を通してユニットは自分の状態5i(
1または0)を他のユニットに伝達する。各結合には結
合の強さWijがあり、Wijは正負の実数値をとる。
The network consists of units Ui (t=1.
2+ .
1 or 0) to other units. Each bond has a bond strength Wij, and Wij takes a positive or negative real value.

ネットワークは E−−Σ Wij Si Sj+Σθi Si    
・・・・・・(1)i<J なるエネルギEを持ち、各ユニットはEを小さ(する方
向にスイッチする(θは閾値)、第に番のユニットが0
から1に変化することに伴なうEの増分ΔEkは ΔE、=ΣWk、Si−θ8      ・・・・・・
(2)で表わされる。この様に設定されたネットワーク
は相互作用する2値素子の熱力学的系と等価であり、そ
の動作の終点は熱平衡状態であると予想される。しかし
その熱平衡状態がエネルギの最小点である保証はなく、
エネルギに縮退のある場合は単なる極小点に陥っている
可能性もある。この危険を回避するために、系の動作原
理に次の確率Pmが導入される。
The network is E−−Σ Wij Si Sj+Σθi Si
......(1) i<J, each unit has an energy E such that E is small (θ is a threshold value), and the th unit is 0.
The increment ΔEk of E due to the change from 1 to 1 is ΔE, = ΣWk, Si-θ8...
It is expressed as (2). The network set up in this way is equivalent to a thermodynamic system of interacting binary elements, and the end point of its operation is expected to be in a thermal equilibrium state. However, there is no guarantee that the thermal equilibrium state is the minimum energy point.
If there is degeneracy in energy, there is a possibility that the energy has simply fallen into a minimum point. To avoid this danger, the following probability Pm is introduced into the operating principle of the system.

Pm = 1/ (1+exp(−ΔE k/ T )
 )  ・・・”・(3)このPhはエネルギギャップ
がΔEkのとき第に番ユニットである確率を表わす、T
は系の温度に当るパラメータである。上式でPmを定義
すると、このネットワークは所謂「温度Tの熱浴に接し
た系」となり、ネットワークがエネルギEAを持つグロ
ーバル状態Aになる確率は、ボルツマン分布に従い、充
分な時間の後には熱平衡状態に達することが保証される
Pm = 1/(1+exp(-ΔEk/T)
)...”・(3) This Ph represents the probability of being the th unit when the energy gap is ΔEk, T
is a parameter corresponding to the temperature of the system. If Pm is defined in the above equation, this network becomes a so-called "system in contact with a heat bath of temperature T", and the probability that the network will be in global state A with energy EA follows the Boltzmann distribution, and after a sufficient time it will reach thermal equilibrium. guaranteed to reach the state.

ボルツマンマシンのユニットには入カニニット、出カニ
ニット、および隠れユニットの3種類がある。これら3
種類のユニットは必ず全てが存在する訳ではなく、隠れ
ユニットのないものや、出カニニットの区別のないネッ
トワークも考えられる。
There are three types of Boltzmann machine units: incoming units, outgoing units, and hidden units. These 3
Not all types of units necessarily exist, and there may be networks with no hidden units or no distinction between outgoing units.

ボルツマンマシンは予め決められた動作を決められた手
順で行なうネットワークではなく、ある目的のための手
順を外界から与えられる情報によって自ら学習すること
のできるネットワークである。その目的には、基本的に
は何の制限もない。
A Boltzmann machine is not a network that performs predetermined operations according to a set procedure, but rather a network that can learn procedures for a certain purpose by itself using information provided from the outside world. There are basically no restrictions on the purpose.

学習は、外界からの情報に対して行なわれる。Learning occurs based on information from the outside world.

情報とは具体的には可視ユニット(人、出カニニット)
に与えられるビットパターンのことであり、これを 1= (S、、S、、・・・・・・Sk )     
   ・・・・・・(4)と−纏めにすれば、1つのベ
クトル量と考えられる。こ\でkは可視ユニットの個数
である。学習時には一般にこのようなベクトルが複数個
与えられ、これは環境と呼ばれる。学習は環境に対して
行なわれ、環境の情報はネットワーク内部に形を変えて
定着する。定着過程は、結合の重みの変更を通して実行
される。
Information specifically refers to visible units (people, output).
This is the bit pattern given to 1 = (S,,S,,...Sk)
...... (4) - If you summarize it, it can be considered as one vector quantity. Here, k is the number of visible units. During learning, a plurality of such vectors are generally given, and these are called environments. Learning takes place in the environment, and the information from the environment is fixed within the network in a different form. The anchoring process is performed through changing the weights of the connections.

学習に当っては、(5)式の示標が導入される。これは
2つの確率分布間の距離的な量を表わすものである。
During learning, the indicator of equation (5) is introduced. This represents the distance quantity between two probability distributions.

G=ΣP (Va) j! n[P (Va)/ P 
’ (Va)]   ””・・(5)上式でvAは可視
ユニットの第A番目状態を示し、P(Va)はvA状態
の確率分布が環境に支配されているときの確率を、また
P ’ (va)はネットワークが外界の影響を受けず
にクローズドシステムとして動作しているとのVA状態
の確率を意味する。前者の状態はクランプ状態、後者の
状態はフリーラン状態と呼ばれる。
G=ΣP (Va) j! n[P(Va)/P
' (Va)] ""... (5) In the above equation, vA indicates the A-th state of the visible unit, and P(Va) is the probability when the probability distribution of the vA state is dominated by the environment, and P'(va) means the probability of the VA state in which the network operates as a closed system without being influenced by the outside world. The former state is called a clamp state, and the latter state is called a free run state.

Gは非負の値をとり、P(vA)とP ’ (VA)の
分布が完全に等しいとき、かつそのときのみ0となる。
G takes a non-negative value and becomes 0 when and only when the distributions of P (vA) and P' (VA) are completely equal.

ボルツマンマシンの学習の定義はGをなるべく小さく、
理想的には0とすることである。何故ならGooとは、
学習された環境をフリーラン状態のネットワークがはり
完全に再現できることを意味するからである。GζOに
向って結合の重みを変えて行くためには、重みに対する
Gの振舞を知る必要があるが、これには次式が知られて
いる。
The definition of Boltzmann machine learning is to make G as small as possible.
Ideally, it should be 0. Because what is Goo?
This is because it means that the free-running network can completely reproduce the learned environment. In order to change the weight of the connection toward GζO, it is necessary to know the behavior of G with respect to the weight, and the following equation is known for this.

σG/σWij= −(Pij−P’ij) /T・・
・・・・(6)上式でPijは、系が熱平衡に達したと
きに、クランプ状態で第j番目と第1番目のユニットが
同時に1である確率を表わし、P’ijはフリーラン状
態での同じ事象の確率を表わす。従って、重みの変更を
次式で行なえば、ネットワークをGζ0を自損して動作
させることが可能である。
σG/σWij=-(Pij-P'ij)/T...
...(6) In the above equation, Pij represents the probability that the j-th and first units are simultaneously 1 in the clamped state when the system reaches thermal equilibrium, and P'ij represents the probability that the j-th and first units are simultaneously 1 in the free-run state. represents the probability of the same event at . Therefore, if the weights are changed using the following equation, it is possible to operate the network with self-loss of Gζ0.

ΔWij−ε (Ptj−P’ij)        
・・・・・・(7)こ−でΔWijは重みの増分、εは
重み変更の最小ステップである。Gζ0にする当っては
、一般にネットワークを高温で動作させて大まかなエネ
ルギの低い状態に持って行き、その後低温で動作させて
真のエネルギ最低の状態を捜すという、多段階動作をと
る。この過程はシミューテッドアニーリングと呼ばれる
ΔWij-ε (Ptj-P'ij)
(7) Here, ΔWij is the weight increment, and ε is the minimum step of weight change. In order to achieve Gζ0, a multi-step operation is generally performed in which the network is operated at a high temperature to bring it to a roughly low energy state, and then operated at a low temperature to search for the true lowest energy state. This process is called simulated annealing.

ボルツマンマシンはユニットの数ヤnt成によって様々
な種類のものになし得るが次に4−3−4エンコーダを
例にして学習要領を説明する。
Boltzmann machines can be made into various types depending on the number and configuration of units, but next we will explain the learning procedure using a 4-3-4 encoder as an example.

4−3−4エンコーダは第17図に示すように、4個の
人カニニット11〜■4.3個の隠れユニットH3〜H
1、および4個の出カニニット01〜04を有する。こ
れらは、図示の如く接続される。Utkは常にオンとな
っているスレッショルドユニットで、これはネットワー
クの全てのユニットと結合する。このようなネットワー
クに対して外部からt、、O,に任意のれ組みのビット
パターンを与えて、その組合せを学習させる。フローチ
ャートを第18図に示す。
4-3-4 encoder, as shown in FIG.
1, and four output crab units 01 to 04. These are connected as shown. Utk is an always-on threshold unit, which couples all units of the network. An arbitrary combination of bit patterns is given to t,,O, from the outside to such a network, and the combination is learned. A flowchart is shown in FIG.

ステップ■の初期状態では、全てのユニットがクランプ
されておらず、結合の強さWijは任意の値である。ス
テップ■のクランプ状態では、入カニニットIt及び出
カニニットO1のビットパターンの組み合わせを、学習
させたい確率分布に従って固定して、ネットワークをラ
ンさせ、熱平衡状態を実現する。系と熱平衡状態に近づ
けるに際しては、温度パラメータTを適当なシーケンス
で大−小に変化させるシミュレーテッドアニーリングを
行う。第18図でシミニレ−テッドアニーリングを行う
箇所は(T)で示した。ステップ■は、■で実現した熱
平衡状態でのPijを決定する。次のステップ■では1
.、O,のクランプを外してネットワークをランさせ、
■と同様なアニーリングを行なって熱平衡状態にし、次
のステップ■でP’ijを決定する。ステップ■では■
、■で求めたPij、  P’ijから決定されるΔW
ijに基ずいてWijを更新する。そして、■〜■の学
習ループを所定回数繰り返し行ない、ビットパターンの
組み合わせの情報が充分にWijへ転化された所で学習
を打切る(ステップ■)。
In the initial state of step (2), all units are not clamped, and the coupling strength Wij is an arbitrary value. In the clamp state of step (2), the combination of bit patterns of the input unit It and the output unit O1 is fixed in accordance with the probability distribution to be learned, and the network is run to realize a thermal equilibrium state. To bring the system closer to a state of thermal equilibrium, simulated annealing is performed in which the temperature parameter T is varied from large to small in an appropriate sequence. In FIG. 18, the portions where simulated annealing is performed are indicated by (T). Step (2) determines Pij in the thermal equilibrium state achieved in (2). In the next step ■1
.. Remove the clamps from ,O, and run the network,
Annealing similar to step (2) is carried out to reach a thermal equilibrium state, and in the next step (2), P'ij is determined. In step ■■
, ΔW determined from Pij and P'ij obtained by
Update Wij based on ij. Then, the learning loop from ■ to ■ is repeated a predetermined number of times, and the learning is terminated when the information on the combination of bit patterns has been sufficiently converted to Wij (step ■).

このような方法で正しく学習が行なわれたボルツマンマ
シンは、1.に入力ベクトルが与えられたのみのフリー
ラン状態で、Oiにあるべき出力ベクトルを想起するこ
とができる。
A Boltzmann machine that has been properly trained using this method is 1. In a free-run state where only input vectors are given to Oi, it is possible to recall the output vector that should be at Oi.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

ボルツマンマシンは、ノイマン型コンビ二一タが不得意
とする多変数の最適化問題やパターン認識などを高速で
実行することができると期待されるが、実機モデルを回
路で作成した例は報告されていない。ボルツマンマシン
の機能を実現する手法としてソフトウェアによるシュミ
レーションに依存する報告が発表されているだけである
Boltzmann machines are expected to be able to quickly execute multivariable optimization problems and pattern recognition, which are weak points of Neumann combinators, but there have been no reports of examples of creating actual machine models using circuits. Not yet. The only published reports rely on software simulation as a method to realize the functionality of Boltzmann machines.

しかしソフトウェアによる手法では、大型コンピュータ
で処理しても、そして4−2−4構成でさえも、3時間
近くを要し、学習手法を検討する当っても、その結果を
得るまでに長い時間がか−る。
However, with software methods, even when processed on a large computer and even with a 4-2-4 configuration, it takes nearly 3 hours, and even when considering learning methods, it takes a long time to obtain results. Call.

それ成木発明は、ボルツマンマシンの回路化への手法を
提供することを目的とするものである。
The purpose of this invention is to provide a method for circuitizing a Boltzmann machine.

また本発明は、回路化されたボルツマンマシン内のカウ
ンタ部分や結合の重みを決定するΔW i jの算出を
マイクロプロセッサで代行させて、ネットワークの結線
量の簡略化を図ることを他の目的とするものである。
Another object of the present invention is to simplify the amount of network connections by having a microprocessor perform the calculation of ΔW i j that determines the weight of the counter and connections in the circuitized Boltzmann machine. It is something to do.

〔課題を解決するための手段〕[Means to solve the problem]

第1図に本発明のボルツマンマシンの構成を示す。ボル
ツマンマシンの相互に接続される2ユニットを取出すと
第1図(a)の如くなるが、これらのユニットUl+U
!を第1図俣)の如く加算器Addと比較器COMPで
構成し、結合の重みWIzはトランジスタ14で構成す
る。比較器COMPにはスレッショルド電位θを与え、
・加算器出力がθより大であればユニット出力は1(発
火)、θより小であれば0とする。このスレショルド値
θは、第17図の如く、ネットワーク中に1つ設けられ
たスレショルドユニットUthの出力を用いる。スレシ
ョルドユニットは常にON状態であり、他のすべてのユ
ニットと結合していて、その結合の重みも学習の対象と
なる。トランジスタ14に対しては、アンドゲート11
、その出力のラッチおよびカウンタ12、DA変換器1
3を設け、アントゲ−)11へはユニット出力(比較器
出力)を基準パルスと共に加える。またランダムノイズ
の発生器16を設け、その出力を増幅器15を介して各
ユニットの加算器の1入力端子に加える。
FIG. 1 shows the configuration of the Boltzmann machine of the present invention. If we take out the two mutually connected units of the Boltzmann machine, it will look like Fig. 1(a), and these units Ul+U
! is composed of an adder Add and a comparator COMP as shown in FIG. A threshold potential θ is given to the comparator COMP,
- If the adder output is greater than θ, the unit output is 1 (fire); if it is smaller than θ, the unit output is 0. As shown in FIG. 17, this threshold value θ uses the output of a threshold unit Uth provided in the network. The threshold unit is always in an ON state and is connected to all other units, and the weights of the connections are also subject to learning. For transistor 14, AND gate 11
, its output latch and counter 12, DA converter 1
3 is provided, and the unit output (comparator output) is applied to the analogue 11 together with the reference pulse. A random noise generator 16 is also provided, and its output is applied via an amplifier 15 to one input terminal of an adder in each unit.

第2の本発明の構成を第2図に示す。これは第1図のカ
ウンタ12部分や結合の重みを決定するΔWijの算出
をマイクロプロセッサで代行させることにより、ネット
ワークの各ユニット相互の結線の量を簡潔化しようとす
るものである。21が1亥マイクロプロセツサで、1b
itがPX」に相当するデータ列CDAT L 、 0
DAT 2の計数、結合の重みWijを変化させる演算
をしたり、DA変換器26への出力の設定などを行なう
。このマイクロプロセッサは図示しないが、出力値を記
憶しておくためのRAMおよび一連の動作(処理プログ
ラム)を記憶するROMを含む。
The configuration of the second invention is shown in FIG. This is intended to simplify the amount of connections between each unit of the network by having a microprocessor perform the calculation of ΔWij that determines the weight of the connection and the counter 12 shown in FIG. 1. 21 is a microprocessor, 1b
data string CDAT L, 0 corresponding to “it is PX”
It performs calculations for counting the DAT 2, changing the connection weight Wij, and setting the output to the DA converter 26. Although not shown, this microprocessor includes a RAM for storing output values and a ROM for storing a series of operations (processing programs).

また22はデータのり一ド/ライト時の双方向のバスド
ライバであり、24は計数用データ列CD^Tl、CD
A↑2を一時記憶するラッチ回路である。
Further, 22 is a bidirectional bus driver for data read/write, and 24 is a counting data string CD^Tl, CD
This is a latch circuit that temporarily stores A↑2.

25はこれらの計数用データ列を読んだり、或いはDA
変換およびラッチ回路26へのデータ出力をマイクロプ
ロセッサ21より選択するためのデコード回路である。
25 reads these counting data strings or DA
This is a decoding circuit for selecting data output from the microprocessor 21 to the conversion and latch circuit 26.

また30は重み回路部で、Wijの変化に伴ないジグノ
イド状に抵抗値を変化するトランジスタ27、該トラン
ジスタの電流出力を電圧に変換する抵抗28、比較器2
9、閾値電圧源31.およびインバータINVを有する
。32は回路部30の出力に対する2値化用増幅器、3
3は2硫化された信号間のアンドをとる回路、34は基
準クロックCLKと論理積回路33の出力とのアンドを
とり、データ列CDAT 1 、 CDAT 2を出力
する回路である。
Reference numeral 30 denotes a weight circuit section, which includes a transistor 27 whose resistance value changes in a signoid pattern as Wij changes, a resistor 28 which converts the current output of the transistor into a voltage, and a comparator 2.
9. Threshold voltage source 31. and an inverter INV. 32 is a binarization amplifier for the output of the circuit section 30;
3 is a circuit that performs an AND operation between the disulfurized signals; 34 is a circuit that performs an AND operation between the reference clock CLK and the output of the AND circuit 33, and outputs data strings CDAT 1 and CDAT 2;

〔作用〕[Effect]

第1図の回路の動作を説明する。ボルツマンマシンの原
理により、各ユニットには次のことが要請される。
The operation of the circuit shown in FIG. 1 will be explained. According to the Boltzmann machine principle, each unit is required to:

(1)ユニットは、その入力の総和NBTi(i−1゜
2 、 ・・・”・n )に応じて確率P i = 1
 /exp(−Nll!Ti/T)で発火する。
(1) The unit has a probability P i = 1 depending on the sum of its inputs NBTi (i-1゜2,...”・n)
Fires at /exp(-Nll!Ti/T).

(2)ネットワーク中の任意の2ユニットが同時に発火
する確率Pij (i、  j −1,2,””n)が
決定可能であり、その値に基いて結合の重みWljが変
更できなければならない。
(2) The probability Pij (i, j −1, 2, “”n) of any two units in the network firing at the same time can be determined, and the connection weight Wlj must be able to be changed based on that value. .

(3)温度パラメータTは可変であり、その変更は高速
であることが望ましい。
(3) The temperature parameter T is variable, and it is desirable to change it quickly.

第11図(ハ)の回路は上記3条件を満足する。即ち、
各ユニットの加算器Addは入力の総和NETiを出力
し、比較器COMPは該総和に応じて確率Plで発火す
る。
The circuit shown in FIG. 11(c) satisfies the above three conditions. That is,
The adder Add of each unit outputs the summation of inputs NETi, and the comparator COMP fires with probability Pl according to the summation.

加算器の入力にはランダムノイズを重畳させており、こ
のノイズの平均は01分散はσ:の正規分布N(0,σ
りとすると、加算器出力VtはV i =NETi+N
(0,a”) −N (NETi、  σ”)・・・−
00 で、やはり正規分布となる。このViをθと比較して、
θを越えるときオンであるように2値化すると、Uiが
充分長い時間Tのうちでオンとなる時間の総和tiは次
のガウス積分で表わされる。
Random noise is superimposed on the input of the adder, and the average of this noise is 01, the variance is σ: normal distribution N(0, σ
Then, the adder output Vt is V i =NETi+N
(0, a") -N (NETi, σ")...-
00, it is still a normal distribution. Comparing this Vi with θ,
If the signal is binarized so that it is on when it exceeds θ, the total time ti during which Ui is on within a sufficiently long time T is expressed by the following Gaussian integral.

このとき、ti/TがユニットUiの発火する確率Pi
になる。
At this time, ti/T is the probability Pi of unit Ui firing
become.

021式のガウス積分は解析的に処理することはできな
いが、第3図のシダモイダル(Sigmoidal)関
数のよい近似となることが知られている。この第一Δ 
Ek/T 3図はPm−1/(1+e     )を表わし、曲線
CIはT = 1.0のとき、曲線C!はT −0,2
5のとき、そして曲線C1はT −4,0のときである
。このΔE、はNETiに対応する。
Although the Gaussian integral of equation 021 cannot be processed analytically, it is known to be a good approximation of the sigmoidal function shown in FIG. This first Δ
Ek/T Figure 3 represents Pm-1/(1+e), and the curve CI is the curve C! when T = 1.0. is T −0,2
5, and the curve C1 is at T-4,0. This ΔE corresponds to NETi.

温度パラメータTの変更は、増幅器15の利得を変えて
ノイズの振幅を変えることにより実現される。振幅を小
にすることはTを小にすることであり、第3図では曲線
が立ってくる。振幅を大にすれば、この逆である。
Changing the temperature parameter T is achieved by changing the gain of the amplifier 15 to change the amplitude of the noise. Reducing the amplitude means decreasing T, and a curved line appears in FIG. 3. The opposite is true if the amplitude is increased.

ユニットU、Uzの出力V + 、 V zと周波数f
Outputs V + , V z of units U, Uz and frequency f
.

の基準パルスが全てHレベルのときアンドゲート11の
周波数はHレベルになる。カウンタ12は測定時間Tの
間、このHレベルパルスを計数する。
When all the reference pulses are at H level, the frequency of the AND gate 11 becomes H level. The counter 12 counts these H level pulses during the measurement time T.

基準パルスは出力V、、V、の論理積をパルス化し、該
論理積がHレベルである期間をカウンタで計測可能にす
るものである。この計数値をCとすると、ユニットU+
、Uzが同時に発火している確率P、!は P I!−C/ f o  T           
   ””03)で与えられる。この確率Pl!を学習
(クランプ)状態とフリーラン状態で求めることにより
、結合の重みWltを変更することができる。それは次
式%式% 重みの変更は具体的には、クランプ、フリーラン2つの
状態のカウンタ値c、c’から次式に基ずいて与えられ
るカウンタ量C1!によって行なう。
The reference pulse is a pulse that is the logical product of the outputs V, , V, and makes it possible to measure the period during which the logical product is at H level with a counter. If this count value is C, then unit U+
, the probability that Uz fires at the same time P,! is PI! -C/ f o T
""03). This probability Pl! The connection weight Wlt can be changed by determining in the learning (clamp) state and the free run state. It is the following formula % Formula % Specifically, the weight is changed by the counter amount C1! which is given based on the following formula from the counter values c and c' of the two states of clamp and free run. It is done by

CI!=ε(C−C’)/f、T     ・・・・・
・051カウンタ12は上記C1!を出力し、DA変換
器13はこれをアナログに変換してトランジスタ14の
ベースに加え、該トランジスタのコレクタ、エミッタ5
間の抵抗値を変える。これによってU8からU、への結
合の重みWItが変更される。
CI! =ε(C-C')/f, T...
・051 counter 12 is the above C1! The DA converter 13 converts this into analog and adds it to the base of the transistor 14, and the collector and emitter of the transistor 5.
Change the resistance value between. This changes the weight WIt of the connection from U8 to U.

この第1図(b)の構成を繰り返してn個のユニットと
その結合にすれば、nユニットを持つボルツマンマシン
をハードウェア上で実現することができる。
By repeating the configuration shown in FIG. 1(b) to create n units and their combinations, a Boltzmann machine having n units can be realized on hardware.

第2図の回路の動作を、次に説明する。The operation of the circuit shown in FIG. 2 will now be described.

ボルツマンマシンの原理は前述の如くであり、入カニニ
ットn個、隠れユニットn個、出カニニットn個として
示すと第5図の如くなる。各n個の入カニニットは入力
層、隠れ(中間)ユニットは隠れ(中間)層、出カニニ
ットは出力層と呼ばれる。nつまり各層のユニット数は
必ずしも同じではなく、こ−でも人、出力層は4ユニッ
ト、隠れ層は3ユニットとする。
The principle of the Boltzmann machine is as described above, and when it is shown as n incoming units, n hidden units, and n outgoing units, it becomes as shown in FIG. Each of the n input units is called an input layer, each hidden (intermediate) unit is called a hidden (intermediate) layer, and each output unit is called an output layer. In other words, the number of units in each layer is not necessarily the same, and in this case, it is assumed that there are 4 units in the output layer and 3 units in the hidden layer.

学習時は入力層に入カバターンを入れ、出力層にもその
結果のパターンを設定する0本例では各4ユニットなの
で上記パターンは4ビットパターンである。この動作の
時、第2図の増幅器32、アンド回路部33、基準クロ
ックアンド回路部34により1bitがユニットの各々
の結合強度に相当するパルス列のデータとなったデータ
列CDAT 1 。
During learning, an input pattern is input into the input layer, and the resulting pattern is also set in the output layer.In this example, each unit is 4 units, so the above pattern is a 4-bit pattern. During this operation, the amplifier 32, the AND circuit section 33, and the reference clock AND circuit section 34 shown in FIG. 2 create a data string CDAT 1 in which 1 bit becomes data of a pulse train corresponding to the coupling strength of each unit.

CDAT2 (これらは第1図のアンド回路11の出力
に相当する)がプロセッサ21により計数され、ΔW 
i jが算出され、DAコンバータ26よりW i j
として出力され、一定時間後にユニット群のどこかの値
に安定する。これが学習を1つ終えた状態であり、これ
を複数回同様に行なった後、フリーラン状態にしてシス
テム的パラメータを差し引くことで学習は完了する。こ
の後、入力層に新しいビットパターンを加えれば、学習
した内容に従う結果が出力層より出力される。
CDAT2 (these correspond to the output of the AND circuit 11 in FIG. 1) are counted by the processor 21, and ΔW
i j is calculated, and the DA converter 26 outputs W i j
It is output as , and stabilizes to a value somewhere in the unit group after a certain period of time. This is the state in which one learning has been completed, and after repeating this several times, the learning is completed by setting the system to a free run state and subtracting the systematic parameters. After this, if a new bit pattern is added to the input layer, the output layer will output a result according to the learned content.

重み回路部30では、トランジスタ27が重みに応じた
抵抗値をとり、それが抵抗28で電圧に変換されて比較
器29に加わる。これは第4図(a)の如き形をしてい
る。比較器29には閾値電圧源31により基準値が与え
られ、比較器出力は第4図ら)の如くなる。これは増幅
器32で2値化(矩形波に整形)され、第4図(C)の
如くなる。これはアンド回路部33で論理積がとられた
のち、アンド回路部34でクロックCLKとの論理積が
とられ、パルス幅がクロック数で表わされるようになる
。このクロックは、1 bit当りが、各ユニットの結
合強度に相当するパルス列であり、これがデータC口八
Tl、CDAT2である。
In the weight circuit section 30, the transistor 27 takes a resistance value according to the weight, which is converted into a voltage by the resistor 28 and applied to the comparator 29. This has a shape as shown in FIG. 4(a). A reference value is given to the comparator 29 by a threshold voltage source 31, and the comparator output is as shown in FIG. This signal is binarized (shaped into a rectangular wave) by the amplifier 32, and becomes as shown in FIG. 4(C). This is logically ANDed in the AND circuit section 33, and then logically ANDed with the clock CLK in the AND circuit section 34, so that the pulse width is expressed by the number of clocks. This clock is a pulse train in which each bit corresponds to the coupling strength of each unit, and this is the data C-8 Tl, CDAT2.

〔実施例〕〔Example〕

第6図に、第1図(b)を更に具体化した例を示す。 FIG. 6 shows a more specific example of FIG. 1(b).

全図を通してそうであるが他の図と同じ部分には同じ符
号が付しである。第1図と対比すれば明らかなように、
各ユニットの加算器Addと比較器COMPとの間には
インバータINVが挿入される。またDA変換器13の
出力は、ユニッ)UtからUlへの結合の重みWl−用
のトランジスタ14と、その逆のユニットU1からU2
への結合の重みW2゜用のトランジスタ14aを制御す
る。これらのトランジスタ14.14aと加算器Add
の入力端との間には、出力インピーダンスを下げるため
の電圧ホロアVFが挿入される。
As in all figures, parts that are the same as in other figures are given the same reference numerals. As is clear from the comparison with Figure 1,
An inverter INV is inserted between the adder Add and comparator COMP of each unit. Further, the output of the DA converter 13 is transmitted to the transistor 14 for the weight Wl- of the connection from unit Ut to Ul, and vice versa from unit U1 to U2.
The transistor 14a for the coupling weight W2° is controlled. These transistors 14.14a and adder Add
A voltage follower VF is inserted between the input terminal and the input end of the output impedance to lower the output impedance.

閾値θは閾値ユニットUi(出力は常にHレベル)より
与えられるが、この経路にはアンドゲート11b、ll
c、ラッチおよび比較器12b。
The threshold value θ is given by the threshold value unit Ui (output is always at H level), but there are AND gates 11b and ll on this path.
c, latch and comparator 12b.

12c、DA変換器13b、13c、)ランジスタ14
b、14cが含まれ、これらは重み用のそれと同じ構成
である。
12c, DA converter 13b, 13c,) transistor 14
b, 14c, which have the same configuration as that for weights.

第2図の実施例を第7図〜第15図に示す、第7図はマ
イクロプロセッサ21.バスドライバ22、ラッチ回路
24、DA変換及びラッチ回路26を示す。矩形枠は集
積回路チップを示す0回路26はプロセッサ21からデ
ータを受けて各ユニットの結合の重みW I I HI
 + W l l H2+ ・・・・・・WOaNs+
W11□、W、。、・・・・・・W、、、I3を出力す
る0本例では入力層、隠れ層、出力層の各ユニット数が
4゜3.4であるから、結合の種類は4X3X4の48
個ある。
The embodiment of FIG. 2 is shown in FIGS. 7 to 15. FIG. 7 shows the microprocessor 21. A bus driver 22, a latch circuit 24, and a DA conversion and latch circuit 26 are shown. The rectangular frame indicates an integrated circuit chip. The 0 circuit 26 receives data from the processor 21 and calculates the connection weight of each unit W I I HI
+W l l H2+ ・・・・・・WOaNs+
W11□, W. . . . Outputs W, , I3 In this example, the number of units in each of the input layer, hidden layer, and output layer is 4°3.4, so the type of connection is 4X3X4, 48
There are several.

第8図〜第11図は、重み回路部30の具体例である。8 to 11 show specific examples of the weighting circuit section 30. FIG.

第8図では入力層と隠れ層との結合の重みWl、1〜W
 r a M 1と隠れ層出力H・1〜l(/3を受け
て入力層出力11〜14  (ユニットと同じ符号で示
す。以下同じ)を生じる。また第9図では同じ重みW1
1□〜W14□と入力層重カビ、〜11゜を受けて隠れ
層出力H1〜H8を生じる。また第10図では隠れ層と
出力層との結合の重みW 61 M l〜W 64 M
 3と出力層出力o′1〜0″4を受けて隠れ層出力H
1〜H1を生じる。更に第11図は同じ結合の重みWO
t□〜W o 4 M sと隠れ層出力1411〜H’
 aを受けて出力層出力O1〜04を生じる。
In Fig. 8, the weight Wl of the connection between the input layer and the hidden layer is 1 to W.
Input layer outputs 11 to 14 (indicated by the same reference numerals as the units; the same applies hereinafter) are generated by receiving r a M 1 and the hidden layer outputs H・1 to l(/3. Also, in FIG. 9, the same weight W1
1□~W14□ and the input layer heavy mold, ~11° are received to produce hidden layer outputs H1~H8. Moreover, in FIG. 10, the weights of the connections between the hidden layer and the output layer W 61 M l to W 64 M
3 and the output layer output o'1~0''4, the hidden layer output H
1 to H1. Furthermore, Fig. 11 shows the weight of the same connection WO
t□~W o 4 M s and hidden layer output 1411~H'
a and generates output layer outputs O1-04.

第12図と第13図は増幅器32、アンドゲート部33
.34の具体例で、第12図は出力O1〜O,、H,〜
H3とクロックCLKを受けてデータ列CDAT 2を
、また第13図は出力■1〜I1、H5〜H1とクロッ
クCLKを受けてデータ列CDAT 1を出力する。こ
れらの図では2値化を行なう増幅器32は略示している
が、これは第14図に示すようにオペアンプOP、〜O
P4、整形用インバータI、−14等により構成される
。この回路では閾値31はツェナーダイオードZDによ
って与える。また第15図は閾値電圧源31を構成する
。ランダムノイズ(白色雑音)発生回路の例を示す。こ
の回路の出力パルスの振幅は、可変抵抗の操作で変更可
能である。
12 and 13 show the amplifier 32 and the AND gate section 33.
.. 34 specific examples, FIG. 12 shows the outputs O1~O,,H,~
In response to H3 and clock CLK, data string CDAT 2 is output, and in FIG. 13, data string CDAT 1 is output in response to outputs 1 to I1, H5 to H1 and clock CLK. Although the amplifier 32 that performs binarization is schematically shown in these figures, it is connected to the operational amplifiers OP, ~O, as shown in FIG.
It is composed of P4, shaping inverter I, -14, etc. In this circuit, the threshold value 31 is provided by a Zener diode ZD. Further, FIG. 15 constitutes a threshold voltage source 31. In FIG. An example of a random noise (white noise) generation circuit is shown. The amplitude of the output pulse of this circuit can be changed by operating a variable resistor.

マイクロプロセッサ21としは16ビツト以上のものが
好ましく、バスドライバ、ラッチなどはこれに合せる。
The microprocessor 21 is preferably 16 bits or more, and the bus driver, latch, etc. are adapted to this.

DA変換及びラッチ回路26には8ビツト長のチップを
所要数用いているが、他のビット長のものでもよい。ま
たクロックCLKとアンドゲート34でパルス幅をパル
ス数化する代りにV−Fコンバータを用いてもよい。
Although the required number of 8-bit chips are used for the DA conversion and latch circuit 26, chips of other bit lengths may be used. Further, instead of converting the pulse width into the number of pulses using the clock CLK and the AND gate 34, a V-F converter may be used.

第16図に、プロセッサ21にプログラムされる処理手
順を示す。図示のように投入されるコマンドにはフリー
ランモード、クランプモード、リセットモードがある。
FIG. 16 shows the processing procedure programmed into the processor 21. As shown in the figure, the input commands include free run mode, clamp mode, and reset mode.

クランプモードではPijの算出を、またフリーランモ
ードではP’ijの算出を行ない、これらよりΔWij
を求め、DA変換器26に出力する。リセットモードで
は各カウンタをクリアする。これによりシナプスの結合
の重さWijO値を定量化し、しかもデータとして一括
できる。
In clamp mode, Pij is calculated, and in free run mode, P'ij is calculated, and from these, ΔWij
is determined and output to the DA converter 26. In reset mode, each counter is cleared. As a result, the WijO value, which is the weight of synaptic connections, can be quantified and all the data can be summarized.

第1図、第6図の回路では各ユニットの結合部にアンド
ゲート11、ラッチ及びカウンタ12、DA変換器13
が必要で、この結合部は多数ある(4−3−4構成で上
記の如く48個)ので、実機化に当ってはこの部分の簡
潔化が重要である。
In the circuits shown in FIGS. 1 and 6, an AND gate 11, a latch and counter 12, and a DA converter 13 are provided at the coupling part of each unit.
Since there are a large number of connection parts (48 in the 4-3-4 configuration as described above), it is important to simplify this part when implementing the system into an actual device.

この点、該2図によれば、カウンタなとはプロセッサ2
1で共用でき、増幅器32、論理部33゜34の部分が
簡略化できる。またカウント値より求められる新たな出
力値も直接DA変換部をアクセスすることで実現できる
In this regard, according to Figure 2, the counter is the processor 2.
1 can be shared, and the amplifier 32 and logic sections 33 and 34 can be simplified. Furthermore, a new output value determined from the count value can also be realized by directly accessing the DA converter.

〔発明の効果〕〔Effect of the invention〕

以上説明したように本発明によれば、従来ソフトウェア
としてのみ存在していたボルツマンマシンをハードウェ
アとして実現でき、これにより飛躍的な高速化が可能で
ある。
As described above, according to the present invention, a Boltzmann machine, which conventionally existed only as software, can be realized as hardware, thereby making it possible to dramatically increase the speed.

またこのハードウェアで構成されるボルツマンマシンの
カウンタ部及び重み決定部をプロセッサで代行するので
ネットワークの結線量を簡略化でき、高速プロセッサ(
例えば10MHz以上)であればある程カウントのため
のソフトウェア速度が速くなるので、扱えるユニットの
数を増加できる。
In addition, since the counter section and weight determination section of the Boltzmann machine composed of this hardware are substituted by the processor, the amount of network connections can be simplified, and the high-speed processor (
For example, if the frequency is 10 MHz or higher), the software speed for counting becomes faster, so the number of units that can be handled can be increased.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図および第2図は本発明の原理説明図、第3図はシ
グモイダル関数の特性図、 第4図はパルス化の説明図、 第5図はn−n−n構成のボルツマンマシンの説明図、 第6図は第1図の実施例を示すブロック図、第7図〜第
13図は第2図の実施例を示す回路図、 第14図は第13図の一部の回路図、 第15図は白色雑音発生器の回路図、 第16図は処理要領を示す流れ図、 第17図は4−3−4構成のボルツマンマシンの説明図
、 第18図は第17図の動作説明用流れ図である。 W1!は重み、11はアンド回路、12はラッチおよび
カウント回路、13はDA変換器、14はトランジスタ
、30は重み回路部である。
Figures 1 and 2 are diagrams explaining the principle of the present invention, Figure 3 is a characteristic diagram of a sigmoidal function, Figure 4 is a diagram explaining pulsing, and Figure 5 is an explanation of a Boltzmann machine with an n-n-n configuration. 6 is a block diagram showing the embodiment of FIG. 1, FIGS. 7 to 13 are circuit diagrams showing the embodiment of FIG. 2, FIG. 14 is a partial circuit diagram of FIG. 13, Figure 15 is a circuit diagram of the white noise generator, Figure 16 is a flowchart showing the processing procedure, Figure 17 is an explanatory diagram of a Boltzmann machine with a 4-3-4 configuration, and Figure 18 is for explaining the operation of Figure 17. This is a flowchart. W1! 11 is an AND circuit, 12 is a latch and count circuit, 13 is a DA converter, 14 is a transistor, and 30 is a weight circuit section.

Claims (2)

【特許請求の範囲】[Claims] 1.入力信号と共にランダムノイズを入力される加算器
(Add)および、該加算器の出力と閾値電圧(θ)が
入力され前者が後者を越えるとき発火する比較器(CO
MP)を備えるユニットを複数個(U_1,U_2,・
・・)備え、 入力、隠れ、出力各層の前記ユニットを層間で結合する
回路には、重み(W_i_j)付け用にトランジスタ(
14)を挿入し、 結合される2ユニットの前記比較器の出力(V_1,V
_2)と基準パルスを入力されて、該出力が共に発火状
態である期間をパルス数化するゲート回路(11)、該
回路の出力パルスを計数するカウンタ(12)、該カウ
ンタの出力をアナログに変換して前記トランジスタのベ
ースに加えるDA変換器(13)を、各トランジスタ(
14)に付属させたニューラルネットワークを備えるこ
とを特徴とするボルツマンマシン型ニューロコンピュー
タシステム。
1. An adder (Add) receives random noise along with the input signal, and a comparator (CO) receives the output of the adder and a threshold voltage (θ) and fires when the former exceeds the latter.
A plurality of units (U_1, U_2, ·
), and the circuit that connects the units of the input, hidden, and output layers between the layers includes a transistor (
14) and the outputs (V_1, V
_2) and a reference pulse are input, and a gate circuit (11) converts the period during which both of the outputs are in a firing state into a pulse number, a counter (12) that counts the output pulses of the circuit, and an analog output of the counter. A DA converter (13) is connected to each transistor (
14) A Boltzmann machine type neurocomputer system comprising a neural network attached to the system.
2.2値出力状態をとるユニットの複数個で入力、隠れ
、出力各層を構成し、各層のユニットを層間で、重み(
W_i_j)を付けて結合したニューラルネットワーク
を備えるボルツマンマシン型ニューロコンピュータシス
テムにおいて、 結合の重み(W_i_j)をアナログ量からデジタル量
に変更するアナログ入力2値化回路(30,32,33
,34)と、DA変換及びラッチ回路(26)と、プロ
セッサ(21)とを備え、 前記2値化回路の出力をプロセッサで計数して重みの増
分(ΔW_i_j)を求め、これより結合の重み(W_
i_j)を決定して前記ラッチ回路(26)にセットし
、前記2値化回路へ入力するようにしてなることを特徴
とするボルツマンマシン型ニューロコンピュータシステ
ム。
2. Configure the input, hidden, and output layers with multiple units that take a binary output state, and set the weights (
In a Boltzmann machine type neurocomputer system equipped with a neural network connected with W_i_j), an analog input binarization circuit (30, 32, 33) changes the connection weight (W_i_j) from an analog quantity to a digital quantity.
, 34), a DA conversion and latch circuit (26), and a processor (21), the output of the binarization circuit is counted by the processor to obtain the weight increment (ΔW_i_j), and from this, the connection weight is calculated. (W_
i_j) is determined, set in the latch circuit (26), and inputted to the binarization circuit.
JP63176824A 1988-07-15 1988-07-15 Boltzmann machine type neuro computer system Expired - Fee Related JP2552711B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63176824A JP2552711B2 (en) 1988-07-15 1988-07-15 Boltzmann machine type neuro computer system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63176824A JP2552711B2 (en) 1988-07-15 1988-07-15 Boltzmann machine type neuro computer system

Publications (2)

Publication Number Publication Date
JPH0227493A true JPH0227493A (en) 1990-01-30
JP2552711B2 JP2552711B2 (en) 1996-11-13

Family

ID=16020483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63176824A Expired - Fee Related JP2552711B2 (en) 1988-07-15 1988-07-15 Boltzmann machine type neuro computer system

Country Status (1)

Country Link
JP (1) JP2552711B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017138760A (en) * 2016-02-03 2017-08-10 富士通株式会社 Boltzmann machine, control method of boltzmann machine, and information processing apparatus having boltzmann machine
JP2017224227A (en) * 2016-06-17 2017-12-21 富士通株式会社 Information processing device, ising device and method for controlling information processing device
US10007877B2 (en) 2015-06-30 2018-06-26 Fujitsu Limited Boltzmann machine circuit
JP2020013350A (en) * 2018-07-18 2020-01-23 国立研究開発法人産業技術総合研究所 Boltzmann machine

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10007877B2 (en) 2015-06-30 2018-06-26 Fujitsu Limited Boltzmann machine circuit
JP2017138760A (en) * 2016-02-03 2017-08-10 富士通株式会社 Boltzmann machine, control method of boltzmann machine, and information processing apparatus having boltzmann machine
US11074493B2 (en) 2016-02-03 2021-07-27 Fujitsu Limited Boltzmann machine, method for controlling boltzmann machine, and information processing device having boltzmann machine
JP2017224227A (en) * 2016-06-17 2017-12-21 富士通株式会社 Information processing device, ising device and method for controlling information processing device
JP2020013350A (en) * 2018-07-18 2020-01-23 国立研究開発法人産業技術総合研究所 Boltzmann machine

Also Published As

Publication number Publication date
JP2552711B2 (en) 1996-11-13

Similar Documents

Publication Publication Date Title
JP5680751B2 (en) Method and system for digital neural processing with discrete rank synapses and stochastic STDP
US20130031039A1 (en) Apparatus and method for transmitting and receiving spike event in neuromorphic chip
JP2017509952A (en) Monitoring a neural network with a shadow network
JP2013534018A5 (en)
JP2016538632A (en) Method and apparatus for tagging a class using supervised learning
US20150212861A1 (en) Value synchronization across neural processors
US11017288B2 (en) Spike timing dependent plasticity in neuromorphic hardware
CN108510982A (en) Audio event detection method, device and computer readable storage medium
CN110428048A (en) A kind of binaryzation neural network accumulator circuit based on simulation time delay chain
Wang et al. Error-adaptive classifier boosting (EACB): Exploiting data-driven training for highly fault-tolerant hardware
CN110705105A (en) Modeling method and system for inverse dynamics model of robot
JPH0227493A (en) Boltzmann machine type neuro-computer system
JP2016537712A (en) Assigning and examining synaptic delays dynamically
JP2017515207A (en) Plastic synapse management
CN112308219B (en) Method of performing arithmetic operation and semiconductor device performing arithmetic operation
Ang et al. Spiking neural network-based auto-associative memory using FPGA interconnect delays
Huang et al. Deep learning modeling attack analysis for multiple fpga-based apuf protection structures
JP2017509956A (en) Method for converting values to spikes
CN111916049B (en) Voice synthesis method and device
Johnson et al. Fault-tolerant learning in spiking astrocyte-neural networks on FPGAs
CN113033695A (en) Method for predicting faults of electronic device
CN115204350A (en) Training method and training device for impulse neural network
Sabbaghi et al. New full adders using multi-layer perceptron network
CN110990835A (en) Neural network Trojan horse detection method based on sample judgment error
Xiao et al. Training artificial neural networks by generalized likelihood ratio method: An effective way to improve robustness

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees