JPH08202673A - Neural network and its learning method - Google Patents

Neural network and its learning method

Info

Publication number
JPH08202673A
JPH08202673A JP7011732A JP1173295A JPH08202673A JP H08202673 A JPH08202673 A JP H08202673A JP 7011732 A JP7011732 A JP 7011732A JP 1173295 A JP1173295 A JP 1173295A JP H08202673 A JPH08202673 A JP H08202673A
Authority
JP
Japan
Prior art keywords
neuron
output
neural network
connection
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7011732A
Other languages
Japanese (ja)
Inventor
Yuji Okada
雄治 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP7011732A priority Critical patent/JPH08202673A/en
Publication of JPH08202673A publication Critical patent/JPH08202673A/en
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

PURPOSE: To represent the reliability of the probability of a phenomenon on the neural network in addition to the probability and to obtain a neural network which is high in safety and reliability by enabling the output of a neuron to have a specific value corresponding to the potential at which the neuron is coupled. CONSTITUTION: This neural network is equipped with neurons N1-N3 which determine output values in probability according to input pulse signals and connections W13 and W23 which convert the outputs of the neurons N1-N3 into pulse signals and outputs the pulse signals as inputs to other neurons. The outputs of the neurons N1-N3 can have three values of 1, 0, and -1 according to potentials that the neurons N1-N3 input from the connections W12 and W23. Consequently, the neural network can be represented as, for example, (probability of phenomenon) = (probability that a neuron becomes 1)/(probability that the neuron becomes -1) and (reliability of probability of phenomenon) = (probability that the neuron is not 0), and the reliability of the probability can be represented on the network in addition to the probability of the phenomenon.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は確率的に動作するニュー
ラルネットワークに関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a stochastic neural network.

【0002】[0002]

【従来の技術】近年、ノイマン型コンピュータの不得意
なパターン認識や確率的な情報処理というような機能を
実現するために数多くのニューラルネットワークモデル
が提唱されている。しかしながら、生物の情報処理と比
較すると現在のところその能力は不十分で特に現象や知
識の確率的な不確かさをニューラルネットワーク上に表
現することが困難な課題となっている。
2. Description of the Related Art In recent years, a large number of neural network models have been proposed in order to realize the functions such as poor pattern recognition and stochastic information processing of Neumann computers. However, compared with the information processing of living things, its ability is not sufficient at present, and it is a difficult task to express the stochastic uncertainty of a phenomenon or knowledge on a neural network.

【0003】確率的な知識をニューラルネットワークで
処理するため従来様々な方法が提案されているが、その
うちのひとつにボルツマンマシンと呼ばれる、入力の大
きさに応じて発火するかどうかを確率的に決定するニュ
ーロンを用いる方法が提案されている。
Various methods have been proposed in the past for processing stochastic knowledge by a neural network. One of them is called a Boltzmann machine, and it is probabilistically determined whether or not to fire depending on the size of an input. A method using a neuron has been proposed.

【0004】以下図面を参照しながら、上述した従来の
確率的な動作をするニューラルネットワークの一例であ
るボルツマンマシンについて説明する。ボルツマシンの
動作については例えば麻生著「ニューラルネットワーク
情報処理(産業図書発行、第27頁〜第31頁、55頁
〜64頁、昭和63年6月20日発行)」に示されてい
る。
A Boltzmann machine, which is an example of the above-described conventional neural network which operates stochastically, will be described below with reference to the drawings. The operation of the Boltz machine is shown, for example, in "Neural network information processing (published by Sangyo Tosho, pages 27-31, pages 55-64, issued June 20, 1988)" by Aso.

【0005】図7はボルツマンマシンの構成図である。
ニューロンの数に制限はなく、数を多くしたり、また情
報の出入口である入出力ニューロンと別に一般に隠れ層
と呼ばれるニューロンを介在させることによって処理で
きる情報の量と複雑さは増す。しかし、ここでは動作を
簡潔に説明するため3つのニューロンからなる構成とし
ている。N1、N2、N3は0か1の状態をとるニュー
ロンである。W12、W13、W23はニューロン間の
結合である。ニューロンの状態はそのニューロンへの入
力の合計値とニューロンが持つ固有のしきい値の和によ
って確率的に定まる。ニューロンの出力はニューロンの
状態と結合の積算によって定まり、その出力は他のニュ
ーロンに入力される。例えばN1の状態が1のときW1
2が0.5ならばN1から出力されN2に入力される信
号の値は0.5である。また、結合は一方通行ではなく
N2の出力は同様にしてW12を積算されてN1に入力
される。このようにして例えばN2にはN1とN3から
入力があるが、このときN2の状態が1になる確率は入
力の合計値にN2固有のしきい値を加えたものに対して
シグモイド曲線の関係で相関する。図4は入力と、状態
が1になる確率の関係である。この動作原理に従ってラ
ンダムな状態変化を続けると各ニューロンの状態は結合
に応じた特定の確率で1となる。なお、ボルツマンマシ
ンは通常温度といわれるパラメータを操作して焼き鈍し
といわれる処理を経るのが普通であるが、そのようなボ
ルツマシンの動作については例えば麻生著「ニューラル
ネットワーク情報処理(産業図書発行、第27頁〜第3
1頁、昭和63年6月20日発行)」に示されている。
以上に述べたような原理によって、ボルツマンマシンは
確率的な知識をネットワークとして表現することが可能
となる。例えばN1とN3が1のときN2が1になる確
率は一意的に定まるので2つの証拠があるときの現象発
生確率を求めるというような処理が可能になる。
FIG. 7 is a block diagram of a Boltzmann machine.
There is no limit to the number of neurons, and the amount and complexity of information that can be processed increases by increasing the number and interposing a neuron commonly called a hidden layer in addition to the input / output neurons that are the gateways of information. However, here, in order to briefly explain the operation, the configuration is made up of three neurons. N1, N2, and N3 are neurons that take a 0 or 1 state. W12, W13, and W23 are connections between neurons. The state of a neuron is stochastically determined by the sum of the total input to the neuron and the threshold value unique to the neuron. The output of a neuron is determined by the state of the neuron and the integration of connections, and its output is input to another neuron. For example, when the state of N1 is 1, W1
If 2 is 0.5, the value of the signal output from N1 and input to N2 is 0.5. Further, the coupling is not one-way, and the output of N2 is similarly integrated with W12 and input to N1. Thus, for example, N2 has inputs from N1 and N3. At this time, the probability that the state of N2 becomes 1 is the relation of the sigmoid curve to the sum of the inputs and the threshold specific to N2. Correlates with. FIG. 4 shows the relationship between the input and the probability that the state will be 1. If random state changes continue according to this operation principle, the state of each neuron becomes 1 with a specific probability according to the connection. Note that a Boltzmann machine normally operates a parameter called temperature and undergoes a process called annealing. For the operation of such a Boltzmann machine, see, for example, “Neural Network Information Processing (Issue Book Issue, No. 27)” by Aso. Page-3
P. 1, issued June 20, 1988). "
By the principle described above, the Boltzmann machine can represent probabilistic knowledge as a network. For example, when N1 and N3 are 1, the probability that N2 will be 1 is uniquely determined, so that it is possible to perform processing such as obtaining the phenomenon occurrence probability when there are two pieces of evidence.

【0006】[0006]

【発明が解決しようとする課題】しかしながら前記のよ
うな構成では、2つのニューロンの相関関係の信頼度を
ネットワーク上に表現できず、これに伴って以下に述べ
るような欠点を有していた。
However, with the above-mentioned structure, the reliability of the correlation between two neurons cannot be expressed on the network, and there is a drawback as described below.

【0007】第一に、各ニューロンが保持するしきい値
およびニューロン間の結合の値の基になる生データ数が
不足している場合にも生データが十分得られた場合と同
じしきい値または結合の値で構成することになり、現象
発生確率がどの程度信頼し得るのかを判断する方法がな
い。例えば、N1に該当する現象を単独に観察した結果
10回のうち7回が1、3回が0だったのでこの生デー
タに基づいてN1のしきい値を決めるとする。0.7の
確率でN1の状態が1となるようにするには図2を使っ
て0.7の確率となる入力値の値をしきい値にすればよ
い。しかし高々10回の生データでは本当に現象発生確
率が0.7なのか、真の確率は別の値なのだがたまたま
このとき7回1になったのか判断できない。真の確率は
0.5であるがたまたま7回1になることも有り得、こ
のような場合にはボルツマンマシンに表現された確率は
真の確率と異なっているということになる。したがっ
て、このように生データが少ない場合には決定したしき
い値の信頼度が低いこともネットワーク中に表現すべき
であるがボルツマンマシンで信頼度を表現することは困
難である。このため、観察回数が100回でも10回で
も同じようにしきい値または結合の値が決められ、ボル
ツマンマシンの動作によって得られる答が対象としてい
る現象とどの程度ずれる可能性があるかを判断すること
ができないという欠点を有していた。
[0007] First, even if the number of raw data which is the basis of the threshold value held by each neuron and the coupling value between neurons is insufficient, the same threshold value as when sufficient raw data is obtained. Or, it will be configured by the value of the combination, and there is no method to judge how reliable the phenomenon occurrence probability is. For example, as a result of observing the phenomenon corresponding to N1 independently, 7 times out of 10 times was 1 and 3 times was 0, so the threshold value of N1 is determined based on this raw data. In order to set the state of N1 to 1 with the probability of 0.7, the value of the input value with the probability of 0.7 may be set as the threshold value using FIG. However, it is impossible to determine whether the phenomenon occurrence probability is 0.7 with the raw data of at most 10 times, or the true probability is another value, but it happened to be 7 times 1 at this time. The true probability is 0.5, but it may happen to be 1 7 times, and in such a case, the probability expressed by the Boltzmann machine is different from the true probability. Therefore, it should be expressed in the network that the reliability of the determined threshold is low when the raw data is small as described above, but it is difficult to express the reliability by the Boltzmann machine. Therefore, the threshold value or the coupling value is determined in the same manner regardless of the number of observations 100 times or 10 times, and it is determined how much the answer obtained by the operation of the Boltzmann machine may deviate from the target phenomenon. It had the drawback of not being able to.

【0008】第二に、2つの確率を統合する場合に信頼
度という値を用いないために2つのニューロンからの影
響度を区別することができない。例えば、W12を観測
回数10回の生データを基にした不確かな結合、W23
を観測回数100回の確かな結合であったにしても、N
1、N3の状態がN2の状態を決める影響度の重みは同
等であり、2つの確率を統合して得られるN2の状態は
観測回数の影響を受けない。このためN2に入る複数の
入力の信頼度が異なる場合にもそれらの重みが等しいも
のとしてN2の状態が決められてしまうという欠点を有
していた。
Second, since the value of reliability is not used when integrating two probabilities, it is impossible to distinguish the degree of influence from two neurons. For example, W23 is an uncertain combination based on the raw data of 10 observations, W23
Even if is a reliable combination of 100 observations, N
The weights of the degrees of influence that determine the states of 1 and N3 determine the state of N2 are equal, and the state of N2 obtained by integrating the two probabilities is not affected by the number of observations. Therefore, even if the reliability of a plurality of inputs in N2 is different, the state of N2 is determined to have the same weight.

【0009】[0009]

【課題を解決するための手段】前記課題を解決するため
に、本発明のニューラルネットワークは、入力パルス信
号に応じて出力の値を確率的に決定するニューロンと、
ニューロンの出力をパルス信号に変換しそのパルス信号
を別のニューロンの入力となるように出力する結合を備
え、ニューロンの出力は、ニューロンが結合から入力す
る電位に応じて1か0か−1の3つの値を取り得ること
を特徴としている。
In order to solve the above-mentioned problems, a neural network of the present invention comprises a neuron that stochastically determines an output value according to an input pulse signal,
The output of the neuron is provided with a connection for converting the output of the neuron into a pulse signal and outputting the pulse signal so as to be an input of another neuron, and the output of the neuron is 1 or 0 or -1 depending on the potential input from the connection by the neuron. The feature is that it can take three values.

【0010】[0010]

【作用】前記のように構成されたニューラルネットワー
クはニューロンの状態が1、0、−1の3値を取り得る
ことにより、例えば、 (現象の確率)=(ニューロンが1になる確率)/
(同、−1になる確率); (現象の確率の信頼度)=(ニューロンが0でない確
率); として表現することができ、現象の確率に加えてその確
率の信頼度をネットワーク上に表現することが可能とな
る。
In the neural network configured as described above, since the state of the neuron can take three values of 1, 0 and -1, for example, (probability of phenomenon) = (probability that neuron becomes 1) /
(Similarly, probability of becoming −1); (Probability of probability of phenomenon) = (Probability that neuron is not 0); and, in addition to probability of phenomenon, reliability of probability is expressed on the network. It becomes possible to do.

【0011】この能力により、例えば現象の安全率を予
測するような場合にニューラルネットワークの予測がど
の程度信頼できるのかを判断することができ、予測の信
頼度が低い場合には人間が判断を代行したりあるいは特
定の手段を講じて予測を確かなものにするといったよう
な臨機応変な対応が実現できることになり、安全性およ
び信頼性の高いニューラルネットワークの利用が可能に
なる。
With this capability, it is possible to judge how reliable the prediction of the neural network is, for example, when predicting the safety factor of a phenomenon, and when the reliability of the prediction is low, a person makes a judgment. It is possible to realize flexible response such as taking corrective action or taking certain measures to secure the prediction, and it becomes possible to use a neural network having high safety and reliability.

【0012】[0012]

【実施例】以下本発明の一実施例のニューラルネットワ
ークについて、図面を参照しながら説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A neural network according to an embodiment of the present invention will be described below with reference to the drawings.

【0013】図1は本発明の一実施例であるニューラル
ネットワークの構成図である。実施例は、現象の確率に
加えてその確率の信頼度をネットワーク上に表現し、安
全性や信頼性の高いニューラルネットワークを提供する
ことを目的としている。
FIG. 1 is a block diagram of a neural network which is an embodiment of the present invention. The embodiments are intended to provide a neural network with high safety and reliability by expressing not only the probability of a phenomenon but also the reliability of the probability on a network.

【0014】ニューロンの数に制限はなく、数を多くす
れば処理できる情報の量と複雑さは増すが、本実施例で
は動作を簡潔に説明するため3つのニューロンからなる
構成としている。
There is no limit to the number of neurons, and the number and complexity of information that can be processed increases if the number is increased, but in the present embodiment, the configuration is made up of three neurons in order to briefly explain the operation.

【0015】N1、N2、N3は−1か0か1の状態を
とるニューロンである。W13、W23はニューロン間
の結合である。ニューロンの状態はそのニューロンへの
入力の合計値によって確率的に定まる。ボルツマンマシ
ンの場合にはニューロンのしきい値はニューロン固有の
値として扱われるが、本発明ではしきい値は各ニューロ
ンに結合する常時出力1のニューロンとして定義され
る。N33はN3のしきい値ニューロンであり、W33
はN3にしきい値を与える結合である。
N1, N2 and N3 are neurons which take the states of -1, 0 or 1. W13 and W23 are connections between neurons. The state of a neuron is stochastically determined by the total value of the inputs to that neuron. In the case of the Boltzmann machine, the threshold value of a neuron is treated as a value peculiar to the neuron, but in the present invention, the threshold value is defined as a neuron with a constant output of 1 connected to each neuron. N33 is a threshold neuron of N3, and W33
Is a combination that gives a threshold to N3.

【0016】なお、N1とN2にもしきい値ニューロン
が結合されているのが普通であるが本実施例ではN3の
入出力を中心に説明するので、これらのしきい値ニュー
ロンの図示は省略する。
Although threshold neurons are usually coupled to N1 and N2 as well, this embodiment will focus on the input / output of N3, and therefore these threshold neurons are not shown. .

【0017】以上のように構成されたニューラルネット
ワークについて、以下図1、図2、図3、図4、図5及
び図6を用いてその動作を説明する。
The operation of the neural network configured as described above will be described below with reference to FIGS. 1, 2, 3, 4, 5, and 6.

【0018】N1の出力が1のとき結合W13はN1か
ら値1を入力する。結合はそれぞれ2つのパラメータ
a,bを保持していて、入力が1のとき結合は下式に示
される特定の電位を生成し、N3に対してこの特定の頻
度でこの電位を出力する。
When the output of N1 is 1, the coupling W13 inputs the value 1 from N1. The coupling holds two parameters a and b, respectively, and when the input is 1, the coupling generates a specific electric potential shown in the following equation and outputs this electric potential to N3 at this specific frequency.

【0019】(電位V1)=(パラメータa); (頻度)=(パラメータb); この結果W13が出力するパルス信号の一例を図2
(a)に示す。W13が出力するパルス信号はN3への
入力となる。結合はニューロンに対して出力があること
を明確に示すために出力する電位に振幅の小さい正弦波
を乗せている。このため、パラメータaが0のときにも
正弦波の存在によって電位を出力しない場合と明確に区
別される。パラメータaが0のときのW13の出力電位
を図2(b)に示す。パラメータaによって決められた
振幅V1は0であり、パラメータbによって決められた
パルスの発生頻度は全体の時間の中で正弦波が乗ってい
る時間の率ということになる。
(Potential V1) = (Parameter a); (Frequency) = (Parameter b); An example of the pulse signal output from the result W13 is shown in FIG.
(A). The pulse signal output from W13 is input to N3. The coupling puts a small amplitude sine wave on the output potential to clearly show that there is an output to the neuron. Therefore, even when the parameter a is 0, it is clearly distinguished from the case where no potential is output due to the presence of the sine wave. The output potential of W13 when the parameter a is 0 is shown in FIG. The amplitude V1 determined by the parameter a is 0, and the pulse generation frequency determined by the parameter b is the rate of the time when the sine wave is on the whole time.

【0020】なお、この正弦波は結合からの出力の存在
を明確に示すためのものであり、必ずしも正弦波である
必要はない。例えば三角波でも同様の効果が得られる
し、逆に出力がないときに正弦波をニューロンに伝える
ようにしても同じことである。
It should be noted that this sine wave is to clearly show the existence of the output from the coupling, and is not necessarily a sine wave. For example, the same effect can be obtained with a triangular wave, and conversely, if a sine wave is transmitted to the neuron when there is no output, the same effect can be obtained.

【0021】また、出力がないことを示すのに結合は、
結合の出力電位が取り得ない電位を出力がないときにニ
ューロンに送り、この電位を受け取ったときニューロン
はその結合からの入力はないと認識できるようにしても
よい。
Also, to indicate that there is no output, the combination is
It is also possible to send a potential that cannot be taken by the output potential of the connection to the neuron when there is no output so that when the potential is received, the neuron can recognize that there is no input from the connection.

【0022】同様にして、W23とW33からも入力が
あるのでN3が入力するパルス電位はこれら3つの結合
の出力の合計値となる。N3が入力するパルス電位の合
計値の一例を図3に示す。N3に出力するパルス電位は
正電位であるとは限らず、また複数のパルス電位がN3
に出力するタイミングはランダムであるのでN3の入力
パルス電位の合計値の波形は定常的に一定な形にはなら
ずランダムな波形となる。
Similarly, since there are also inputs from W23 and W33, the pulse potential input to N3 is the total value of the outputs of these three couplings. FIG. 3 shows an example of the total value of the pulse potentials input by N3. The pulse potential output to N3 is not always a positive potential, and a plurality of pulse potentials may be output to N3.
Since the timing of output to R3 is random, the waveform of the total value of the input pulse potentials of N3 is not a steady constant waveform but a random waveform.

【0023】N3が出力する−1か0か1かの値すなわ
ちN3の状態はN3が入力するパルス電位によって決定
する。N3がパルスを入力したとき、すなわち正弦波の
印加された信号を受け取ったとき、N3の状態は1か−
1となる。入力されるパルスが存在しないときN3の状
態は0である。N3の状態が1または−1になる確率は
入力パルス電位合計値によって定まり、入力パルス電位
合計値とN3の状態が1または−1になる確率は正の相
関を持つ。本実施例ではこの相関関係を図4に示すよう
なシグモイド曲線にしている。この結果、N3の状態は
パルスを入力したとき−1か1となり、入力しないとき
0となりそれぞれの発生頻度は一定の値となる。N3の
状態の一例を図5に示す。
The value of -1, 0 or 1 output by N3, that is, the state of N3 is determined by the pulse potential input by N3. When N3 inputs a pulse, that is, receives a signal applied with a sine wave, the state of N3 is 1-
It becomes 1. The state of N3 is 0 when there is no input pulse. The probability that the state of N3 becomes 1 or -1 is determined by the input pulse potential total value, and the probability that the state of N3 becomes 1 or -1 has a positive correlation. In this embodiment, this correlation is a sigmoid curve as shown in FIG. As a result, the state of N3 becomes -1 or 1 when a pulse is input, becomes 0 when no pulse is input, and each occurrence frequency becomes a constant value. An example of the state of N3 is shown in FIG.

【0024】以上のニューラルネットワークの動作によ
って知識の不確かさをニューラルネットワークに表現す
ることが可能となる。このニューラルネットワークを使
用した推論の一例として天気予報をするニューラルネッ
トワークについて説明する。
The above-described operation of the neural network makes it possible to express the uncertainty of knowledge in the neural network. A neural network for weather forecasting will be described as an example of inference using this neural network.

【0025】N1が雨雲の存在を示すニューロン、N3
が1時間以内に雨が降り出すことを示すニューロンとす
る。W13は雨雲と雨の相関を示す結合でパラメータa
は知識としての雨雲がある時の1時間以内に雨が降る確
率、パラメータbはその知識の信頼度を示す。N3は状
態が1、0、−1のときそれぞれ、雨が降ること、わか
らないこと、雨が降らないことを示している。この例で
は雨雲が存在するとき雨が1時間以内に雨が降る確率を
予測することを目的とする。したがって、N1の出力は
常に1である。
N1 is a neuron indicating the presence of a rain cloud, N3
Is a neuron that indicates that it starts to rain within 1 hour. W13 is a combination indicating the correlation between rain clouds and rain, and the parameter a
Is the probability that it will rain within one hour when there is a rain cloud as knowledge, and parameter b represents the reliability of the knowledge. N3 indicates that it rains, does not know, and does not rain when the states are 1, 0, and -1, respectively. The purpose of this example is to predict the probability of rain within one hour when there is a rain cloud. Therefore, the output of N1 is always 1.

【0026】パラメータbが小さいほどN3がパルスを
入力しないことが多くなり、N3の状態も0であること
が多くなる。この状態は、雨が降るかどうかはわからな
いことを示す。
The smaller the parameter b, the more often N3 does not input a pulse, and the state of N3 is often zero. This condition indicates that we do not know if it will rain.

【0027】N3の状態から下式に示すの3つの値を得
ることができる。CFは判断に用いる知識の信頼度を示
す。Pは持っている知識が示す降雨確率を示す。P’は
信頼度を加味した上での最終的な判断に用いる確率であ
る。
From the state of N3, the following three values can be obtained. CF indicates the reliability of knowledge used for judgment. P indicates the rainfall probability indicated by the knowledge possessed. P'is the probability used for the final judgment after considering the reliability.

【0028】CF=(N3が1か−1になっている時
間)/(単位時間); P =(N3が1である時間)/(N3が1か−1にな
っている時間); P’=P×CF + 0.5×(1−CF); これら3つの値を得られることによって安全性、信頼性
の高い判断を行うことが出来る。例えば雨雲が存在して
いるとき、持っている知識Pは降雨確率が0.9である
ことを示していても知識の信頼度CFが0.1であれば
P’は0.54となり降雨確率は知識が不足しているた
めによくわからないという、非常に現実的な答を得るこ
とができる。
CF = (time when N3 is 1 or -1) / (unit time); P = (time when N3 is 1) / (time when N3 is 1 or -1); P '= PxCF + 0.5x (1-CF); By obtaining these three values, it is possible to make a judgment with high safety and reliability. For example, when there is a rain cloud, even if the knowledge P possessed indicates that the rainfall probability is 0.9, if the confidence level CF of the knowledge is 0.1, then P ′ will be 0.54 and the rainfall probability. You can get a very realistic answer that you don't know because you lack knowledge.

【0029】また、N3が出力するパルス波形を観察す
ることにより、P’が同じ0.5であっても確かな0.
5であるのか、確率がどれだけなのかわからないという
0.5なのかが判断でき、2日に1日雨が降らなければ
実験が消化できるという場合にP’が確かな0.5であ
れば日程が確実に計画できるというように、現実的な判
断において非常に有効である。
Further, by observing the pulse waveform output from N3, even if P'is the same 0.5, a certain value of 0.
You can judge whether it is 5 or 0.5 that you do not know what the probability is, and if P'is certain 0.5 if the experiment can be digested unless it rains on 2 days 1 day, It is very useful in making realistic judgments, such as scheduling the schedule with certainty.

【0030】さらに、N2が降雨に関する別の原因を示
すニューロンと定義したとき、N3が入力するパルスは
N1、N2の2つのニューロンからのパルスの合計値と
なり、それぞれのパルスの波形には特定の電位の頻度と
いう形で信頼度が反映されているために、この合計され
たパルスの入力により決定されるN3の状態は2つの原
因を統合した自然な確率となる。すなわち、信頼度が小
さい知識が示す確率はN3の統合確率への影響度が小さ
くなり、従来のニューラルネットワークでは困難だった
信頼度を加味した確率の統合が簡単に実現できる。ここ
でいう知識とは結合が保持するパラメータのことであ
る。
Further, when N2 is defined as a neuron showing another cause of rainfall, the pulse input to N3 is the total value of the pulses from the two neurons N1 and N2, and the waveform of each pulse has a specific value. Since the reliability is reflected in the form of the frequency of the electric potential, the state of N3 determined by the input of this summed pulse becomes a natural probability that integrates the two causes. That is, the probability indicated by the knowledge having a small reliability has a small influence on the integration probability of N3, and the integration of the probability considering the reliability, which has been difficult with the conventional neural network, can be easily realized. The knowledge referred to here is the parameter held by the bond.

【0031】同様にして、N3のしきい値ニューロンN
33からのパルス入力も合計し確率を統合することが可
能である。
Similarly, the threshold neurons N3 of N3
It is also possible to sum the pulse inputs from 33 and integrate the probabilities.

【0032】以上に述べた2つのニューロンから受け取
る確率の自然な統合が可能なのは、結合に特定の電位と
特定の頻度という2つのパラメータを持たせたためであ
る。これら2つのパラメータの存在により、知識の確
率、信頼度が明確になり知識自体の評価、例えば信頼度
をより大きくする必要があるかどうかなどの評価も可能
となり非常にその効果は大きい。
The natural integration of the probabilities received from the two neurons described above is possible because the coupling has two parameters of a specific electric potential and a specific frequency. Due to the existence of these two parameters, the probability of the knowledge and the reliability are clarified, and the evaluation of the knowledge itself, for example, whether or not the reliability needs to be increased, can be evaluated, which is very effective.

【0033】なお、本実施例では1,0,−1の3通り
の値を出力し得るニューロンと特定の電位と頻度を保持
する結合を備えたニューラルネットワークについてその
効果を説明したが、1,0,−1の3通りの値を出力し
得るニューロンと特定の電位と頻度を保持する結合をそ
れぞれ単独で備えたニューラルネットワークであっても
大きな効果を得ることが出来る。
In this embodiment, the effect has been described for a neuron capable of outputting three values of 1, 0, -1 and a neural network having a connection for holding a specific potential and frequency. A large effect can be obtained even with a neural network that is equipped with a neuron that can output three values of 0 and -1, and a connection that holds a specific electric potential and frequency.

【0034】例えば、結合がパラメータaしか保持しな
くて上流ニューロンが1のとき特定の電位を下流ニュー
ロンに出力し続ける構成であっても、結合の信頼度が低
いときにはパラメータaの値を0にし、結合から入力す
る電位が0のときにニューロンの状態が0になるニュー
ロンを使用することによって−1、0、1の3つの出力
を取り得るニューロンを備えたニューラルネットワーク
とすることができる。このようなニューラルネットワー
クは結合すなわち知識の信頼度が低いときにはニューロ
ンの状態が0になるわけだから、ニューロンの状態から
その確率の信頼度を獲得することが可能なのは当然であ
る。
For example, even if the connection holds only the parameter a and the upstream neuron continues to output a specific potential to the downstream neuron, the value of the parameter a is set to 0 when the reliability of the connection is low. , A neural network having neurons capable of taking three outputs of -1, 0, and 1 can be obtained by using a neuron whose state becomes 0 when the potential input from the connection is 0. In such a neural network, since the state of the neuron becomes 0 when the reliability of the connection, that is, the knowledge is low, it is natural that the reliability of the probability can be obtained from the state of the neuron.

【0035】また、ニューロンが1、−1の2値しか出
力を持ち得なくても、結合が特定の電位を特定の頻度で
ニューロンに与える前述のような構成ならば、ニューロ
ンが結合から電位を受け取らないときにニューロンが
0.5の確率で1になるようにすれば、ニューロンの状
態が1になる確率をもって前記P’を疑似的に表現する
ことは可能である。もちろん、このようなニューラルネ
ットワークも信頼度を考慮したことになり、従来のニュ
ーラルネットワークにはない安全性、信頼性を効果とし
て持つ。
Even if the neuron can output only binary values of 1 and -1, if the connection gives a specific potential to the neuron at a specific frequency, the neuron outputs the potential from the connection. If the neuron is set to 1 with a probability of 0.5 when it is not received, it is possible to represent the P ′ in a pseudo manner with the probability that the state of the neuron is 1. Of course, such a neural network also takes reliability into consideration, and has the effect of safety and reliability that conventional neural networks do not have.

【0036】なお、本実施例に述べたように、1,0,
−1の3通りの値を出力し得るニューロンと特定の電位
と頻度を保持する結合をニューラルネットワークが備え
れば、結合の信頼度をより正確にニューロンに反映する
ことができ効果はより大きくなる。
As described in this embodiment, 1, 0,
If the neural network is provided with a neuron that can output three values of -1 and a connection that holds a specific potential and frequency, the reliability of the connection can be more accurately reflected in the neuron, and the effect will be greater. .

【0037】次に、結合が持つ2つのパラメータの学習
手法について説明する。この学習手法を用いずに経験的
に2つのパラメータを定めてニューラルネットワークを
用いた推論を行うことも可能であるが、ここに説明する
方法を使えば簡単かつ適正に、結合の2つのパラメータ
値を得ることができる。
Next, a method of learning the two parameters of the combination will be described. Although it is possible to empirically determine two parameters and perform inference using a neural network without using this learning method, the method described here can be used to easily and properly calculate the two parameter values of the combination. Can be obtained.

【0038】学習を行うにはまず知識の基になる生デー
タを用意する。前述の雨雲から降雨を推論するニューラ
ルネットワークの例で説明すると、雨雲があった1時間
後の降雨の有無の過去の記録が生データである。この生
データが以下のようであったとする。
In order to carry out learning, first, raw data on which knowledge is based is prepared. Explaining the example of the neural network that infers the rainfall from the rain cloud described above, the past record of the presence or absence of rainfall 1 hour after the rain cloud is the raw data. Suppose this raw data is as follows.

【0039】 雨雲の1時間後に雨が降った = 20回; 雨雲の1時間後に雨が降らなかった = 5回; このような生データが得られたとき以下のようにしてパ
ラメータa、bを決めれば非常に簡単にW13の2つの
パラメータを獲得することができる。雨雲の1時間後に
雨が降ったということはN1が1であるときにN3が1
であったことであり、雨が降らなかったのとはN3が−
1であったことである。本学習方法では、結合の上流ニ
ューロンが1のとき結合の下流ニューロンも1である回
数が生データ全体の回数に占める割合をPとする。した
がって、上記の雨雲の例では、Pは0.8である。
It rained 1 hour after the rain cloud = 20 times; it did not rain 1 hour after the rain cloud = 5 times; When such raw data was obtained, parameters a and b were set as follows. If decided, the two parameters of W13 can be acquired very easily. One hour after the rain cloud, it means that N3 is 1 when N1 is 1.
It means that it was N3 and that it did not rain.
That was 1. In this learning method, the ratio of the number of times that the upstream neuron of the connection is 1 to the downstream neuron of the connection to the total number of times of the raw data is P. Therefore, in the rain cloud example above, P is 0.8.

【0040】(P)=(雨が降った回数:20回)/
(全体の回数:25回); パラメータaはニューラルネットワークで使用するニュ
ーロンの状態変化規則から逆に求める。前述したように
ニューロンの入力とニューロンが1になる確率の関係は
図4に示すようなシグモイド曲線であるから、パラメー
タaは図4の縦軸にPをとりそのPに対応する横軸の値
とする。
(P) = (Number of rains: 20 times) /
(Total number of times: 25 times); Parameter a is inversely obtained from the state change rule of the neuron used in the neural network. As described above, the relationship between the input of the neuron and the probability that the neuron becomes 1 is a sigmoid curve as shown in FIG. 4, so that the parameter a is the value on the horizontal axis corresponding to P with P on the vertical axis. And

【0041】パラメータbは、生データ数と正の相関を
持ち生データ数が増えるにつれて勾配が徐々になだらか
になり値が1に漸近していく値とする。こうすると、生
データ数が多いほど信頼度が高まるという現実的な推論
を行うのに適した値が得られる。生データ数とパラメー
タbの関係の一例を図6に示す。
The parameter b is a value that has a positive correlation with the number of raw data, and the slope gradually becomes gentle and the value approaches 1 as the number of raw data increases. This makes it possible to obtain a value suitable for realistic inference that the reliability increases as the number of raw data increases. FIG. 6 shows an example of the relationship between the number of raw data and the parameter b.

【0042】以上に説明した結合の学習は通常、生デー
タを教師信号として扱いニューラルネットワークの学習
段階で結合のパラメータa、bを修正してゆくという形
で行う。学習段階でニューラルネットワークを生データ
で拘束し、拘束されたニューロンに挟まれた結合は拘束
されたニューロンの値に応じてパラメータa、bを前述
の計算方法で得られる値になるように修正するのであ
る。この方法を使用することによって、生データから、
その生データの数に応じた信頼度の知識を生成しニュー
ラルネットワークとして表現し、その知識の信頼度を考
慮した現実的な推論を簡単に行うことができる。
The above-described learning of the connection is usually performed by treating the raw data as a teacher signal and modifying the parameters a and b of the connection at the learning stage of the neural network. At the learning stage, the neural network is constrained by raw data, and the connection between the constrained neurons is modified so that the parameters a and b become the values obtained by the above calculation method according to the constrained neuron values. Of. By using this method, from the raw data,
It is possible to generate knowledge of reliability corresponding to the number of raw data and express it as a neural network, and easily perform realistic inference considering the reliability of the knowledge.

【0043】なお、本発明では結合が保持する2つの固
有値は出力する特定の電位とその電位を出力する特定の
頻度としたが、必ずしも直接この値でなければならない
というわけではない。例えば結合に、出力するニューロ
ンを1にする傾向を示すパラメータcと出力するニュー
ロンを1にする傾向を示すパラメータdという2つの正
の値を保持させ、下式によって間接的にパラメータa、
bを求めることもできる。
In the present invention, the two eigenvalues held by the bond are the specific potential to be output and the specific frequency of outputting the potential, but they do not necessarily have to be these values directly. For example, the connection is made to hold two positive values, that is, a parameter c that shows a tendency to set the output neuron to 1 and a parameter d that shows a tendency to set the output neuron to 1.
It is also possible to obtain b.

【0044】(パラメータa)=(パラメータc)/
(パラメータd); (パラメータb)=(パラメータc)+(パラメータ
d); すなわち、間接的に特定の電位と頻度が求められるパラ
メータを結合が保持する限り、そのニューラルネットワ
ークは本発明と同値である。
(Parameter a) = (Parameter c) /
(Parameter d); (Parameter b) = (Parameter c) + (Parameter d); That is, the neural network has the same value as that of the present invention as long as the connection holds a parameter that indirectly determines a specific potential and frequency. is there.

【0045】なお、本発明で使用した1、0、−1など
の値は最も簡潔な値であり、ニューロンが3値の状態を
とるという本発明の基本原理に従う限り他の値でも同じ
効果を得ることができる。例えば、2、1、0の3値と
か、2、0、−2の3値を取るというのは、オフセット
を加えたり値を大きくしているだけで本質的には1、
0、−1と同様であると見ることができる。すなわち、
ニューロンの出力の値や正負の符号が異なっていても、
ニューロンが3値の状態をとるという本発明の基本原理
に従う限り、そのニューラルネットワークは本発明と同
値である。
The values of 1, 0, -1, etc. used in the present invention are the simplest values, and other values have the same effect as long as the basic principle of the present invention that the neuron takes a ternary state. Obtainable. For example, to take a ternary value of 2, 1, 0, or a ternary value of 2, 0, -2 is essentially 1, simply by adding an offset or increasing the value.
It can be seen to be similar to 0, -1. That is,
Even if the value of the output of the neuron and the sign of the positive and negative are different,
As long as the basic principle of the present invention that the neuron takes a ternary state, the neural network is equivalent to the present invention.

【0046】なお、本発明で使用した積算、加算、合計
という手法は、単純に2つの数値の積算を意味するもの
ではなく、数学的に同値となる演算を広く含む。
The method of multiplication, addition, and sum used in the present invention does not simply mean the accumulation of two numerical values, but includes a wide range of mathematically equivalent operations.

【0047】[0047]

【発明の効果】本発明は以上説明したように構成されて
いるので、以下に記載されるような効果を奏する。
Since the present invention is configured as described above, it has the following effects.

【0048】ニューラルネットワークはニューロンの状
態が−1、0、1の3値を取り得ることにより、例え
ば、 (現象の確率)=(ニューロンが1になる確率)/
(同、−1になる確率); (現象の確率の信頼度)=(ニューロンが0でない確
率); として表現することができ、現象の確率に加えてその確
率の信頼度をネットワーク上に表現することが可能とな
る。この能力により、例えば現象の安全率を予測するよ
うな場合にニューラルネットワークの予測がどの程度信
頼できるのかを判断することができ、予測の信頼度が低
い場合には人間が判断を代行したりあるいは特定の手段
を講じて予測を確かなものにするといったような臨機応
変な対応が実現できることになり、安全性および信頼性
の高いニューラルネットワークの利用が可能になる。
Since the state of the neuron can take three values of -1, 0, 1 in the neural network, for example, (probability of phenomenon) = (probability that neuron becomes 1) /
(Similarly, probability of becoming −1); (Probability of probability of phenomenon) = (Probability that neuron is not 0); and, in addition to probability of phenomenon, reliability of probability is expressed on the network. It becomes possible to do. With this ability, it is possible to judge how reliable the prediction of the neural network is, for example, in the case of predicting the safety factor of a phenomenon, and when the reliability of the prediction is low, a person can make a judgment or It is possible to implement a flexible response such as taking a certain measure to secure the prediction, and it becomes possible to use a neural network with high safety and reliability.

【図面の簡単な説明】[Brief description of drawings]

【図1】実施例のニューラルネットワークを示す図FIG. 1 is a diagram showing a neural network of an embodiment.

【図2】(a)は結合が生成するパルス信号の一例を示
す図 (b)はパラメータaが0のときの結合が生成するパル
ス信号の一例を示す図
FIG. 2A is a diagram showing an example of a pulse signal generated by the coupling. FIG. 2B is a diagram showing an example of a pulse signal generated by the coupling when the parameter a is 0.

【図3】ニューロンが入力するパルス信号の合計値の一
例を示す図
FIG. 3 is a diagram showing an example of a total value of pulse signals input to a neuron.

【図4】ニューロンが入力するパルス電位とニューロン
が1になる確率の関係の一例を示す図
FIG. 4 is a diagram showing an example of a relationship between a pulse potential input to a neuron and a probability that the neuron becomes 1.

【図5】ニューロンの状態の一例を示す図FIG. 5 is a diagram showing an example of neuron states.

【図6】ニューロンの学習段階における生データ数とパ
ラメータbの関係の一例を示す図
FIG. 6 is a diagram showing an example of the relationship between the number of raw data and the parameter b in the learning stage of neurons.

【図7】従来のニューラルネットワークの一例であるボ
ルツマンマシンの構成図
FIG. 7 is a block diagram of a Boltzmann machine that is an example of a conventional neural network.

【符号の説明】[Explanation of symbols]

N1 ニューロン N2 ニューロン N3 ニューロン W13 結合 W12 結合 W23 結合 N33 しきい値ニューロン W33 しきい値ニューロンの結合 N1 neuron N2 neuron N3 neuron W13 connection W12 connection W23 connection N33 threshold neuron W33 threshold neuron connection

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】入力パルス信号に応じて出力の値を確率的
に決定するニューロンと、ニューロンの出力をパルス信
号に変換しそのパルス信号を別のニューロンの入力とな
るように出力する結合を備え、 ニューロンの出力は、ニューロンが結合から入力する電
位に応じて1か0か−1の3つの値を取り得ることを特
徴とするニューラルネットワーク。
1. A neuron that stochastically determines an output value according to an input pulse signal, and a coupling that converts the output of the neuron into a pulse signal and outputs the pulse signal so as to be an input of another neuron. , A neural network characterized in that the output of the neuron can take three values of 1 or 0 or -1, depending on the potential input from the connection to the neuron.
【請求項2】結合は、その結合に出力を与える上流ニュ
ーロンの出力が1のとき、その結合が出力を与える下流
ニューロンに特定の電位を特定の頻度で出力として与
え、結合が下流ニューロンに与える前記の電位とその頻
度は、ニューラルネットワークを構成する結合それぞれ
の固有の値であることを特徴とする請求項1記載のニュ
ーラルネットワーク。
2. When the output of an upstream neuron that provides an output to the connection is 1, the connection provides a specific potential as an output to a downstream neuron that provides the output, and the connection provides the downstream neuron. 2. The neural network according to claim 1, wherein the potential and its frequency are unique values of each of the connections forming the neural network.
【請求項3】入力パルス信号に応じて出力の値を確率的
に決定するニューロンと、ニューロンの出力をパルス信
号に変換しそのパルス信号を別のニューロンの入力とな
るように出力する結合を備え、 結合は、その結合に出力を与える上流ニューロンの出力
が1のとき、その結合が出力を与える下流ニューロンに
特定の電位を特定の頻度で出力として与え、結合が下流
ニューロンに与える前記の電位とその頻度は、ニューラ
ルネットワークを構成する結合それぞれの固有の値であ
ることを特徴とするニューラルネットワーク。
3. A neuron that stochastically determines an output value according to an input pulse signal, and a coupling that converts the output of the neuron into a pulse signal and outputs the pulse signal so as to be an input of another neuron. , When the output of an upstream neuron that gives an output to the connection is 1, the connection gives a specific potential as an output to a downstream neuron which the output gives the output, and the potential given to the downstream neuron by the connection. Neural network characterized in that the frequency is a unique value of each of the connections that make up the neural network.
【請求項4】入力パルス信号に応じて出力の値を確率的
に決定するニューロンと、ニューロンの出力をパルス信
号に変換しそのパルス信号を別のニューロンの入力とな
るように出力する結合を備え、 結合は、その結合に出力を与える上流ニューロンの出力
が1のとき、その結合が出力を与える下流ニューロンに
特定の電位を特定の頻度で出力として与え、結合が下流
ニューロンに与える前記の電位とその頻度は、ニューラ
ルネットワークを構成する結合それぞれの固有の値であ
るニューラルネットワークの結合の学習方法であって、 前記結合固有の2つのパラメータすなわち前記特定の電
位を特定の頻度は、学習段階でニューロンの出力を複数
回、教師信号で拘束したときの、結合の両端の2つのニ
ューロンすなわち結合に入力する上流ニューロンと結合
がパルスを出力する下流ニューロンの出力の値によって
決定し、 出力する電位を決定するパラメータaは教師信号が上流
ニューロンの出力が1のとき下流ニューロンが1であっ
た確率と正の相関を持ち、出力の頻度を決定するパラメ
ータbは上流ニューロンと下流ニューロンが共に教師信
号で拘束される回数と正の相関を持つことを特徴とする
学習方法。
4. A neuron for probabilistically determining an output value according to an input pulse signal, and a coupling for converting the output of the neuron into a pulse signal and outputting the pulse signal so as to be an input of another neuron. , When the output of an upstream neuron that gives an output to the connection is 1, the connection gives a specific potential as an output to a downstream neuron which the output gives the output, and the potential given to the downstream neuron by the connection. The frequency is a learning method of the connection of the neural network, which is a unique value of each of the connections forming the neural network. When the output of is bound multiple times by the teacher signal, two neurons at both ends of the connection The parameter a, which determines the output potential of the downstream neuron whose pulse is output by the ron and the connection, and which has a positive correlation with the probability that the downstream neuron is 1 when the output of the upstream neuron is 1 as the teacher signal. And a parameter b that determines the frequency of output has a positive correlation with the number of times both upstream and downstream neurons are constrained by the teacher signal.
JP7011732A 1995-01-27 1995-01-27 Neural network and its learning method Pending JPH08202673A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7011732A JPH08202673A (en) 1995-01-27 1995-01-27 Neural network and its learning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7011732A JPH08202673A (en) 1995-01-27 1995-01-27 Neural network and its learning method

Publications (1)

Publication Number Publication Date
JPH08202673A true JPH08202673A (en) 1996-08-09

Family

ID=11786213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7011732A Pending JPH08202673A (en) 1995-01-27 1995-01-27 Neural network and its learning method

Country Status (1)

Country Link
JP (1) JPH08202673A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12061966B2 (en) 2015-03-20 2024-08-13 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Relevance score assignment for artificial neural networks

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12061966B2 (en) 2015-03-20 2024-08-13 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Relevance score assignment for artificial neural networks

Similar Documents

Publication Publication Date Title
Makarynskyy Improving wave predictions with artificial neural networks
Wu et al. Prediction of geomagnetic storms from solar wind data using Elman recurrent neural networks
Zhang et al. Time series prediction using RNN in multi-dimension embedding phase space
Weigend et al. Back-propagation, weight-elimination and time series prediction
Elsaeidy et al. Replay attack detection in smart cities using deep learning
Huang et al. Development of a regional neural network for coastal water level predictions
JP2017509952A (en) Monitoring a neural network with a shadow network
FR3087560A1 (en) PULSE RETROPAGATION OF ERRORS IN A PULSE NEURON NETWORK
Sugiartawan et al. Time series data prediction using elman recurrent neural network on tourist visits in tanah lot tourism object
WO2021237958A1 (en) Underwater acoustic target ranging method based on feature extraction and neural network
Van Komen et al. A CNN for range and seabed estimation on normalized and extracted time-series impulses
Kundu et al. Deep learning-based metamodeling technique for nonlinear seismic response quantification
RU2579958C1 (en) Artificial neuron
Lola et al. Improving the performance of ann-arima models for predicting water quality in the offshore area of kuala terengganu, terengganu, malaysia
CN110736980B (en) Method, device and system for monitoring state information of climbing frame
JPH08202673A (en) Neural network and its learning method
Pashova et al. Gap filling of daily sea levels by artificial neural networks
CN111783940A (en) Method for reducing fire false alarm rate based on GA-BP neural network algorithm
Kashani et al. Comparison of three intelligent techniques for runoff simulation
JPH08212184A (en) Recognition device and deficiency value estimating and learning method
Uysal et al. Monthly streamflow estimation using wavelet-artificial neural network model: a case study on Çamlıdere dam basin, Turkey
Barreto et al. A self-organizing NARX network and its application to prediction of chaotic time series
US20160070273A1 (en) Prevention of diseases via artificial soil exposure
Ghadampour et al. Using artificial neural network to forecast groundwater depth in union county well
Yu et al. A Deep Learning-Based Multi-model Ensemble Method for Hydrological Forecasting