JPH0458188A - Weather forecasting device - Google Patents

Weather forecasting device

Info

Publication number
JPH0458188A
JPH0458188A JP17097990A JP17097990A JPH0458188A JP H0458188 A JPH0458188 A JP H0458188A JP 17097990 A JP17097990 A JP 17097990A JP 17097990 A JP17097990 A JP 17097990A JP H0458188 A JPH0458188 A JP H0458188A
Authority
JP
Japan
Prior art keywords
weather
layer
weight
output
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP17097990A
Other languages
Japanese (ja)
Inventor
Koichi Furusawa
光一 古澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP17097990A priority Critical patent/JPH0458188A/en
Publication of JPH0458188A publication Critical patent/JPH0458188A/en
Pending legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)

Abstract

PURPOSE:To accurately forecast weather by using information regarding the actual weather as an expected value and varying the weight of a neural network so that the expected value is outputted when weather condition data at specific time are inputted to the neural network. CONSTITUTION:The neural network 3 receives data inputted from memories 21 - 24 at an input layer 31 and outputs them to an output layer 33 through an intermediate layer 32. Specific weight is given among those layers 31 - 33, and properly varied and adjusted to a specific value by a weight variation quantity computing element 34. For this weight variation and adjustment, the information regarding the actual weather is supplied from a rainfall sensor 15 to the weight variation quantity computing element 34. The information regarding the weather forecast by the neural network 3 is outputted from the output layer 33 to a display 4 and displayed.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は天気を予測することが可能な天気予測装置に関
する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a weather prediction device capable of predicting the weather.

〔従来の技術〕[Conventional technology]

天気予測装置は1例えば駅の構内等に配置されている。 The weather forecasting device is placed, for example, inside a station.

この従来の天気予測装置は、大気圧の変化を検出し、一
定時間後の天気を予測し1表示するものである。通常、
大気圧が上昇しているとき晴れが予測され、下降してい
るとき雨が予測される。
This conventional weather forecasting device detects changes in atmospheric pressure, predicts the weather after a certain period of time, and displays the forecast. usually,
When the atmospheric pressure is rising, sunny skies are predicted, and when it is falling, rain is predicted.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

しかしながら、従来の装置は、大気圧のみにより天気を
予測するようにしているため、予測の的中率をある一定
のレベル以上に向上させることができなかった。
However, since conventional devices predict the weather only based on atmospheric pressure, they have been unable to improve the accuracy of their predictions beyond a certain level.

本発明はこのような状況に鑑みてなされたもので、より
確実に天気を予測することができるようにするものであ
る。
The present invention has been made in view of this situation, and aims to make it possible to predict the weather more reliably.

〔課題を解決するための手段〕[Means to solve the problem]

本発明の天気予測装置は、入力層、中間層、出力層およ
び重み変更量演算器とを有するニューラルネットワーク
よりなる処理手段と、大気圧、気温、湿度等の気象条件
のうちの少なくとも1つを検出する検出手段と、検出手
段が検出した気象条件を記憶するとともに、処理手段の
入力層に出力する記憶手段と、実際の天気に関する情報
を処理手段の重み変更量演算器に供給する供給手段と、
処理手段の出力層より出力される天気予測情報を表示す
る表示手段とを備えることを特徴とする。
The weather prediction device of the present invention includes a processing means comprising a neural network having an input layer, an intermediate layer, an output layer, and a weight change amount calculator, and at least one of weather conditions such as atmospheric pressure, temperature, and humidity. A detection means for detecting, a storage means for storing weather conditions detected by the detection means and outputting them to an input layer of the processing means, and a supply means for supplying information regarding the actual weather to a weight change amount calculator of the processing means. ,
The apparatus is characterized by comprising display means for displaying weather forecast information output from the output layer of the processing means.

〔作用〕[Effect]

上記構成の天気予測装置においては、ニューラルネット
ワークに、実際の天気に関する情報が期待値として入力
される。そして、記憶手段に記憶されたデータのうち所
定のものが入力されたとき、その期待値が出力されるよ
うに重み変更量演算器により重みが変更される。従って
、この学習により正確な天気の予測が可能となる。
In the weather forecasting device configured as described above, information regarding actual weather is input to the neural network as an expected value. Then, when a predetermined data among the data stored in the storage means is input, the weight is changed by the weight change amount calculator so that the expected value thereof is output. Therefore, this learning enables accurate weather prediction.

〔実施例〕〔Example〕

第1図は本発明の天気予測装置の一実施例の構成を示す
ブロック図である。
FIG. 1 is a block diagram showing the configuration of an embodiment of the weather forecasting device of the present invention.

1は種々の気象条件を検出する検出手段としてのセンサ
であり、この実施例の場合、大気圧センサ11、温度セ
ンサ12、湿度センサ13およびその他のセンサ14に
より、大気圧、気温、湿度およびその他の気象条件がそ
れぞれ検出されるようになっている。これらセンサ11
乃至14の出力は、予測部2のメモリ21乃至24(記
憶手段)にそれぞれ供給され、記憶される。メモリ21
乃至24に記憶されたデータは、ニューラルネットワー
ク3に入力される。
Reference numeral 1 denotes a sensor as a detection means for detecting various weather conditions. In this embodiment, atmospheric pressure sensor 11, temperature sensor 12, humidity sensor 13, and other sensors 14 detect atmospheric pressure, temperature, humidity, and other conditions. weather conditions are now detected. These sensors 11
The outputs of 14 are supplied to the memories 21 to 24 (storage means) of the prediction unit 2, respectively, and stored therein. memory 21
The data stored in 24 are input to the neural network 3.

ニューラルネットワーク3は、メモリ21乃至24より
入力されたデータを入力層31で受け、中間層32を介
して出力層33に出力する。これら各層の間には、所定
の重みが付与されており、この重みは、重み変更量演算
器34により所定の値に適宜変更調整されるようになっ
ている。この重みの変更調整のため、降雨センサ15(
供給手段)より実際の天気に関する情報が重み変更量演
算器34に供給されるようになっている。
The neural network 3 receives data input from the memories 21 to 24 at an input layer 31, and outputs the data to an output layer 33 via an intermediate layer 32. A predetermined weight is assigned between each of these layers, and this weight is adjusted to a predetermined value as appropriate by the weight change amount calculator 34. To adjust this weight change, the rain sensor 15 (
Information regarding the actual weather is supplied to the weight change amount calculator 34 from the supply means (supplying means).

ニューラルネットワーク3により予測された天気に関す
る情報は、出力層33からデイスプレィ4に出力され、
表示される。この実施例においては、晴れ、曇りまたは
雨をそれぞれ表わす図形41乃至43のいずれかにより
、予測した天気が表示されるようになっている。
Information regarding the weather predicted by the neural network 3 is output from the output layer 33 to the display 4,
Is displayed. In this embodiment, the predicted weather is displayed using one of the graphics 41 to 43 representing sunny, cloudy, or rainy weather, respectively.

この表示は、例えば第2図に示すように、数字51によ
り降水確率として表示させることもできる。
This display can also be displayed as a probability of rain using the number 51, as shown in FIG. 2, for example.

次に、ニューラルネットワーク3についてさらに説明す
る。
Next, the neural network 3 will be further explained.

ニューラルネットワーク3は、第3図に示すように、第
1層から第り層までのL個の層により構成されている。
As shown in FIG. 3, the neural network 3 is composed of L layers from the first layer to the second layer.

第1層が入力層31、第り層が出力層33、第2層から
第(L−1)層までの層が中間層の32である。
The first layer is an input layer 31, the second layer is an output layer 33, and the layers from the second layer to the (L-1)th layer are intermediate layers 32.

第m層にはN(m)個(m=1.2.3・・・L)のニ
ューロン(@中丸印で示す)が配置され、第(m−1)
層の第1番目(i=1.2.3・・・N (1) )の
ニューロンと、第m層の第j番目のニューロンは、重み
Wij(m−1)(図中電気抵抗の図形で示す)で結合
されている。
N(m) (m=1.2.3...L) neurons (indicated by @ middle circle) are arranged in the m-th layer, and the (m-1)
The first neuron (i = 1.2.3...N (1)) in the layer and the jth neuron in the mth layer have weights Wij (m-1) (the electrical resistance diagram in the figure). ).

図における符号は、それぞれ次の意味を有する。The symbols in the figures have the following meanings.

xi:i番目の入力 dj:j番目の期待出力(j=1.2.3・・・N (
L) ) yj (m):第m層のj番目のニューロンの出力(j
=1.2.3・・・N(m) 第1層の出力関数は、第4図Aに示すように、yi (
1)=fl (xi)=xi i=1.2、・・・、N(1) で表わされる線形関数で、第1層以外の出方関数は、第
4図Bに示すように、 j=1.2、 ・ ・ ・、N(m) m=2、3、 ・ ・ ・、 L で表わされるシグモイド関数である。ここで、netj
(m)L;t、、第m 層のj番目のニューロンの入力
で、ニューラルネットワークの定義より、i=1.2、
・ ・ n、N  (m−1)j=1.2、・ ・ ・
、N(m) m=2、3、 ・ ・ ・ 、 L である。
xi: i-th input dj: j-th expected output (j=1.2.3...N (
L) ) yj (m): Output of the j-th neuron of the m-th layer (j
=1.2.3...N(m) The output function of the first layer is yi (
1)=fl (xi)=xi i=1.2,...,N(1) It is a linear function expressed by =1.2, . . ., N(m) m=2, 3, . . ., L It is a sigmoid function. Here, netj
(m) L; t,, Input of the jth neuron of the mth layer, i = 1.2 according to the definition of the neural network,
・ ・ n, N (m-1)j=1.2, ・ ・ ・
, N(m) m=2, 3, . . . , L.

入力xiとその入力から得られるべき期待出力djを、
ニューラルネットワークに提示すると、ニューラルネッ
トワークは、入力xiを現在のニューロン間の結合の重
みのままで処理し、出力yj  (L)に変換する。次
に、重み変更量演算器34は、この出力yj(L)と期
待出力djを比較して、両者の差を求めて、この差が小
さくなるように、ニューロン間の結合の重みを変更する
。34は、パックプロパゲーションでは、 j j=1. 2、 ・ ・ ・、N(L)で表わされる評
価関数Eが小さくなるように、ニューロン間の結合の重
みが変更される。
The input xi and the expected output dj that should be obtained from that input are
When presented to the neural network, the neural network processes the input xi with the current connection weights between neurons and transforms it into an output yj (L). Next, the weight change amount calculator 34 compares this output yj(L) with the expected output dj, finds the difference between the two, and changes the weight of the connection between neurons so that this difference becomes smaller. . 34, in pack propagation, j j=1. 2. The weights of connections between neurons are changed so that the evaluation function E represented by N(L) becomes smaller.

ここで、 a wij(m−1)   a netj(m)   
 a wij(m−1)=−dj(m) ・yi(m−
1) i=1.2、 ・・・ 、N(m−1)j=1.2、 
・ ・ ・、N(m) m、 = 2、3、 ・ ・ ・ 、 Lと定義する場
合、第(m−1)層のi番目のニューロンと第m層のj
番目のニューロンの結合の重みwij(m  1)の修
正量Δwij  (m−1)を、 Δwij(m−1)=c・dj (m)・yi(m−1
)とすれば、現在のニューロン間の結合の重みwij(
m−1)にその修正量Δwij(m−1)を加えて、新
たなニューロン間の結合の重みwij(m−1)に修正
することにより、評価関数Eを最少にすることができる
Here, a wij(m-1) a netj(m)
a wij(m-1)=-dj(m) ・yi(m-
1) i=1.2, ... , N(m-1)j=1.2,
・ ・ ・, N(m) m, = 2, 3, ・ ・ , When defined as L, the i-th neuron of the (m-1)th layer and the j of the m-th layer
The correction amount Δwij (m-1) of the connection weight wij (m 1) of the th neuron is expressed as Δwij (m-1)=c・dj (m)・yi(m-1
), then the weight of the current connection between neurons wij(
The evaluation function E can be minimized by adding the correction amount Δwij(m-1) to m-1) and correcting it to a new weight of connection between neurons wij(m-1).

wij(m−1)(t+1)”wij(m  1)(t
)+Δwij(m  1)(t) 1=0、1、 ・ ・ ・ 但し、Cは学習パラメータ、dj (m)は誤差、tは
離散時間である。この場合、学習が1回終了するごとに
tは1ずつ増加する。
wij(m-1)(t+1)”wij(m 1)(t
)+Δwij(m 1)(t) 1=0, 1, . . . where C is a learning parameter, dj (m) is an error, and t is a discrete time. In this case, t increases by 1 each time learning is completed.

第り層の場合、誤差δj (L)は、 a E         a E     a yi(
L)=  (dj−yi(L) ・f2’  (net
j(L))j=1.2、 ・ ・ ・、N  (L)と
なる。又、第り層以外の場合、誤差δj  (m)は、 K    a netk(+++1)    a yi
(m)・f 2’ (netj(+++)) m=2、3、 ・ ・ ・ 、 L である。
In the case of the second layer, the error δj (L) is a E a E a yi (
L) = (dj-yi(L) ・f2' (net
j(L))j=1.2, . . ., N (L). In addition, in cases other than the th layer, the error δj (m) is Ka netk (+++1) a yi
(m)・f 2' (netj(+++)) m=2, 3, . . . , L.

ニューラルネットワークの場合、自己学習が可能である
。次にこの手順を、パックプロパゲーションの学習アル
ゴリズムに従って説明する。
In the case of neural networks, self-learning is possible. Next, this procedure will be explained according to the pack propagation learning algorithm.

(1)入力層に入力xiを入力する。(1) Input xi to the input layer.

(2)入力xiに対する出力を、入力層31から出力層
33まで順次計算し、最終出力yj(L)を得る。
(2) Calculate the output for the input xi sequentially from the input layer 31 to the output layer 33 to obtain the final output yj(L).

yi(1)=f 1(xi) i=1.2、・・・、N(1) j=1.2.  ・ ・ ・、N  (m)k=1、2
.  ・ ・ +、N  (m+1)m=2、3. ・
 ・ ・ 、 L−1となる。ここで、出力関数はシグ
モイド関数であるので、 f2’ (natj(m))=f2(netj(m))
・(1−f2(netj(m)))j=1.2、 ・ 
・ ・、N  (m)yj  (m)=f2  (ne
tj  (m))i = 1、2.−−− 、N(m−
1)j=1.2、 ・ ・ ・、N  (m)m = 
2、3. ・ ・ ・ 、 N(3)出力層33に期待
出力djを提示する。
yi(1)=f 1(xi) i=1.2,..., N(1) j=1.2.・ ・ ・, N (m) k=1, 2
..・ ・ +, N (m+1)m=2, 3.・
・ ・ , becomes L-1. Here, since the output function is a sigmoid function, f2' (natj(m)) = f2(netj(m))
・(1-f2(netj(m)))j=1.2, ・
・ , N (m)yj (m)=f2 (ne
tj (m))i = 1, 2. --- , N(m-
1) j=1.2, ・ ・ , N (m)m =
2, 3. . . . , N(3) Present the expected output dj to the output layer 33.

(4)期待出力diと出力yj(L)より、第り層の誤
差δj (L)を求め、出力層33への結合の重みwi
j(L−1)を修正する。
(4) From the expected output di and output yj (L), calculate the error δj (L) of the second layer, and calculate the weight wi of the connection to the output layer 33.
Modify j(L-1).

δj (L) = (dj−yj (L) )・f 2
’ (netj (L) )Δwij(L−1)= c
 ・δj(L) ・yi(L−1)wij(L−1) 
(t+1)=vij(L−1)(t)十Δwij(L−
1)(t)i=1.2.・・・、N (L−1) j=1.2、・・・、N (L) 1=0.1、・・・ 但し、Cは学習パラメータ、tは離散時間である。
δj (L) = (dj−yj (L))・f 2
'(netj (L))Δwij(L-1)=c
・δj(L) ・yi(L-1)wij(L-1)
(t+1)=vij(L-1)(t) Δwij(L-
1)(t)i=1.2. ..., N (L-1) j=1.2, ..., N (L) 1=0.1, ..., where C is a learning parameter and t is a discrete time.

(5)第(n+1)層の誤差δk(m+1)より、第m
層の誤差δj(m)を求め、第m層への結合の重みwi
j  (m−1)を修正する。
(5) From the error δk(m+1) of the (n+1)th layer, the mth
Find the error δj(m) of the layer, and calculate the weight wi of the connection to the mth layer.
Modify j (m-1).

Δvij(m−1) = c・δj (m)・yi(票
−1)wij(m−1) (t 41) =wij(m
−1) (t)十Δwij(m−1)(t)i=1.2
、・・・、N(m−1) j=1.2、 ・ ・ ・、N(m) k=1.2、・・・、N  (m + 1 )m==2
、3、 ・ ・ ・、 L−1但し、第1層の誤差δj
  (m)の算出時には、修正する前の重みwjk(m
)を使用する。
Δvij (m-1) = c・δj (m)・yi (votes-1) wij (m-1) (t 41) = wij (m
-1) (t) Δwij (m-1) (t) i=1.2
,...,N(m-1) j=1.2, . . .,N(m) k=1.2,...,N(m+1)m==2
, 3, ・ ・ , L−1 However, the error δj of the first layer
When calculating (m), the weight wjk(m
).

(6)評価関数Eが適当な値になるまで、上記(1)の
処理へ戻って、ニューロン間の重みの修正を繰り返す。
(6) Return to the process in (1) above and repeat the correction of the weights between neurons until the evaluation function E reaches an appropriate value.

評価関数Eが適当な値になった時点で、入力xiと期待
出力djのパターンを変えて、これらの手順を繰り返す
When the evaluation function E reaches an appropriate value, the patterns of the input xi and expected output dj are changed and these steps are repeated.

さらにこの学習機構の動作を、第5図を参照して詳述す
る。但し、第4図に示す様に、第1層のニューロンの出
力関数は、 yi(1)=f 1(xi)=xi i=1.2、・・・、 N (1) で表わされる線形関数で、第1層以外の出力関数は、 j=1.2、 ・ ・ ・、N(m) 1=2、3. ・ ・ ・、 L で表わされるシグモイド関数である。
Further, the operation of this learning mechanism will be explained in detail with reference to FIG. However, as shown in Figure 4, the output function of the neurons in the first layer is a linear function expressed as yi (1) = f 1 (xi) = xi i = 1.2, ..., N (1) The output functions other than the first layer are: j=1.2, . . ., N(m) 1=2, 3. . . . is a sigmoid function represented by L.

(1)このニューロンA、Bに入力x1、x2を入力す
ると、出力関数を介して、ニューロンA、 Bからは出
力yl (1)、y2 (1)が出力される。
(1) When inputs x1 and x2 are input to neurons A and B, outputs yl (1) and y2 (1) are output from neurons A and B via the output function.

y 1 (1) =f I Cx 1)y2 (1)=
f1 (χ1) (2)ニューロンCには、ニューロンA、Bの出力力y
1、y2にそれぞれの結合の重みWll、W21 (1
)が乗じられて、それらの和entl(2)が入力され
る。同様に、ニューロンDには、ニューロンA、Bの出
力y1、y2にそれぞれの結合の重みW12 (1) 
、W22 (1)を乗じた値の和net2(2)が入力
される。
y 1 (1) = f I Cx 1) y2 (1) =
f1 (χ1) (2) Neuron C has the output power y of neurons A and B.
1, y2 are the respective connection weights Wll, W21 (1
), and their sum entl(2) is input. Similarly, neuron D has a connection weight W12 (1) for the outputs y1 and y2 of neurons A and B, respectively.
, W22 (1), the sum of the values net2 (2) is input.

netl(2)”=yl(1)・Wll(1)+y2(
1)・W21(1) ne t 2(2)=y 1(1)・W12(1)+y
2(1)・W22(1) ニューロンC,Dは、入力netl(2)、net2(
2)を、出力関数で処理して、出力y 1 (2)。
netl(2)”=yl(1)・Wll(1)+y2(
1)・W21(1) net 2(2)=y 1(1)・W12(1)+y
2(1)・W22(1) Neurons C and D have inputs netl(2) and net2(
2) is processed with an output function to produce an output y 1 (2).

y2(2)を出力する。Output y2(2).

y 1(2) =f 2 (n e t 1(2) )
 )y 2(2) =f 2 (n e t 1(2)
 ) )(3)ニューロンEには、ニューロンC,Dの
出力yl(2)、y2(2)にそれぞれの結合の重みW
ll(2)、W21  (2)を乗じた値の和netl
(3)が入力される。
y 1(2) = f 2 (net 1(2))
) y 2 (2) = f 2 (net 1 (2)
) ) (3) For neuron E, the outputs yl(2) and y2(2) of neurons C and D have respective connection weights W.
The sum of the values multiplied by ll(2) and W21(2) netl
(3) is input.

n e t 1(3)=y 1(2)・Wll(2)+
y2(2)・W21(2) ニューロンEは、入力n e t 1(3)を出力関数
で処理して、出力yl(3)を出力する。
net 1(3)=y 1(2)・Wll(2)+
y2(2)/W21(2) Neuron E processes input net 1(3) with an output function and outputs output yl(3).

y 1(3)=f 2(n e t 1(3))(4)
重み変更量演算器DIは、第3層の出力y1(3)と期
待出力d1から、ニューロンEの誤差δ1(3)を算出
する。
y 1 (3) = f 2 (net 1 (3)) (4)
The weight change amount calculator DI calculates the error δ1(3) of the neuron E from the output y1(3) of the third layer and the expected output d1.

δ1(3)=(d 1  y 1(3))  ・f 2
(n e t 1(3)) ” (1−f 2(n e
 t 1 (3))その誤差δ1(3)とニューロンC
の出力y1(2)から、ニューロンC,El’1lfi
の結合の重みの修正量ΔWll(2)が算出される。
δ1(3)=(d 1 y 1(3)) ・f 2
(net 1(3)) ” (1-f 2(ne
t 1 (3)) its error δ1 (3) and neuron C
From the output y1(2), neuron C, El'1lfi
A correction amount ΔWll(2) of the connection weight is calculated.

ΔWll  (2)=C・δ1 (3)・yl(2)但
し、Cは学習パラメータである。そして、その重みの修
正量ΔWll(3)をその結合の重みWll(2)に加
算し、重みWll(2)を新たな重みに修正する。
ΔWll (2)=C·δ1 (3)·yl(2) However, C is a learning parameter. Then, the weight correction amount ΔWll(3) is added to the weight Wll(2) of the connection, and the weight Wll(2) is corrected to a new weight.

Wl 1(2)(t+1)=W11(2)(t)+ΔW
l 1(2)(t) t=o、  l  ・ ・ ・ 但し、tは離散時間である。
Wl 1(2)(t+1)=W11(2)(t)+ΔW
l 1(2)(t) t=o, l ・ ・ ・ However, t is a discrete time.

(5)重み変更量演算器D2も、同様に、ニューロンD
、E間の結合の重みの修正量ΔW21 (2)を算出す
る。
(5) Similarly, the weight change amount calculation unit D2 also uses the neuron D.
, the correction amount ΔW21 (2) of the weight of the connection between E.

ΔW21  (2)=C・δ1 (3)・y2(2)そ
して、その結合の重みの修正量ΔW21 (2)をその
結合の重みW21 (2)に加算し、重み21(2)を
新たな重みに修正する。
ΔW21 (2) = C・δ1 (3)・y2(2) Then, add the correction amount ΔW21 (2) of the weight of that connection to the weight W21 (2) of that connection, and change the weight 21 (2) to the new weight. Modify the weight.

ΔW21(2)(t+1)=W21(2)(t)+ΔW
21(2)(t) (6)重み変更量演算器D3は、重み変更量演算器D1
で算出したニューロンEの誤差δ1(3)と、ニューロ
ンC,E間の結合の重みWll(2)から、ニューロン
Cの誤差δ1 (2)を算出する。
ΔW21(2)(t+1)=W21(2)(t)+ΔW
21(2)(t) (6) The weight change amount calculator D3 is the weight change amount calculator D1
The error δ1(2) of the neuron C is calculated from the error δ1(3) of the neuron E calculated in step 1 and the weight Wll(2) of the connection between the neurons C and E.

δ1(2)=61 (3) ・Wl 1 (2) ・f
 2(n etl(2))” (1−f 2(n e 
t 1(2))但し、この時には、修正する前の重みW
ll(2)を使用する。その誤差δ1(2)と、ニュー
ロンA、Bの出力yl(1)、y2(1)から、ニュー
ロンA、C間の結合の重みの修正量ΔW21(1)と、
ニューロンB、C間の結合の重みの修正量ΔW21(1
)が算出される。
δ1(2)=61 (3) ・Wl 1 (2) ・f
2(n etl(2))” (1-f 2(n e
t 1 (2)) However, at this time, the weight W before correction
Use ll(2). From the error δ1(2) and the outputs yl(1) and y2(1) of the neurons A and B, the correction amount ΔW21(1) of the weight of the connection between the neurons A and C,
The amount of correction ΔW21 (1
) is calculated.

ΔWll(1)=C・δ1(2)・yl(1)ΔW21
(1)=C・δ1(2)・y2(1)そして、それらの
結合の重みの修正量ΔW11(1)、ΔW21(1)を
それらの結合の重みWll(1)、W21(1)に加算
し、重みWl 1(1)、W21(1)を新たな重みに
修正する。
ΔWll(1)=C・δ1(2)・yl(1)ΔW21
(1)=C・δ1(2)・y2(1) Then, change the weight correction amounts ΔW11(1) and ΔW21(1) of those connections to the weights Wll(1) and W21(1) of those connections. and modify the weights Wl 1 (1) and W21 (1) to new weights.

wi 1(1)(t+1)=wl 1(1)(t)十Δ
Wl 1(1)(t) W21(1)(t+1)=W2B1)(t)+ΔW21
(1)(t) (7)重み変更量演算器D4は、重み変更量演算器D2
で算出したニューロンEの誤差δ1(3)と、ニューロ
ンD、E間の結合の重みW21(2)から、ニューロン
Dの誤差δ2(2)を算出する。
wi 1 (1) (t+1) = wl 1 (1) (t) ten Δ
Wl 1(1)(t) W21(1)(t+1)=W2B1)(t)+ΔW21
(1) (t) (7) The weight change amount calculator D4 is the weight change amount calculator D2.
The error δ2(2) of the neuron D is calculated from the error δ1(3) of the neuron E calculated in the above and the weight W21(2) of the connection between the neurons D and E.

δ2 (2)=61(3)・W21(2)・f2(ne
t 2(2)) ・(1−f 2(n e t 2(2
))但し、この時、修正する前の重みW21(2)が使
用される。その誤差δ2(2)と、ニューロンA、Bの
出力yl(1)、y2(1)から、ニューロンA、0間
の結合の重みの修正量ΔW12(1)と、ニューロンB
、D間の結合の重みの修正量ΔW22(1)が算出され
る。
δ2 (2)=61(3)・W21(2)・f2(ne
t 2(2)) ・(1-f 2(net 2(2)
)) However, at this time, the weight W21(2) before modification is used. From the error δ2(2) and the outputs yl(1) and y2(1) of neurons A and B, the correction amount ΔW12(1) of the connection weight between neurons A and 0 and neuron B
, D is calculated.

ΔW12(1)=C・δ2(2)・yl(1)ΔW22
(1)=C・δ2(2)・y 2(1)そして、それら
の結合の重みの修正量ΔW12(1)、ΔW22(1)
をそれらの結合の重みWl2(1)、W22(1)に加
算し、重みWl 2(1)、W22(1)を新たな重み
に修正する。
ΔW12(1)=C・δ2(2)・yl(1)ΔW22
(1)=C・δ2(2)・y2(1) And the amount of modification of the weight of those connections ΔW12(1), ΔW22(1)
is added to the weights Wl2(1) and W22(1) of those connections, and the weights Wl2(1) and W22(1) are modified to new weights.

Wl 2B)(t+1)=W12(1)(t)+ΔW1
2(1)(t) W22(1)D+1)=W22(1)(t)+ΔW22
(1)(t) これらの学習処理が繰り返されることにより、出力yl
(3)は期待出力d1に修正されて行く。
Wl 2B)(t+1)=W12(1)(t)+ΔW1
2(1)(t) W22(1)D+1)=W22(1)(t)+ΔW22
(1) (t) By repeating these learning processes, the output yl
(3) is corrected to the expected output d1.

このようにして、ニューラルネットワークは、自己学習
することにより、入カバターンを出カバターンに変換す
るパターン変換装置としての機能を獲得することが可能
である。
In this way, by self-learning, the neural network can acquire the function of a pattern conversion device that converts an input pattern into an output pattern.

第1図におけるメモリ21乃至24には、センサ11乃
至14が所定時間だけ前に検出したデータが記憶されて
いる。そこで、降爾センサ15が出力する実際の天気情
報を上記した期待値として重み変更量演算器34に入力
するとともに、この実際の天気情報が発生したとき(雨
が降ったとき)から1例えば1時間前のデータを、メモ
リ21乃至24から読出し、重み変更量演算器34に入
力し、自己学習させると、1時間後の天気を予測するの
に適するように重みが補正される。これにより、1時間
後の天気を予測する予測装置を実現することができる。
The memories 21 to 24 in FIG. 1 store data detected by the sensors 11 to 14 a predetermined time ago. Therefore, the actual weather information outputted by the precipitation sensor 15 is input to the weight change amount calculator 34 as the above-mentioned expected value, and at the same time, from the time when this actual weather information occurs (when it rains), 1, for example, 1 When data from the previous hour is read from the memories 21 to 24 and input to the weight change amount calculator 34 for self-learning, the weights are corrected to be suitable for predicting the weather one hour later. This makes it possible to realize a prediction device that predicts the weather one hour later.

勿論、この時間は、2時間、8時間、24時間、1週間
等、任意の値に設定することができる。
Of course, this time can be set to any value such as 2 hours, 8 hours, 24 hours, or one week.

〔発明の効果〕〔Effect of the invention〕

以上のように、本発明の天気予測装置によれば、実際の
天気に関する情報を期待値とし、記憶手段に記憶されて
いる所定の時刻における気象条件データがニューラルネ
ットワークに入力されたとき。
As described above, according to the weather prediction device of the present invention, when information regarding actual weather is used as an expected value and weather condition data at a predetermined time stored in the storage means is input to the neural network.

その期待値が出力されるように、重み変更量演算器によ
りニューラルネットワークの重みを変更するようにした
ので、この学習により、任意の時間だけ後の天気を、正
確に予測することが可能になる。
In order to output the expected value, we changed the weight of the neural network using the weight change amount calculator, so this learning makes it possible to accurately predict the weather after an arbitrary amount of time. .

【図面の簡単な説明】[Brief explanation of the drawing]

第1@は本発明の天気予測装置の一実施例の構成を示す
ブロック図、第2図はデイスプレィの表示の説明図、第
3図はニューラルネットワークの構成を示す図、第4図
A、Bは、ニューラルネットワークにおける入力層と入
力層以外の層の出力関数の特性図、第5図はニューラル
ネットワークの自己学習機能を説明する図である。 1・・・センサ(検出手段)、3・・・ニューラルネッ
トワーク(処理手段)、4、デイスプレィ(表示手段)
、15・・・降雨センサ(供給手段)、21乃至24・
・・メモリ(記憶手段)、31・・・入力層、32・・
・中間層、33・・・出力層、34・・・重み変更量演
算器。 特許出願人  オムロン株式会社
Figure 1 @ is a block diagram showing the configuration of an embodiment of the weather forecasting device of the present invention, Figure 2 is an explanatory diagram of the display display, Figure 3 is a diagram showing the configuration of the neural network, and Figures 4A and B. 5 is a characteristic diagram of the output functions of the input layer and layers other than the input layer in the neural network, and FIG. 5 is a diagram explaining the self-learning function of the neural network. 1...Sensor (detection means), 3...Neural network (processing means), 4.Display (display means)
, 15... Rainfall sensor (supply means), 21 to 24.
...Memory (storage means), 31...Input layer, 32...
- Middle layer, 33... Output layer, 34... Weight change amount calculator. Patent applicant OMRON Corporation

Claims (1)

【特許請求の範囲】 入力層、中間層、出力層および重み変更量演算器とを有
するニューラルネットワークよりなる処理手段と、 気圧、気温、湿度等の気象条件のうちの少なくとも1つ
を検出する検出手段と、 前記検出手段が検出した前記気象条件を記憶するととも
に、前記処理手段の入力層に出力する記憶手段と、 実際の天気に関する情報を前記処理手段の重み変更量演
算器に供給する供給手段と、 前記処理手段の出力層より出力される天気予測情報を表
示する表示手段とを備えることを特徴とする天気予測装
置。
[Claims] Processing means comprising a neural network having an input layer, an intermediate layer, an output layer, and a weight change amount calculator, and a detection device for detecting at least one of weather conditions such as atmospheric pressure, temperature, and humidity. means for storing the weather conditions detected by the detecting means and outputting them to an input layer of the processing means; and supply means for supplying information regarding the actual weather to the weight change amount calculator of the processing means. A weather prediction device comprising: and display means for displaying weather prediction information output from the output layer of the processing means.
JP17097990A 1990-06-27 1990-06-27 Weather forecasting device Pending JPH0458188A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17097990A JPH0458188A (en) 1990-06-27 1990-06-27 Weather forecasting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17097990A JPH0458188A (en) 1990-06-27 1990-06-27 Weather forecasting device

Publications (1)

Publication Number Publication Date
JPH0458188A true JPH0458188A (en) 1992-02-25

Family

ID=15914890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17097990A Pending JPH0458188A (en) 1990-06-27 1990-06-27 Weather forecasting device

Country Status (1)

Country Link
JP (1) JPH0458188A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5406481A (en) * 1993-06-30 1995-04-11 Nippon Telegraph And Telephone Corporation Rainfall, snowfall forecast apparatus and method
JPH0814627A (en) * 1994-06-28 1996-01-19 Nec Eng Ltd Predicted data forming system and heat load predicting apparatus using the same
CN102495937A (en) * 2011-10-18 2012-06-13 南京信息工程大学 Prediction method based on time sequence

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5406481A (en) * 1993-06-30 1995-04-11 Nippon Telegraph And Telephone Corporation Rainfall, snowfall forecast apparatus and method
JPH0814627A (en) * 1994-06-28 1996-01-19 Nec Eng Ltd Predicted data forming system and heat load predicting apparatus using the same
CN102495937A (en) * 2011-10-18 2012-06-13 南京信息工程大学 Prediction method based on time sequence

Similar Documents

Publication Publication Date Title
WO2021068528A1 (en) Attention weight calculation method and apparatus based on convolutional neural network, and device
Chen et al. Accelerator-friendly neural-network training: Learning variations and defects in RRAM crossbar
EP3822905A1 (en) Method and device for predicting thermal load of electrical system
Ahmad et al. Hourly global solar irradiation forecasting for New Zealand
CN111091196B (en) Passenger flow data determination method and device, computer equipment and storage medium
Hontoria et al. Generation of hourly irradiation synthetic series using the neural network multilayer perceptron
CN109816008A (en) A kind of astronomical big data light curve predicting abnormality method based on shot and long term memory network
CN108764568B (en) Data prediction model tuning method and device based on LSTM network
CN109902862A (en) A kind of time series forecasting system of time of fusion attention mechanism
Schintler et al. Neural networks as adaptive logit models
CN110533173B (en) Multi-level attention network-based storage grain pile temperature prediction method and device
CN114065653A (en) Construction method of power load prediction model and power load prediction method
CN113139605A (en) Power load prediction method based on principal component analysis and LSTM neural network
CN115115416A (en) Commodity sales forecasting method
CN114723188A (en) Water quality prediction method, device, computer equipment and storage medium
US11461640B2 (en) Mitigation of conductance drift in neural network resistive processing units
JPH0458188A (en) Weather forecasting device
Gao et al. Neural networks for event extraction from time series: a back propagation algorithm approach
CN117273217A (en) Space debris track forecasting method and system and electronic equipment
Sineglazov et al. An algorithm for solving the problem of forecasting
CN116960962A (en) Mid-long term area load prediction method for cross-area data fusion
CN106067075B (en) Building energy load prediction model building and load prediction method and device
KR20210122354A (en) Neural network computing device including on-device quantizer, operating method of neural network computing device, and computing device including neural network computing device
US20220122349A1 (en) Learning device, learning method and program
CN115758862A (en) Device calibration method, device, computer device and computer-readable storage medium