JPH04205163A - Neural network, its remembering or learning method, and fuzzy inference device using the same - Google Patents

Neural network, its remembering or learning method, and fuzzy inference device using the same

Info

Publication number
JPH04205163A
JPH04205163A JP2329138A JP32913890A JPH04205163A JP H04205163 A JPH04205163 A JP H04205163A JP 2329138 A JP2329138 A JP 2329138A JP 32913890 A JP32913890 A JP 32913890A JP H04205163 A JPH04205163 A JP H04205163A
Authority
JP
Japan
Prior art keywords
neural network
information
qualitative evaluation
value
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2329138A
Other languages
Japanese (ja)
Other versions
JP2609760B2 (en
Inventor
Haruki Inoue
春樹 井上
Kenichi Nakamura
中村 兼一
Keiji Oshima
大島 啓二
Masakazu Yahiro
八尋 正和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Engineering Co Ltd
Hitachi Ltd
Original Assignee
Hitachi Engineering Co Ltd
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Engineering Co Ltd, Hitachi Ltd filed Critical Hitachi Engineering Co Ltd
Priority to JP2329138A priority Critical patent/JP2609760B2/en
Priority to US07/797,534 priority patent/US5402519A/en
Priority to EP91120155A priority patent/EP0488150B1/en
Priority to DE69132003T priority patent/DE69132003T2/en
Priority to KR1019910021293A priority patent/KR100243353B1/en
Publication of JPH04205163A publication Critical patent/JPH04205163A/en
Application granted granted Critical
Publication of JP2609760B2 publication Critical patent/JP2609760B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To obtain the fuzzy inference device which is applicable to the prediction, diagnosis, control, etc., of a process and further stable and highly accurate by providing a fuzzy qualitative evaluating means which evaluates input information qualitatively and supplying >=1 qualitative evaluated value to an input layer for each piece of input information. CONSTITUTION:A 1st fuzzy qualitative evaluating means 2 after evaluating the input information qualitatively with a membership function determined by experimental knowledge and normalizing a dynamic range inputs the result to the input layer of the neural network 3. A 2nd fuzzy qualitative evaluating means 4 performs a quantizing process by using the output value of the neural network 3 as the qualitative evaluated value of the experimentally determined membership function. Consequently, even input information having large nonlinearity or much indeterminateness can accurately be evaluated. Further, the information can be normalized to a specific range, so even input information having different property makes learning and remembering stable and highly accurate.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明はニューラルネットワークに係り、特に、不確定
要素の大きいあるいは非線形性の強い対象に好適なニュ
ーラルネットワークの学習および想起方式に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to neural networks, and particularly to a neural network learning and recall method suitable for objects with large uncertainties or strong nonlinearity.

〔従来の技術〕[Conventional technology]

ニューラルネットワークは情報処理システムにおいて、
特に画像や音声等のパターン認識処理を複雑なアルゴリ
ズムを用いることなく、パターンを学習することで可能
にしている。ニューラルネットの学習は、学習させたい
パターンを入力しニューラルネットの想起出力と教師信
号の誤差を小さくするようにニューラルネットの結合を
修正しこれを反復することによって、ニューラルネット
が指定した動作をおこなうようにするものである。
Neural networks are used in information processing systems.
In particular, it enables pattern recognition processing of images, sounds, etc. by learning patterns without using complex algorithms. When training a neural network, input the pattern you want to learn, modify the connections of the neural network to reduce the error between the neural network's recall output and the teacher signal, and repeat this process so that the neural network performs the specified action. It is intended to do so.

このニューラルネットの構成と動作については、例えば
「パターン認識と学習のアルゴリズム」(上坂吉則/尾
関和彦著;文−総合出版)に解説されている。
The structure and operation of this neural network are explained, for example, in ``Pattern Recognition and Learning Algorithms'' (written by Yoshinori Uesaka and Kazuhiko Ozeki; published by Bun-Sogo Publishing).

ニューラルネットワークを実装置に応用するうえでの重
要な課題の一つは、入力信号の種々のタイプに対しその
特徴に反応して学習、想起し、学習パターンとは異なる
類似または同質の入カバターンに対しても適応性を得ら
れるようにすることである。
One of the important challenges in applying neural networks to real devices is learning and recalling various types of input signals in response to their characteristics, and learning similar or homogeneous input patterns that are different from the learned patterns. The goal is to be adaptable even to other people.

例えば、音声は同じ単語のパターンであっても発生の度
、あるいは話者によってその継続時間長が異なるため、
入力に工夫が必要となる。この対策として特開平1−2
41667号公報には、未知音声データの発生時間長の
変動を時間軸の動的な正規化をおこなうことによって、
同じ単語を同一と認識できるニューラルネットの学習を
おこなうことが記載されている。
For example, even if speech is the same word pattern, its duration differs each time it occurs or depending on the speaker.
You will need to be creative with your input. As a countermeasure to this problem, JP-A-1-2
Publication No. 41667 discloses that by dynamically normalizing the time axis, fluctuations in the generation time length of unknown audio data are
It describes training a neural network that can recognize the same words as the same.

また、特開平2−98770号公報には、入カバターン
をガウスフィルタによって非線形処理することによって
、入カバターンに特異的に反応する多層のニューラルネ
ットの学習方式が記載されている。
Further, Japanese Patent Laid-Open No. 2-98770 describes a learning method for a multilayer neural network that specifically responds to input patterns by nonlinearly processing the input patterns using a Gaussian filter.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

上記の従来技術は入力情報が音声や画像信号のように同
質、あるいは強い相関がある場合には良好な結果の得ら
れることが多い。しかし、さまざまな種類のプロセス量
が入カバターンとなるプロセスの制御や診断等にニュー
ラルネットワークを応用しようとする場合には学習時に
振動9発振を生じて安定な収束ができないことが多く、
実用化には困難があった。
The above-mentioned conventional techniques often provide good results when the input information is of the same quality, such as audio or image signals, or has a strong correlation. However, when trying to apply neural networks to control or diagnosis of processes where various types of process variables are input, oscillations occur during learning and stable convergence is often not possible.
There were difficulties in putting it into practical use.

たとえば、道路用トンネル内の汚染予測においては、走
行車両の台数と自然風といった全く異質の情報が入力の
一部となる。前者は単位〔台15分〕として0〜200
のレンジを有し、後者は単位が(m/秒〕で−5〜+5
のレンジを有している。前者の汚染値に対する影響は極
めて非線形で、0〜10〔台15分〕では殆ど影響がな
く、30〜70[台15分]では影響度は顕著になって
線形に近づき、70(台15分〕以上では再び鈍化する
。しかも大量の排煙をまき散らす大型トラックなどが走
行すると非線形性は極端なものとなる。
For example, when predicting pollution inside a road tunnel, completely different information such as the number of vehicles traveling and natural wind are part of the input. The former is 0 to 200 in units of 15 minutes.
The latter has a range of -5 to +5 in m/s.
It has a range of The influence of the former on the pollution value is extremely non-linear, with almost no effect from 0 to 10 [15 minutes for cars], the degree of influence becomes significant and approaches linear from 30 to 70 [15 minutes for cars], and from 70 (15 minutes for cars) ] Above this, the speed slows down again.Moreover, the nonlinearity becomes extreme when a large truck or the like that releases a large amount of smoke is running.

一方、後者は汚染値に対しては比較的−様な影響を与え
レンジも狭い。
On the other hand, the latter has a relatively negative influence on the contamination value and has a narrow range.

このように入力情報が様々なダイナミックレンジを有し
かつ不確定要素や非線形要素が大きい場合には、複数の
入力情報をニューラルネットにそのまま与えると、各情
報の特徴抽出が困難となって学習を収束しない。しかも
、上記従来技術のように入力情報を特定のフィルタで非
線形処理できる対象は限られていて、特徴抽出のための
明確な手段をもたない場合が多い。
In this way, when the input information has various dynamic ranges and large uncertainties and nonlinear elements, if multiple pieces of input information are fed directly to the neural network, it will be difficult to extract the features of each piece of information, making it difficult to learn. Does not converge. Moreover, as in the prior art described above, there are only a limited number of objects for which input information can be subjected to nonlinear processing using a specific filter, and there are often no clear means for extracting features.

さらに、プロセス制御等ではニューラルネットの想起出
力をクリスプな値から連続量に変換することが要求され
、非線形要素が強い場合の定量化には困難がある。
Furthermore, in processes such as process control, it is required to convert the recall output of a neural network from a crisp value to a continuous quantity, and it is difficult to quantify when there are strong nonlinear elements.

本発明の目的は、上記問題点を克服し、プロセスの予測
2診断、制御等にも応用できる、安定かつ高精度なニュ
ーラルネット及びその学習方式を提供することにある。
An object of the present invention is to overcome the above-mentioned problems and provide a stable and highly accurate neural network and its learning method, which can be applied to process prediction, diagnosis, control, etc.

〔課題を解決するための手段〕[Means to solve the problem]

上記目的を達成するために、本発明はファジィ集合概念
を導入した下記の手段によって構成されることを特徴と
する。
In order to achieve the above object, the present invention is characterized by being constructed by the following means that introduces the fuzzy set concept.

すなわち、本発明は情報を入力する入力層、最終結果を
出力する出力層、該両層の間にある1段以上の中間層、
前記各層ごとに複数のニューロン及び隣接する層のニュ
ーロン間を結合する重み係数をもつシナップスを有する
ニューラルネットワークにおいて、前記入力情報を予め
先験的な知識によって定められたファジィメンバシップ
関数で定性評価とダイナミックレンジの正規化をおこな
った後に前記入力層に入力する手段を設ける。
That is, the present invention includes an input layer for inputting information, an output layer for outputting the final result, one or more intermediate layers between the two layers,
In a neural network having a plurality of neurons in each layer and synapses having weighting coefficients that connect neurons in adjacent layers, the input information is qualitatively evaluated using a fuzzy membership function determined in advance by a priori knowledge. Means for inputting the dynamic range to the input layer after normalization is provided.

さらに、前記ニューラルネットワークの出力値を、先験
的に定めたファジィメンバシップ関数の定性評価値とす
ることによって定量化処理をおこなう手段を設ける。
Furthermore, means is provided for performing a quantification process by using the output value of the neural network as a qualitative evaluation value of a fuzzy membership function determined a priori.

〔作用〕[Effect]

本発明は、ニューラルネットワーク内の処理は線形モデ
ルのような入力情報の絶対値ではなく、その特徴量の抽
出によっておこなわれるものであり、入力層ニューロン
の各入力値は同一のデイメンジョン(単位次元)で扱う
必要はないという考えに基づいている。
In the present invention, processing within a neural network is performed not by the absolute value of input information as in a linear model, but by extracting its features, and each input value of the input layer neuron is of the same dimension (unit: It is based on the idea that there is no need to treat it in terms of dimensions.

上記した本発明の構成によれば、入力情報がさまざまな
レンジを有し、強い非線形性や不確定要素が多く含む場
合であっても、入力値と想起結果の相関がある程度分か
り定性的表現ができるときは、この定性的表現であるフ
ァジィメンバシップ関数によって評価した定性評価値を
ニューラルネットの入力情報とすることで学習/想起が
可能になる。
According to the configuration of the present invention described above, even when input information has various ranges and includes strong nonlinearity and many uncertain elements, the correlation between the input value and the recall result can be understood to some extent and qualitative expression can be performed. When possible, learning/recall is made possible by using qualitative evaluation values evaluated using fuzzy membership functions, which are qualitative expressions, as input information to the neural network.

また、ニューラルネットの想起結果に強い非線形要素を
含む場合にも、想起結果は定性評価値を示していること
から評価値と定量値の相関がある程度わかっているとき
は、このニューラルネットの出力値を評価値とするデフ
ァジィによって定量値出力を求めることが可能になる。
In addition, even if the recall result of a neural network contains strong nonlinear elements, the recall result shows a qualitative evaluation value, so if the correlation between the evaluation value and quantitative value is known to some extent, the output value of this neural network It becomes possible to obtain a quantitative value output by defuzzing using as an evaluation value.

このように本発明によれば、従来応用が不可能と考えら
れていたプロセスの診断、制御などの様様な情報に対し
ても、各情報の性質に応じて本発明を適用することによ
り、プロセスの多様な特性に正しく反応するニューラル
ネットの学習/想起が可能になる。しかも、非線形処理
はファジィ集合概念で処理されるので、経験や実験等か
ら入力情報と想起結果相関がある程度わかっていれば可
能であり、適用性が大きい。
As described above, according to the present invention, the present invention can be applied to various types of information such as process diagnosis and control, which were previously thought to be impossible to apply, by applying the present invention according to the nature of each information. It becomes possible to learn/recall neural networks that respond correctly to various characteristics of objects. Furthermore, since nonlinear processing is processed using a fuzzy set concept, it is possible if the correlation between input information and recall results is known to some extent from experience or experimentation, and has great applicability.

さらに、上記した入力情報のファジィ評価と、想起結果
の定量化を組合わせたニューラルネットワーク構成とす
ることで、従来のファジィ推論手段における推論ルール
がこのニューラルネットワークによって置換可能となる
。これにより、従来のファジィ推論手段に比ベチューニ
ング時間の短縮や高精度化が可能になる。
Furthermore, by using a neural network configuration that combines the above-described fuzzy evaluation of input information and quantification of recall results, the inference rules in conventional fuzzy inference means can be replaced by this neural network. This makes it possible to shorten the comparison tuning time and increase accuracy in conventional fuzzy inference means.

〔実施例〕〔Example〕

以下、本発明の好適な実施例を図面に基づいて説明する
。第1図から第10図は本発明の第1の実施例を説明す
るもので、第1図はニューラルネットワークの学習装置
の全体構成を示す。学習装置1は、学習パターンXを定
性的に評価する第1フアジイ定性評価手段2と前向きニ
ューラルネットワーク3と、教師パターンd(X)を定
性評価する第2フアジイ定性評価手段4と誤差逆伝搬重
み修正手段5とこれら各手段の動作を管理制御する計算
機による制御手段6から構成されている。
Hereinafter, preferred embodiments of the present invention will be described based on the drawings. 1 to 10 illustrate a first embodiment of the present invention, and FIG. 1 shows the overall configuration of a neural network learning device. The learning device 1 includes a first fuzzy qualitative evaluation means 2 for qualitatively evaluating the learning pattern X, a forward neural network 3, a second fuzzy qualitative evaluation means 4 for qualitatively evaluating the teacher pattern d(X), and an error backpropagation weight. It consists of a correction means 5 and a computer-based control means 6 for managing and controlling the operation of each of these means.

第2図の第1のファジィ定性評価手段2の構成を示し、
手段2の入力情報Xa=(x□、X2゜・・・、xn)
を各々入力してn倍個の定性評価値を出力する適合度演
算手段21を備えている。
The configuration of the first fuzzy qualitative evaluation means 2 in FIG. 2 is shown,
Input information of means 2 Xa = (x□, X2゜..., xn)
, and outputs n times the number of qualitative evaluation values.

第3図は前向きニューラルネットワーク3の構成を概念
的に示す。前向き三層モデルを例示しているが、四層以
上の多層構造においても本発明は同様に適用可能である
FIG. 3 conceptually shows the configuration of the forward neural network 3. Although a forward-facing three-layer model is illustrated, the present invention is equally applicable to a multi-layer structure of four or more layers.

ニューラルネット3はn個の入力層ニューロンx (1
,2,・・・tn)と1m個の中間層(かくれ層)ニュ
ーロンy(j=1,2.・・・+m)と、0個の出力層
ニューロンz (k=1.2.・・・、Q)と、入力層
と中間層を結合する重みWIJを有するシナップスと、
中間層と出力層を結合する重みVthを有するシナップ
スよりなっている。重みwlj、 Vjh(7) 17
 ’/ジは−1,0〜1.01?ある。各ニューロンは
空間加算性と非線形性を有していて後述する処理(想起
)をおこなう。
Neural net 3 has n input layer neurons x (1
,2,...tn), 1m hidden layer neurons y (j=1,2...+m), and 0 output layer neurons z (k=1,2...+m).・, Q) and a synapse having a weight WIJ that connects the input layer and the hidden layer,
It consists of a synapse having a weight Vth that connects the intermediate layer and the output layer. Weight wlj, Vjh (7) 17
'/ji is -1.0 to 1.01? be. Each neuron has spatial additivity and nonlinearity, and performs processing (recall) that will be described later.

第4図は適合度演算手段21の動作を説明する図である
。図のように、手段21にはたとえば。
FIG. 4 is a diagram illustrating the operation of the goodness-of-fit calculation means 21. As shown, the means 21 includes, for example.

S(小さい)2M(中くらい)、B(大きい)といった
3種類の定性評価に対応するメンバシップ関数を経験や
実験等による先験的情報から予め記憶している。入力情
報XL (i=1.2.・・・tn)は3種類の曲線で
評価され μ5(Xi)”Xts (μSは評価種類Sに対する適合 度量数) μM(xt) =XIM μa (xt) =XIB と3つの評価値に変換され、これらの定性評価値集合X
′が前向きニューラルネット3の入力となる。
Membership functions corresponding to three types of qualitative evaluations such as S (small), 2M (medium), and B (large) are stored in advance from a priori information obtained from experience, experiments, etc. Input information XL (i=1.2...tn) is evaluated using three types of curves, μ5(Xi)”Xts (μS is the number of fitness degrees for evaluation type S) μM(xt) = XIM μa (xt) =XIB and converted into three evaluation values, and these qualitative evaluation value set X
' becomes the input to the forward neural network 3.

一方、教師パターンd (X)は、第2のファジィ定性
評価手段4によって、d (X)の各情報ごとに3種類
の評価値に変換され、定性評価値集合d’  (X)と
なる。
On the other hand, the second fuzzy qualitative evaluation means 4 converts the teacher pattern d (X) into three types of evaluation values for each piece of information in d (X), resulting in a qualitative evaluation value set d' (X).

誤差逆伝搬修正手段5は前記ファジィ定性評価手段2,
4の出力およびニューラルネット3の想起出力h (X
)を入力として、h (X)とd’  (X)の誤差が
所定地以下ないし最小となるようにニューラルネット3
のシナップスの重みを修正する。
The error backpropagation correction means 5 includes the fuzzy qualitative evaluation means 2,
4 and the recall output of neural network 3 h (X
) as input, the neural network 3
Modify the synaps weights of .

以上のように構成された学習装置は学習パターンの評価
値集合X ’ ” (X1S+ XxHg xIB、 
X2StX2M、 xzst・・・)と、これに対する
教師パターンの評価値集合d’  (X)があたえられ
た場合以下のように学習をおこなう。
The learning device configured as described above has a learning pattern evaluation value set X''' (X1S+XxHg xIB,
X2StX2M, xzst...) and a set of evaluation values d' (X) for the teacher pattern are given, and learning is performed as follows.

■ 中間層ニューロン出力値演算 入力層ニューロン出力値、すなわち学習パターンの評価
値集合の各入力値とシナップスの重みWsJの積を演算
後、それらの総和を演算し、総和に対する非線形関数(
ここではシグモイド関数)を演算し、中間層ニューロン
の出力値を求める。
■ Intermediate layer neuron output value calculation After calculating the input layer neuron output value, that is, the product of each input value of the evaluation value set of the learning pattern and the synapse weight WsJ, calculate their sum, and calculate the nonlinear function (
Here, the sigmoid function) is calculated to obtain the output value of the hidden layer neuron.

’/J=σ(woJ+wlJsx1s+w、JMχ、H
+W、JBX、B+w、Jsx2s+W2aHXzM+
・・・+W□s x na) j=1.2. −・・9m ここで、y:中間層ニューロンの出力値σ:シグモイド
関数 σ(S)”1/ (1+e−S) ■ 出力層ニューロン出力値演算 上記ので求めた中間層ニューロン出力値と重みvJkの
積を演算後、それらの総和を演算し、さらに総和に対す
る非線形関数(シグモイド関数)を演算して出力層ニュ
ーロン出力値を求める。
'/J=σ(woJ+wlJsx1s+w, JMχ, H
+W, JBX, B+w, Jsx2s+W2aHXzM+
...+W□s x na) j=1.2. -...9m Where, y: Output value of the hidden layer neuron σ: Sigmoid function σ(S)''1/ (1+e-S) ■ Output layer neuron output value calculation The hidden layer neuron output value and weight vJk obtained above After calculating the products of , calculate the sum of them, and further calculate a nonlinear function (sigmoid function) for the sum to obtain the output layer neuron output value.

zk:σ(vok+v1kyl十■2ky2+゛。zk:σ(vok+v1kyl×2ky2+゛.

十v、1y麿) k=1. 2.  ・・・、 Q 上記の処理によって得られたニューラルネット3の出力
値Zbの集合、すなわち想起パターンh (X)は第1
図の誤差逆伝搬重み修正手段2により以下の処理をおこ
なって重みを修正し、これを繰返すことによってニュー
ラルネットの学習をおこなう。
10v, 1ymaro) k=1. 2. ..., Q The set of output values Zb of the neural network 3 obtained by the above processing, that is, the recall pattern h (X) is the first
The error backpropagation weight correction means 2 shown in the figure performs the following processing to correct the weights, and by repeating this process, the neural network is trained.

■ シナップスの重み修正量演算 既知の教師パターンの評価値d’  (X)と上記■で
得られたh (x)の誤差を最小にするシナップスの重
み修正量δ、k(x)とδ□、(X)を計算する。
■ Synapse weight correction amount calculation Synapse weight correction amounts δ, k(x) and δ□ that minimize the error between the evaluation value d' (X) of the known teacher pattern and h (x) obtained in the above ■ , (X).

62k(x)= a (x)(h h(x)  d k
(x)) ・b h(x)(1−d h(x)) f J(x)(1−f J(x)) (j=L、・・・、m) ここで、 α(x)は入力ベクトルX′に対する、出力ベクトルh
(x)の近さに関する重要度合で、既知項目である。
62k (x) = a (x) (h h (x) d k
(x)) ・b h(x) (1-d h(x)) f J(x) (1-f J(x)) (j=L,...,m) Here, α(x ) is the output vector h for the input vector X'
This is the degree of importance related to the proximity of (x) and is a known item.

fa(x)はm個のn変数関数で、 fJ(x)=δ(w、B+ W、J #x1+−+Wn
J’ Xn) 二yJ (j=1.・・・tm) ■ 重み修正 現在のシナップスの重みVJ”’、WIJ”’を上記■
の結果を用いて、新しい重みv 、 n e W。
fa(x) is a function of m n variables, fJ(x)=δ(w, B+ W, J #x1+-+Wn
J'
Using the results of , we create new weights v, n e W.

WIJn6”に修正する。Correct to “WIJn6”.

八 F = Oy・・・、m;に=1.・・・、Q)Δ (i=o、・・・、n;j=1.・・・+m)ここで、
IXIは学習パターン要素数。
8F = Oy..., m; = 1. ..., Q) Δ (i = o, ..., n; j = 1. ... + m) where,
IXI is the number of learning pattern elements.

Δは微分幅で既知項目である。Δ is the differential width and is a known item.

以上の様な学習装置にて学習を行なう学習パターンと教
師パターンが定性的に評価され、かつメンバーシップ関
数のO〜1で正規化される為、学習パターンと教師パタ
ーンとの相関整合度が改善され、安定かつ高精度な学習
が可能となる。
Since the learning patterns and teacher patterns that are learned using the above-mentioned learning device are qualitatively evaluated and normalized by a membership function of 0 to 1, the degree of correlation consistency between the learning patterns and the teacher patterns is improved. This enables stable and highly accurate learning.

また、第1の定性評価手段あるいは第2の定性評価手段
4の一方のみを用いた学習装置であっても、想起対象に
よっては同様な効果を得ることができる。
Further, even with a learning device using only one of the first qualitative evaluation means or the second qualitative evaluation means 4, similar effects can be obtained depending on the object to be recalled.

第5図は入力のみ定性評価をおこなう例で、同図(a)
は学習装置の構成を示したものである。
Figure 5 shows an example in which qualitative evaluation is performed only on input;
shows the configuration of the learning device.

同図(b)はこの構成における動作を説明するもので、
空調機による室内温度の変化予測の学習を、既知の室内
温度変位ΔTin、室外温度変位ΔTautおよびクー
ラ動作変位ΔCLを学習情報、一定時間後の既知の室内
温度変化値ΔT1−を教師情報としておこなう例である
。この場合、同図(c)に示すように温度の変位は±5
、クーラの変位は±20のレンジであり、かつそれぞれ
異なる非線形特性を有している。従って、各情報をその
まま入力したのでは収束が困難になる場合もある。
Figure (b) explains the operation in this configuration.
An example in which learning to predict changes in indoor temperature by an air conditioner is performed using known indoor temperature displacement ΔTin, outdoor temperature displacement ΔTout, and cooler operating displacement ΔCL as learning information, and known indoor temperature change value ΔT1- after a certain period of time as teacher information. It is. In this case, as shown in the same figure (c), the temperature variation is ±5
, the displacement of the cooler is in the range of ±20, and each has different nonlinear characteristics. Therefore, if each piece of information is input as is, it may be difficult to converge.

そこで各入力を経験や実測値などから予め定められたフ
ァジィメンバシップ関数により定性評価(正規化も兼ね
る)し、その評価値をニューラルネットのに入力するこ
とによって各情報の特徴がよく抽出され、学習の精度、
能率ともに向上できる。
Therefore, each input is qualitatively evaluated (also normalized) using a predetermined fuzzy membership function based on experience and actual measured values, and the characteristics of each information are well extracted by inputting the evaluation values into a neural network. learning accuracy,
Both efficiency can be improved.

第6図は出力のみ定性評価をおこなう例で、同図(a)
は学習装置の構成を示す。この構成は情報が同質な時系
列データ(音声1画像など)等に適する。同図(b)は
過去の日単位の株価変動幅C円)のデータ群(変動幅Δ
P 、−n; n=o、i。
Figure 6 is an example of qualitative evaluation of only the output;
indicates the configuration of the learning device. This configuration is suitable for time-series data with homogeneous information (sound, one image, etc.). Figure (b) shows a data group (variation range Δ
P, -n; n=o,i.

2、・・・)から次の日の株価変動を予測するものであ
る。過去の変化形態が振動的あるいはしだいに拡大傾向
(三角変化)となるような場合は、いずれも非線形な状
況変化であり、出力が1ニユーロンの想起値で定義する
と収束が遅く精度も悪い。
2,...) to predict the next day's stock price fluctuations. If the form of change in the past is oscillating or gradually expanding (triangular change), it is a nonlinear situation change, and if the output is defined as a recall value of 1 new ron, convergence will be slow and accuracy will be poor.

そこで、出力ニューロンを例えば3個とし、各各に増加
(+)、不変(O)、減少(−)の評価種類を定義する
。一方、教師情報である既知の次日の株価変動幅ΔPi
es をファジィ定性評価手段4で定性評価して上記3
種類の評価値を得、これを教師パターンとする。これに
より、入力データ間の非線形性の特徴がよく捉えられ、
学習の精度。
Therefore, the number of output neurons is set to three, for example, and evaluation types of increase (+), unchanged (O), and decrease (-) are defined for each. On the other hand, the next day's known stock price fluctuation range ΔPi which is teacher information
Qualitatively evaluate es using fuzzy qualitative evaluation means 4 and perform the above 3
Obtain the evaluation value of each type and use this as the teacher pattern. This allows the characteristics of nonlinearity between input data to be well captured, and
Accuracy of learning.

速度ともに向上する。これは、もともと前向きニューラ
ルネットが有する非線形把握力を、出力ニューロンを定
性値として定義することにより無理なく引き呂せるため
である。
Both speed improves. This is because the nonlinear grasping power originally possessed by forward-looking neural networks can be easily exploited by defining the output neurons as qualitative values.

以上の手順で学習を完了した後、シナップスの重みは固
定され、ニューラルネットワークは実際の装置に移植さ
れる。実際の装置での動作は想起と呼ばれ、未知の入力
情報に対しても的確な判断を行なう様になる。動作は前
記■、■段階と同じである。すなわち入力情報とシナッ
プスの重みの積の総和を演算後シグモイド関数値演算に
より、中間層ニューロン出力値を求める。次に同様にし
て、中間層ニューロン出力値とシナップスの重みにより
出力層ニューロン値、すなわち想起結果を得る。
After completing learning using the above steps, the synapse weights are fixed and the neural network is transplanted to the actual device. The operation in an actual device is called recollection, and it allows accurate judgment to be made even in response to unknown input information. The operation is the same as in steps ① and ② above. That is, after calculating the sum of the products of the input information and synapse weights, the intermediate layer neuron output value is determined by calculating the sigmoid function value. Next, in a similar manner, output layer neuron values, that is, recall results, are obtained using the intermediate layer neuron output values and synapse weights.

第7図は、本発明による想起装置10の構成を示したも
のである。想起装置110は入力情報X”(Xl、 X
2.−、 XI、  、−XN)を入力とし定性評価集
合を出力する第1のファジィ定性評価手段2と1手段2
から出力された定性評価集合X′を入力とし、想起対象
に対する定性評価値集合h(x)を出力とするニューラ
ルネットワーク3と、定性評価値集合h(x)を入力と
し、定量値に変換して出力する定量化手段6により構成
される。これらのうち、手段2とニューラルネット3は
前記第1図の学習装N1と同じ動作を行なうので説明を
省略する。
FIG. 7 shows the configuration of the recollection device 10 according to the present invention. The recall device 110 inputs information X'' (Xl,
2. -, XI, , -XN) as input and outputs a qualitative evaluation set.
A neural network 3 receives the qualitative evaluation set X' outputted from , and outputs the qualitative evaluation value set h(x) for the recall target, and the neural network 3 receives the qualitative evaluation value set h(x) as input and converts it into a quantitative value. It is composed of a quantification means 6 that outputs the following information. Of these, the means 2 and the neural network 3 perform the same operations as the learning device N1 shown in FIG. 1, so their explanation will be omitted.

第8図は、定量化手段6の動作を説明したものである。FIG. 8 explains the operation of the quantification means 6.

本例では前向きニューラルネツワーク3の出力層ニュー
ロン値、すなわち出力値の定性評価として NB (負の大) NM(負の中位) NS(負に小) Z○(ゼロ) PS(正に小) PM(正の中位) PB(正の大) の7種類の評価を定義する。縦軸に適合度O0O〜1,
0 を、横軸に想起対象値H(−HMAX〜+HM^X
)をそれぞれ定義し、前記7種類の定性評価曲線を先験
的情報に基づいて作成する。前向きニューラルネットワ
ーク3の出力ニューロン数は本例では7個と定め、前記
定性評価NB、NM。
In this example, the output layer neuron values of forward neural network 3, that is, the qualitative evaluation of the output values, are: NB (large negative) NM (medium negative) NS (small negative) Z○ (zero) PS (small positive) ) Define seven types of evaluation: PM (medium positive) and PB (high positive). The vertical axis shows the goodness of fit O0O~1,
0, and the horizontal axis is the recall target value H (-HMAX ~ +HM^X
), and the seven types of qualitative evaluation curves are created based on a priori information. The number of output neurons of the forward neural network 3 is set to 7 in this example, and the qualitative evaluations NB and NM are performed.

NS、20.PS、PM、PBに対応させる。ニューラ
ルネット3の想起結果に従い、メンバーシップ関数の対
応する評価曲線をニューロン出力値で切断し、斜線で示
されるエリアの重心を求める。
NS, 20. Make it compatible with PS, PM, and PB. According to the recall result of the neural network 3, the corresponding evaluation curve of the membership function is cut by the neuron output value, and the center of gravity of the area indicated by diagonal lines is determined.

この重心に対応するHの値を出力とする。The value of H corresponding to this center of gravity is output.

このような想起装置6にて想起を行なうと、入力情報は
定性的に評価、正規化されてニューラルネットワークに
入力され、ニューラルネットワークの想起出力は定性的
評価値として扱うことができる。この想起出力は予め定
められたメンバーシップ関数によりデファジィして定量
化することができる。
When recall is performed using such a recall device 6, the input information is qualitatively evaluated and normalized and input to the neural network, and the recall output of the neural network can be treated as a qualitative evaluation value. This recall output can be defuzzed and quantified using a predetermined membership function.

なお、想起出力が定量値として得られる場合(上述の第
5図(b)の例)、あるいは定量変換を必要としない場
合は、第9図のように定量化手段6のない構成となる。
Note that if the recall output is obtained as a quantitative value (as in the example shown in FIG. 5(b) above), or if quantitative conversion is not required, the configuration does not include the quantification means 6 as shown in FIG. 9.

また、定性評価しない入力データから定性評価値を想起
する場合(上述の第6図(b)の例)は、第10図のよ
うに定性評価手段2のない構成で想起がおこなわれる。
Furthermore, when recollecting a qualitative evaluation value from input data that is not subjected to qualitative evaluation (the example shown in FIG. 6(b) described above), recollection is performed in a configuration without the qualitative evaluation means 2 as shown in FIG.

第11図から第18図は1本発明を実プロセスに応用し
た実施例を説明するものである。
11 to 18 illustrate an embodiment in which the present invention is applied to an actual process.

第11図は、対象プロセスであるトンネル換気プロセス
を示す。道路トンネル内の換気プロセスは不確定要素が
多く、非線形要素が大であり従来の制御手法で良い結果
を得ることが困難であった。
FIG. 11 shows the target process, a tunnel ventilation process. The ventilation process in road tunnels has many uncertain elements and large nonlinear elements, making it difficult to obtain good results using conventional control methods.

このプロセスの汚染予測に本発明のニューラルネットを
応用した例を以下に説明する。
An example in which the neural network of the present invention is applied to contamination prediction in this process will be described below.

第12図は汚染予測装置30の入力信号を示している。FIG. 12 shows input signals of the contamination prediction device 30.

一定時間後の汚染推移(本例では、見通しの良さ、すな
わち透過度を示すVI値を汚染指標とする。VI値はO
〜100 (%)のレンジを有し、100(%)に近づ
く程見通しが良好であることを示す)を決定する要因と
しては、大型車台数の変位(ΔTB、Δは変位を示す記
号で、(現在値)−(前回値)で定義する)、車速(T
S)。
Contamination transition after a certain period of time (In this example, the VI value, which indicates good visibility, or transparency, is used as a contamination index. The VI value is O
-100 (%), and the closer it gets to 100 (%), the better the visibility) is determined by the displacement of the number of large vehicles (ΔTB, Δ is a symbol indicating displacement, Defined as (current value) - (previous value)), vehicle speed (T
S).

汚染値変位(ΔvB 、機械換気力変位(ΔM)。Contamination value displacement (ΔvB), mechanical ventilation force displacement (ΔM).

交通量変位(ΔTR)、自然風(WN)等が主なもので
ある。最新の予測方法としてファジィの多段推論による
方法が実用化されているがその精度は第13図に示すよ
うに、相関係数0.72程度である。相関係数とは第1
4図に示すように、時刻t c ’t’ (’) 予測
値VIc+、pre+tcte−と実測値vIC+、&
ctu&1の精度を示す指標である。
The main factors include traffic volume displacement (ΔTR) and natural wind (WN). As the latest prediction method, a method based on fuzzy multi-stage inference has been put into practical use, but its accuracy is about 0.72 with a correlation coefficient, as shown in FIG. What is the correlation coefficient?
As shown in Fig. 4, the predicted values VIc+, pre+tcte- and the actual values vIC+, &
This is an index indicating the accuracy of ctu&1.

第15図は本発明による汚染値推移の学習装置である。FIG. 15 shows a contamination value transition learning device according to the present invention.

学習パターンXは上記したΔTB、TS。Learning pattern X is the above-mentioned ΔTB, TS.

ΔVIc、ΔM、ΔTR,WNで構成されるX&を要素
としている。この人種類の情報に対し、それぞれ三種類
の定性評価、減少(−)、現状維持(0)、増加(+)
を持つ先験的に定められたメンバーシップ関数によるフ
ァジィ定性評価手段2により定性評価が行なわれる。従
ってニューラルネットワーク3の入力層ニューロン数は
18個となる。一方既知である一定時間後の汚染値変位
実測値Δy 1 c+、actuatも先験的に定めら
れたメンバーシップ関数を用いてファジィ定性評価手段
4により定性評価される。
The element is X& composed of ΔVIc, ΔM, ΔTR, and WN. Three types of qualitative evaluations are made for this person type information: decrease (-), maintain the status quo (0), and increase (+).
Qualitative evaluation is performed by fuzzy qualitative evaluation means 2 using a membership function determined a priori. Therefore, the number of neurons in the input layer of the neural network 3 is 18. On the other hand, the known contamination value displacement actual value Δy 1 c+, actuat after a certain period of time is also qualitatively evaluated by the fuzzy qualitative evaluation means 4 using a membership function determined a priori.

誤差逆伝搬重み修正手段5は、手段2により定性的に評
価された情報を学習パターンとし、手段4での定性評価
値を教師パターンとして入力とし、上述の手順で学習を
行ない、ニューラルネットワ−ク3のシナップスの重み
を修正する。
The error backpropagation weight correcting means 5 uses the information qualitatively evaluated by the means 2 as a learning pattern, inputs the qualitative evaluation value from the means 4 as a teacher pattern, performs learning according to the above-mentioned procedure, and constructs a neural network. Correct the weight of synapses in 3.

以上のように学習を完了したシナップスの重みは固定さ
れ、ニューラルネットは実装置に移される。
The weights of the synapses that have completed learning as described above are fixed, and the neural network is transferred to the actual device.

第16図は本発明による汚染値の予測(想起)装置であ
る。第1のファジィ定性評価手段2と前向きニューラル
ネットワーク3は第15図に示した学習装置と同じ動作
を行なう。前向きニューラルネットワーク3は汚染値変
位ΔVIに対する7種の評価NNB (ΔVIc+□)
(かなり減少)、NNM (ΔVIc+1)(減少)、
 NNS (ΔVIc+、)(やや減少) v Nzo
 (ΔVIc+j  (現状維持)。
FIG. 16 is a contamination value prediction (recall) device according to the present invention. The first fuzzy qualitative evaluation means 2 and the forward neural network 3 perform the same operation as the learning device shown in FIG. Forward neural network 3 performs seven types of evaluation NNB for pollution value displacement ΔVI (ΔVIc+□)
(significantly decreased), NNM (ΔVIc+1) (decreased),
NNS (ΔVIc+,) (slightly decreased) v Nzo
(ΔVIc+j (maintaining the status quo).

Np5(ΔV I Cat ) (やや増加L NPM
(ΔVIc+、)(増加) 、Npa (ΔVIc+t
)  (かなり増加)をそれぞれ出力層ニューロンの出
力とする。定量化手段6は、これらを入力とし、先験的
情報に基づき定められたメンバーシップ関数を用い、定
量変換後、予測装置の出力として一定時間後の汚染変位
予測値ΔV 工。41PrediCLedを出力する。
Np5 (ΔV I Cat ) (Slight increase L NPM
(ΔVIc+, ) (increase), Npa (ΔVIc+t
) (considerably increased) are the outputs of the output layer neurons, respectively. The quantification means 6 takes these as input, uses a membership function determined based on a priori information, and after quantitative conversion, outputs the predicted contamination displacement value ΔV after a certain period of time as the output of the prediction device. 41PrediCLed is output.

第17図はその具体的動作例であり、 NNB (AVIc+、)=0.082NNM (ΔV
 Ice、)  =0.102NNS(ΔVIc+、)
=0.113 NzoCΔVIc+、)=0.932 Nps(ΔVIc+、)=0.221 NPM(ΔVIc+、)  =0.110NPB (Δ
VIc+、)=0.085という定性評価値、すなわち
出力層ニューロン出力値により、定量値+1.6(%)
の増加を予測している。
Figure 17 shows a specific example of its operation, NNB (AVIc+,) = 0.082NNM (ΔV
Ice,) =0.102NNS(ΔVIc+,)
=0.113 NzoCΔVIc+, )=0.932 Nps(ΔVIc+,)=0.221 NPM(ΔVIc+,) =0.110NPB (Δ
The qualitative evaluation value of VIc+, )=0.085, that is, the output layer neuron output value, gives the quantitative value +1.6 (%)
is predicted to increase.

本発明の汚染予測装置によれば第18図に示すように予
測値〜実測値の相関係数は0.85 となり従来方法に
比べ大きく改善される。
According to the contamination prediction device of the present invention, as shown in FIG. 18, the correlation coefficient between the predicted value and the measured value is 0.85, which is greatly improved compared to the conventional method.

以上説明した本発明の汚染予測装置は、従来のファジィ
推論装置における推論ルールがニューラルネットに置換
されたものであり、本発明の想起装置、すなわち、入力
情報の定性評価と、想起結果の定量化を組み合わせた本
発明のニューラルネットワークは、新たなファジィ推論
手段を実現している。
The contamination prediction device of the present invention described above is one in which the inference rules in the conventional fuzzy inference device are replaced with a neural network, and the recall device of the present invention, that is, the qualitative evaluation of input information and the quantification of the recall result. The neural network of the present invention, which combines the following, realizes a new fuzzy inference means.

〔発明の効果〕〔Effect of the invention〕

本発明は以上のように構成され、入力情報をファジィ集
合によって定性的に評価して、ニューラルネットワーク
の入力とした為、強い非線形性や多くの不確定性を含む
入力情報も的確に評価される。そのうえ、所定のレンジ
に正規化されるので。
The present invention is configured as described above, and input information is qualitatively evaluated using fuzzy sets and used as input to a neural network, so input information that includes strong nonlinearity and a lot of uncertainty can be evaluated accurately. . Moreover, since it is normalized to a given range.

性質の異なる入力情報であっても学習/想起が安定かつ
高精度化する効果がある。
This has the effect of making learning/recall more stable and highly accurate even when input information has different properties.

また、ニューラルネットワークの出力値を対象の定性評
価値として扱い、先験的に定めたメンバーシップ関数に
よる定量化処理を行ない出力値とするようにした為、学
習/想起が安定/高精度化する効果がある。
In addition, the output value of the neural network is treated as a qualitative evaluation value of the target, and the output value is obtained by quantifying it using a membership function determined a priori, making learning/recall more stable/highly accurate. effective.

さらに、上記を組合わせることにより、従来のファジィ
推論手段のうちの推論ルールをニューラルネットワーク
想起手段で置換することが可能となる為、従来のファジ
ィシステムに比ベチューニング時間の短縮及び高精度化
が達成できる。
Furthermore, by combining the above, it becomes possible to replace the inference rules in conventional fuzzy inference means with neural network recollection means, resulting in shorter tuning time and higher accuracy compared to conventional fuzzy systems. It can be achieved.

さらに本発明により、従来極めて限定された対象にしか
適用できなかったニューラルネットワーク情報処理を、
広く一般的な問題解決の手段として適用可能とする、と
いう効果が達成できる。
Furthermore, the present invention enables neural network information processing, which could only be applied to extremely limited targets in the past.
It is possible to achieve the effect of making it applicable as a means of solving a wide range of general problems.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図から第9図は本発明の第1の実施例を説明するも
ので、第1図はニューラルネットワークの額秋霜値の構
成図、第2図は第1のファジィ定性評価手段の構成図、
第3図は前向きニューラルネットワークの概念的な説明
図、第4図は適合度演算手段のメンバーシップ関数と動
作の説明図、第5図および第6図は本発明の学習装置の
変形例をそれぞれ示す構成図、第7図は本発明の想起装
置の構成図、第8図は定量化手段の動作を説明する図、
第9図および第10図は本発明の想起装置の変形例、を
それぞれ示す構成図である。 第11図から第18図は本発明の第2の実施例を説明す
るためのもので、第11図はトンネル換気プロセスのモ
デル図、第12図は汚染予測装置の入出力信号を説明す
る図、第13図および第14図は従来の汚染予測装置の
学習装置の構成図、第16図および第17図は本発明の
汚染予測装置(想起装置)の構成図とその定量化動作の
説明図。 第18図は本発明の詳細な説明する図である。 1、学習装置、2.第1のファジィ定性評価手段、3.
ニューラルネットワーク、4.第2のファジィ定性評価
手段、51重み修正手段、6.定量化手段、10.想起
装置、3o、汚染予測装置。 第2図 第3図 第4図 第5図 (b) 第5図 (c) ΔT、n(室温変化) ΔT、u、(外温変化) −20020(%) 〇                 二ン ××× 第8図 第17図 第18図 v1実測値(%) v1予測値(%) 第11図 交通量TR(TB:大型車古歌、TS  速度)第12
図 第13図 ■1予1り値(%) 第14図 vi値
FIGS. 1 to 9 explain the first embodiment of the present invention. FIG. 1 is a configuration diagram of the forehead frost value of the neural network, and FIG. 2 is a configuration diagram of the first fuzzy qualitative evaluation means. ,
FIG. 3 is a conceptual illustration of a forward neural network, FIG. 4 is an illustration of membership functions and operations of the fitness calculating means, and FIGS. 5 and 6 are modifications of the learning device of the present invention. FIG. 7 is a configuration diagram of the recollection device of the present invention, FIG. 8 is a diagram explaining the operation of the quantification means,
FIG. 9 and FIG. 10 are configuration diagrams showing modified examples of the recollection device of the present invention, respectively. Figures 11 to 18 are for explaining the second embodiment of the present invention, where Figure 11 is a model diagram of the tunnel ventilation process, and Figure 12 is a diagram explaining input and output signals of the pollution prediction device. , FIG. 13 and FIG. 14 are block diagrams of a learning device of a conventional contamination prediction device, and FIGS. 16 and 17 are block diagrams of a contamination prediction device (recall device) of the present invention and explanatory diagrams of its quantification operation. . FIG. 18 is a diagram explaining the present invention in detail. 1. Learning device, 2. First fuzzy qualitative evaluation means, 3.
Neural network, 4. second fuzzy qualitative evaluation means, 51 weight correction means, 6. Quantification means, 10. Recall device, 3o, contamination prediction device. Figure 2 Figure 3 Figure 4 Figure 5 (b) Figure 5 (c) ΔT, n (room temperature change) ΔT, u, (external temperature change) -20020 (%) 〇 2 × × × 8th Figure 17 Figure 18 v1 actual value (%) v1 predicted value (%) Figure 11 Traffic volume TR (TB: large vehicle old song, TS speed) No. 12
Figure 13 ■1 Preliminary value (%) Figure 14 vi value

Claims (12)

【特許請求の範囲】[Claims] 1.情報を入力する入力層、想起結果を出力する出力層
、これら両層の間にある1段以上の中間層を有して、入
力情報に基づく目的情報を想起し出力するニューラルネ
ットワークにおいて、前記入力情報を定性評価するファ
ジィ定性評価手段を設け、入力情報ごとに1以上の定性
評価値を前記入力層に与えるようにしたことを特徴とす
るニューラルネットワーク。
1. In a neural network that has an input layer for inputting information, an output layer for outputting a recall result, and one or more intermediate layers between these layers, the neural network recalls and outputs target information based on the input information. A neural network characterized in that a fuzzy qualitative evaluation means for qualitatively evaluating information is provided, and one or more qualitative evaluation values are given to the input layer for each input information.
2.請求項1において、前記ファジィ定性評価手段は、
経験や実験等による先験的情報によって予め定められ評
価値が0.0〜1.0のメンバーシップ関数を有するこ
とを特徴とするニューラルネットワーク。
2. In claim 1, the fuzzy qualitative evaluation means:
A neural network characterized by having a membership function that is predetermined based on a priori information based on experience, experiments, etc. and has an evaluation value of 0.0 to 1.0.
3.請求項2において、前記メンバーシップ関数は同一
入力情報に対して評価の視点を変えた複数のメンバーシ
ップ関数からなり、前記入力情報に対する複数の定性評
価値が前記ファジィ定性評価手段から出力されることを
特徴とするニューラルネットワーク。
3. In claim 2, the membership function includes a plurality of membership functions obtained by changing evaluation viewpoints for the same input information, and a plurality of qualitative evaluation values for the input information are output from the fuzzy qualitative evaluation means. A neural network characterized by.
4.1以上の情報を入力する入力層のニューロン群、1
段以上の中間層のニューロン群、想起結果を1以上の定
性評価値群で想起する出力層のニューロン群、これら各
層のニューロン群間を所定の結合係数で結合するシナッ
プスを有し、かつ、前記出力層ニューロンの定性評価値
群から想起対象情報を定量値に変換する定量化手段を設
けるようにしたこと特徴とするニューラルネットワーク
4. Input layer neuron group that inputs 1 or more information, 1
a neuron group in an intermediate layer of a stage or higher, a neuron group in an output layer that recalls the recall result using one or more qualitative evaluation value groups, and a synapse that connects the neuron groups in each layer with a predetermined coupling coefficient; A neural network characterized by being provided with a quantification means for converting information to be recalled into quantitative values from a group of qualitative evaluation values of output layer neurons.
5.請求項4において、前記定量化手段は先験的情報に
基づいて予め定められたメンバーシップ関数を用いてデ
ファジィすることを特徴とするニューラルネットワーク
5. 5. The neural network according to claim 4, wherein the quantification means defuzzifies the neural network using a predetermined membership function based on a priori information.
6.情報を入力する入力層、想起結果を出力する出力層
、これら両層の間にある1段以上の中間層を有して、入
力情報に対応する想起対象情報(目的情報)を出力する
ニューラルネットワークにおいて、 前記入力情報を定性評価するファジィ定性評価手段と、
定性評価値として得られる前記想起対象情報を定量値に
変換する定量化手段を設けることを特徴とするニューラ
ルネットワーク。
6. A neural network that has an input layer for inputting information, an output layer for outputting recall results, and one or more intermediate layers between these two layers, and outputs recall target information (target information) corresponding to the input information. Fuzzy qualitative evaluation means for qualitatively evaluating the input information;
A neural network characterized by comprising a quantification means for converting the recollection target information obtained as a qualitative evaluation value into a quantitative value.
7.情報を入力する入力層、想起結果を出力する出力層
、これら両層間にある1段以上の中間層を有するニュー
ラルネットワークの想起結果が、その入力情報の特性に
正しく反応するように前記各層間の結合状態を修正する
ニューラルネットワークの学習方法において、 既知の学習情報をファジィ定性評価して前記入力層にあ
たえ、この結果得られる前記ニューラルネットワークの
出力値と基準値である既知の教師情報との誤差が所定の
値以下となるように前記結合状態を修正するようにした
ことを特徴とするニューラルネットワークの学習方法。
7. The neural network has an input layer that inputs information, an output layer that outputs the recall results, and one or more intermediate layers between these two layers.The neural network has In a neural network learning method for correcting the connection state, known learning information is subjected to fuzzy qualitative evaluation and applied to the input layer, and the error between the output value of the neural network obtained as a result and the known teacher information that is the reference value is calculated. 1. A method for learning a neural network, characterized in that the connection state is modified so that the connection state is less than or equal to a predetermined value.
8.情報を入力する入力層、想起結果を出力する出力層
、これら両層間にある1段以上の中間層を有するニュー
ラルネットワークの想起結果が、その入力情報の特性に
正しく反応するように前記各層間のシナップスの重み係
数を修正するニューラルネットワークの学習装置におい
て、既知の学習情報を定性評価して前記入力層に入力す
るファジィ定性評価手段と、前記出力層から出力される
想起出力と基準値である既知の教師情報との誤差を求め
この誤差が所定の値以下になるように前記重み係数を修
正する重み係数修正手段を備えることを特徴とするニュ
ーラルネットワークの学習装置。
8. The neural network has an input layer that inputs information, an output layer that outputs the recall results, and one or more intermediate layers between these two layers.The neural network has In a neural network learning device for modifying weighting coefficients of synapses, a fuzzy qualitative evaluation means qualitatively evaluates known learning information and inputs it into the input layer, and a recall output outputted from the output layer and a known reference value. 1. A learning device for a neural network, comprising: a weighting coefficient correcting means for calculating an error between the weighting coefficient and the teacher information and correcting the weighting coefficient so that the error becomes less than or equal to a predetermined value.
9.請求項8において、前記想起出力が想起対象の定性
評価値として示されるとき、前記想起対象を予め定性評
価して定めたメンバシップ関数を有する第2のファジィ
定性評価手段を備え、該手段によって前記教師情報を定
性評価値として示すことを特徴とするニューラルネット
ワークの学習装置。
9. In claim 8, when the recollection output is indicated as a qualitative evaluation value of the recollection object, a second fuzzy qualitative evaluation means is provided having a membership function determined by qualitatively evaluating the recollection object in advance, and the means A neural network learning device characterized by showing teacher information as a qualitative evaluation value.
10.情報を入力する入力層、想起結果を出力する出力
層、これら両層の間にある1段以上の中間層を有して入
力情報に基づく想起対象を出力するニューラルネットワ
ークの想起方法において、前記入力情報をファジィ定性
評価手段によって1以上の定性評価値に変換し、該定性
評価値に基づく前記ニューラルネットワークの出力が前
記想起対象の定性評価値を示すとき、この出力された評
価値から前記想起対象の定量値を得るようにしたことを
特徴とするニューラルネットワークの想起方法。
10. In a neural network recall method that includes an input layer for inputting information, an output layer for outputting recall results, and one or more intermediate layers between these layers, the neural network outputs a recall target based on the input information. When the information is converted into one or more qualitative evaluation values by a fuzzy qualitative evaluation means, and the output of the neural network based on the qualitative evaluation value indicates the qualitative evaluation value of the recollection object, the output evaluation value is used to convert the information into one or more qualitative evaluation values. A neural network recall method characterized by obtaining a quantitative value of.
11.入力情報から目的情報を定性推論するファジィ推
論方法において、 ニューラルネットワークの結合状態を定める各シナップ
スの重みを前記入力情報の既知の値とこれに対応する前
記目標情報の既知の値から予め学習して決定し、前記入
力情報の各々を予め評価種類別に定めたファジィメンバ
ーシップ関数によって定性評価値に変換し、該変換され
た各入力情報評価値を前記ニューラルネットの入力層の
各ニューロンに入力し、該入力に基づく前記ニューラル
ネットの想起によって前記目的情報の評価種類ごとの定
性評価値を前記ニューラルネットの出力層の各ニューロ
ンを得るようになし、該得られた定性評価値の集合をデ
ファジィ変換して前記目的情報の定量値を推論するよう
にしたことを特徴とするファジィ推論方法。
11. In a fuzzy inference method that qualitatively infers target information from input information, the weight of each synapse that determines the connection state of a neural network is learned in advance from the known value of the input information and the corresponding known value of the target information. converting each of the input information into a qualitative evaluation value using a fuzzy membership function predetermined for each evaluation type, and inputting each of the converted input information evaluation values to each neuron of the input layer of the neural network; A qualitative evaluation value for each evaluation type of the objective information is obtained from each neuron of the output layer of the neural network by recollection of the neural network based on the input, and a set of the obtained qualitative evaluation values is defuzzed. A fuzzy inference method characterized in that the quantitative value of the objective information is inferred by
12.プロセスの入力情報から所定時間後の汚染値を予
測するトンネルの汚染予測装置において、既知の車両通
過台数,汚染値変位,換気力等のプロセス量を学習情報
としこれに対する所定時間後の既知の汚染値を教師情報
として予め学習を完了しているニューラルネットワーク
と、予めプロセス量ごとに定められたメンバーシップ関
数を有して入力された現時点の複数のプロセス量をそれ
ぞれ定性評価値に変換し前記ニューラルネットの入力信
号とするファジィ定性評価手段と、前記ニューラルネッ
トから出力される所定時間後の汚染値に対する定性評価
値の集合をデファジィして該汚染値の定量値を得る定量
化手段を設けることを特徴とするトンネルの汚染予測装
置。
12. In a tunnel pollution prediction device that predicts pollution values after a predetermined time from process input information, process quantities such as the known number of vehicles passing, pollution value displacement, ventilation force, etc. are used as learning information, and the known pollution values after a predetermined time are used as learning information. A neural network that has completed training in advance using values as teacher information and a membership function predetermined for each process quantity convert each of the multiple input process quantities into qualitative evaluation values, and the neural network A fuzzy qualitative evaluation means is provided as an input signal of the network, and a quantification means for defuzzifying a set of qualitative evaluation values for contamination values after a predetermined time outputted from the neural network to obtain a quantitative value of the contamination values. Features: Tunnel pollution prediction device.
JP2329138A 1990-11-26 1990-11-30 Neural network, neural network recall or learning method, and fuzzy inference apparatus using neural network Expired - Fee Related JP2609760B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2329138A JP2609760B2 (en) 1990-11-30 1990-11-30 Neural network, neural network recall or learning method, and fuzzy inference apparatus using neural network
US07/797,534 US5402519A (en) 1990-11-26 1991-11-25 Neural network system adapted for non-linear processing
EP91120155A EP0488150B1 (en) 1990-11-26 1991-11-26 Fuzzy inference system including neural network
DE69132003T DE69132003T2 (en) 1990-11-26 1991-11-26 Fuzzy inference-based system and the neural network it contains
KR1019910021293A KR100243353B1 (en) 1990-11-26 1991-11-26 Neural network system adapted for non-linear processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2329138A JP2609760B2 (en) 1990-11-30 1990-11-30 Neural network, neural network recall or learning method, and fuzzy inference apparatus using neural network

Publications (2)

Publication Number Publication Date
JPH04205163A true JPH04205163A (en) 1992-07-27
JP2609760B2 JP2609760B2 (en) 1997-05-14

Family

ID=18218058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2329138A Expired - Fee Related JP2609760B2 (en) 1990-11-26 1990-11-30 Neural network, neural network recall or learning method, and fuzzy inference apparatus using neural network

Country Status (1)

Country Link
JP (1) JP2609760B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5579439A (en) * 1993-03-24 1996-11-26 National Semiconductor Corporation Fuzzy logic design generator using a neural network to generate fuzzy logic rules and membership functions for use in intelligent systems
US5677609A (en) * 1994-07-28 1997-10-14 National Semiconductor Corporation Intelligent servomechanism controller
US5828812A (en) * 1993-03-24 1998-10-27 National Semiconductor Corporation Recurrent neural network-based fuzzy logic system and method
JP2019512784A (en) * 2016-03-10 2019-05-16 シグニファイ ホールディング ビー ヴィ Contamination estimation system
CN110969559A (en) * 2019-12-23 2020-04-07 北京航星机器制造有限公司 Dangerous goods identification method and system based on threshold system
CN115511230A (en) * 2022-11-23 2022-12-23 国网浙江省电力有限公司宁波供电公司 Electric energy substitution potential analysis and prediction method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5579439A (en) * 1993-03-24 1996-11-26 National Semiconductor Corporation Fuzzy logic design generator using a neural network to generate fuzzy logic rules and membership functions for use in intelligent systems
US5594835A (en) * 1993-03-24 1997-01-14 National Semiconductor Corporation Neural-fuzzy logic control system with adjustable fuzzy logic membership functions
US5606646A (en) * 1993-03-24 1997-02-25 National Semiconductor Corporation Recurrent neural network-based fuzzy logic system
US5828812A (en) * 1993-03-24 1998-10-27 National Semiconductor Corporation Recurrent neural network-based fuzzy logic system and method
US5677609A (en) * 1994-07-28 1997-10-14 National Semiconductor Corporation Intelligent servomechanism controller
JP2019512784A (en) * 2016-03-10 2019-05-16 シグニファイ ホールディング ビー ヴィ Contamination estimation system
CN110969559A (en) * 2019-12-23 2020-04-07 北京航星机器制造有限公司 Dangerous goods identification method and system based on threshold system
CN110969559B (en) * 2019-12-23 2023-05-09 北京航星机器制造有限公司 Dangerous goods identification method and system based on threshold system
CN115511230A (en) * 2022-11-23 2022-12-23 国网浙江省电力有限公司宁波供电公司 Electric energy substitution potential analysis and prediction method
CN115511230B (en) * 2022-11-23 2023-04-07 国网浙江省电力有限公司宁波供电公司 Electric energy substitution potential analysis and prediction method

Also Published As

Publication number Publication date
JP2609760B2 (en) 1997-05-14

Similar Documents

Publication Publication Date Title
KR100243353B1 (en) Neural network system adapted for non-linear processing
El Hatri et al. Fuzzy deep learning based urban traffic incident detection
Idri et al. Can neural networks be easily interpreted in software cost estimation?
US20200125957A1 (en) Multi-agent cooperation decision-making and training method
CN108520155B (en) Vehicle behavior simulation method based on neural network
Ali et al. Application of fuzzy–Neuro to model weather parameter variability impacts on electrical load based on long-term forecasting
Barzegar et al. Formalized learning automata with adaptive fuzzy coloured Petri net; an application specific to managing traffic signals
CN109159785B (en) Automobile driving condition prediction method based on Markov chain and neural network
Tavanaei et al. Training a hidden Markov model with a Bayesian spiking neural network
JPH04205163A (en) Neural network, its remembering or learning method, and fuzzy inference device using the same
Castillo et al. Simulation and forecasting complex economic time series using neural networks and fuzzy logic
Lasfer et al. Neural network design parameters for forecasting financial time series
Yollanda et al. Nonlinear Modeling of IHSG with Artificial intelligence
Yeh et al. Evaluation approach to stock trading system using evolutionary computation
Li et al. An intelligent business forecaster for strategic business planning
CN112287120A (en) Knowledge inference method of dual-system knowledge graph based on reinforcement learning
Fu et al. A fuzzy neural network for knowledge learning
Jamil et al. Dynamic weight-based multi-objective reward architecture for adaptive traffic signal control system
Saneifard Some properties of neural networks in designing fuzzy systems
Huisken Soft-computing techniques applied to short-term traffic flow forecasting
Zhou Combining dynamic neural networks and image sequences in a dynamic model for complex industrial production processes
JPH0895938A (en) Method and device for learning time sequential data
Neagu et al. A neuro-fuzzy approach for functional genomics data interpretation and analysis
COLLANTES-DUARTE et al. Time Series Forecasting using ARIMA, Neural Networks and Neo Fuzzy Neurons
KR20220075025A (en) Neuromorphic computing device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080213

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090213

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090213

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100213

Year of fee payment: 13

LAPS Cancellation because of no payment of annual fees