JPH0573522A - Neural network and its structuring method, and process control system using neural network - Google Patents

Neural network and its structuring method, and process control system using neural network

Info

Publication number
JPH0573522A
JPH0573522A JP3231482A JP23148291A JPH0573522A JP H0573522 A JPH0573522 A JP H0573522A JP 3231482 A JP3231482 A JP 3231482A JP 23148291 A JP23148291 A JP 23148291A JP H0573522 A JPH0573522 A JP H0573522A
Authority
JP
Japan
Prior art keywords
neural network
layer
output
input
neurons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3231482A
Other languages
Japanese (ja)
Inventor
Minoru Koide
実 小出
Haruki Inoue
春樹 井上
Masakazu Yahiro
正和 八尋
Noboru Abe
登 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Engineering Co Ltd
Hitachi Ltd
Original Assignee
Hitachi Engineering Co Ltd
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Engineering Co Ltd, Hitachi Ltd filed Critical Hitachi Engineering Co Ltd
Priority to JP3231482A priority Critical patent/JPH0573522A/en
Priority to US07/797,534 priority patent/US5402519A/en
Priority to EP91120155A priority patent/EP0488150B1/en
Priority to DE69132003T priority patent/DE69132003T2/en
Priority to KR1019910021293A priority patent/KR100243353B1/en
Publication of JPH0573522A publication Critical patent/JPH0573522A/en
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

PURPOSE:To obtain the optimized neural network and its learning and recollection system. CONSTITUTION:The neural network 2 is constituted by arranging neurons corresponding to variables of respective layers of the qualitative cause and effect network of an object process and coupling neurons in adjacent layers which have corresponding variables in cause and effect relation. Variable (a) and (b), and a variable (5) are in AND relation, so neurons (1) and (2) and a neuron (5) in a following layer are coupled by synapses (a) and (b) and neurons (3) and (4) and a neuron (6) are also coupled. The both (subnetwork), however, are not coupled since they do not have cause and effect relation. Consequently, the coupling by synapses is greatly decreased and the optimized neural network which is improved in both the processing ability and precision of learning and recollection is provided.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ニューラルネットワー
クに係り、特に、実時間処理に好適な高速の学習/想起
と、想起対象の定性モデル(定性因果ネットワーク)を
忠実に反映したニューラルネットワークとその応用に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network, and more particularly, to a high-speed learning / recall suitable for real-time processing and a neural network faithfully reflecting a qualitative model (qualitative causal network) of a recall target. Regarding application.

【0002】[0002]

【従来の技術】近年、多くの文献等で紹介されている典
型的なニューラルネットワークは、入力層,出力層およ
び中間層(かくれ層)の多層構成からなり、隣接する層
間の各ニューロンは全てシナップスにより相互に結合さ
れている。その学習方法は誤差逆伝搬学習法といわれ、
ニューラルネットワークの入力に学習パターン(教師信
号)を与え、そのときの出力信号の理想値(教師信号)
に対する偏差を最小にするよう結合度(シナップスの重
み)を調整する方法である。
2. Description of the Related Art In recent years, a typical neural network introduced in many documents has a multi-layered structure of an input layer, an output layer and an intermediate layer (hiding layer), and each neuron between adjacent layers is a synapse. Are connected to each other by. The learning method is called the error backpropagation learning method,
The learning pattern (teacher signal) is given to the input of the neural network, and the ideal value of the output signal at that time (teacher signal)
This is a method of adjusting the degree of coupling (weight of synapse) so as to minimize the deviation with respect to.

【0003】すなわち、入力層ニューロン出力値(教師
信号の入力パターン値)とシナップスの重みの積を演算
後、それらの総和を演算し、総和に対する非線形関数
(たとえばシグモイド関数)を演算し、中間層ニューロ
ン出力値を求める。この中間層ニューロンの出力値とシ
ナップスの重みの積を演算後、それらの総和を演算し、
総和に対する非線形関数(シグモイド関数)を演算し、
出力層ニューロン出力値を求める。そして、前記入力パ
ターンと一対の関係にある既知の出力パターン(教師信
号)と上記出力層ニューロン出力値を比較して、その偏
差が最小となるシナップスの重み修正量を計算し、この
結果を用いて新しい重みに修正する。
That is, after the product of the input layer neuron output value (input pattern value of the teacher signal) and the weight of the synapse is calculated, the sum of them is calculated, and a nonlinear function (for example, a sigmoid function) for the sum is calculated, and the intermediate layer is calculated. Find the neuron output value. After calculating the product of the output value of this hidden layer neuron and the weight of the synapse, the sum of them is calculated,
Calculate the non-linear function (sigmoid function) for the sum,
Output layer neuron output value is obtained. Then, a known output pattern (teacher signal) having a pair of relationships with the input pattern is compared with the output value of the output layer neuron to calculate a synapse weight correction amount that minimizes the deviation, and this result is used. To a new weight.

【0004】以上の手順を繰り返して学習を完了した
後、シナップスの重みは固定され、ニューラルネットワ
ークは実際の装置に移植される。実際の装置でのニュー
ラルネットワークの動作は想起と呼ばれ、教師信号には
無い未知の入力情報に対しても、想起対象、たとえばプ
ロセスの出力情報を得ることができる。想起は、入力情
報とシナップスの重みの積の総和を演算後非線形関数演
算により、中間層ニューロン出力値を求め、同様にし
て、中間層ニューロン出力値とシナップスの重みにより
出力層ニューロン値、すなわち想起結果を得る。
After the above procedure is repeated to complete the learning, the synapse weights are fixed and the neural network is transplanted to an actual device. The operation of the neural network in the actual device is called recollection, and the recollection target, for example, the output information of the process can be obtained even for unknown input information that is not in the teacher signal. Recall is that after calculating the sum of products of input information and synapse weights, the output value of the hidden layer neuron is obtained by the nonlinear function operation, and similarly, the output layer neuron value, that is, recalled, is obtained by the output value of the hidden layer neuron and the synapse weight. Get results.

【0005】なお、上記従来技術は、たとえば「パター
ン認識と学習のアルゴリズム」(文一総合出版)に詳し
い。また、ニューラルネットワークの具体的な回路構成
については、たとえば特開平1−201764 号公報に記載さ
れている。
The above-mentioned prior art is detailed in, for example, "Pattern recognition and learning algorithm" (Sentence General Publishing). A concrete circuit configuration of the neural network is described in, for example, Japanese Patent Laid-Open No. 201764/2017.

【0006】このようなニューラルネットワークの比較
的効果のある応用として、例えば、株価の予測やパター
ン認識がある。これらはある1つの事象、すなわち、株
価の時間的変化や画像分布の特徴を学習し、予測や認識
を行うものである。しかし、プロセスの制御や各種の診
断にニューラルネットを応用する場合は、多種多様のパ
ラメータやアクチュエーターを取扱わねばならなくな
り、これらをそのままニューラルネットワークの入出力
として与えると、学習の収束性,想起の高速性共に実用
に耐えられないことが多い。このように、ニューラルネ
ットワークは、複雑な問題への応用に大きな困難を抱え
ているのが現状である。
The relatively effective application of such a neural network is, for example, stock price prediction and pattern recognition. These are to learn a certain event, that is, a change in stock price over time and a feature of image distribution, and perform prediction and recognition. However, when applying a neural network to process control and various diagnoses, it is necessary to deal with a wide variety of parameters and actuators. If these are directly applied to the input / output of the neural network, the convergence of learning and the speed of recall can be improved. In many cases, both sex cannot be put to practical use. As described above, the neural network currently has great difficulty in application to complicated problems.

【0007】[0007]

【発明が解決しようとする課題】上記従来技術の問題点
を図18の数字のパターン認識を例に説明する。同図
(a)のニューラルネットは、画像を64分割して入力
信号とし、対応する入力層のニューロンも64個であ
る。中間層ニューロンには20個割当ている。出力ニュ
ーロンは0〜9の数字に1個ずつ割当ている。このニュ
ーラルネットによれば同図(b)に比べ、学習は短時間
で収束し、想起の精度も高い。しかし、ニューロン数が
大になるため、想起の速度が遅くなる。
The problems of the above-mentioned prior art will be described by taking the pattern recognition of the numbers in FIG. 18 as an example. In the neural network shown in FIG. 9A, an image is divided into 64 as an input signal, and the corresponding input layer has 64 neurons. Twenty pieces are assigned to the middle-layer neurons. One output neuron is assigned to each number 0-9. According to this neural network, learning converges in a shorter time and recall accuracy is higher than that in FIG. However, since the number of neurons becomes large, the speed of recall becomes slow.

【0008】一方、同図(b)のニューラルネットは、
同じ画像を16分割し、入力層のニューロン16個、中
間層ニューロンを10個、出力層ニューロンを10個と
している。このニューラルネットによれば(a)に比べ
て、ニューロン数が少ないので想起は高速になるが、学
習の収束性,想起の精度は低下する。すなわち、 (1)ニューロンの総数が大きくなると積和演算が膨大
になり、処理性(処理速度)が大きく低下する。
On the other hand, the neural network shown in FIG.
The same image is divided into 16 parts, 16 neurons in the input layer, 10 neurons in the intermediate layer, and 10 neurons in the output layer. According to this neural network, since the number of neurons is smaller than that in (a), the recall is faster, but the convergence of learning and the precision of recall are reduced. That is, (1) When the total number of neurons becomes large, the product-sum calculation becomes enormous, and the processability (processing speed) is greatly reduced.

【0009】(2)ニューロン数の減少は処理素子の減
少となるため、学習時の収束性及び想起の精度が低下す
る。
(2) Since the number of neurons decreases, the number of processing elements decreases, so that the convergence and the accuracy of recall during learning decrease.

【0010】このように、従来技術においては処理性と
精度の間に相反する問題を抱えており、ニューラルネッ
トの現実課題への適用を困難にしている。
As described above, in the conventional technique, there is a contradictory problem between the processability and the accuracy, which makes it difficult to apply the neural network to a real problem.

【0011】このような従来技術の問題点を解決しよう
とする提案も種々行われている。たとえば、特開昭64−
82133 号公報には、学習の過程で沈静化したニューロン
を初期化して再学習させ、数%の精度向上を可能にした
との記載がある。また、特開平1−248268 号公報には、
ニューラルネットの伝搬処理を、複数の並列演算回路と
パイプライン処理によって処理速度の向上を計ることが
提案されている。
Various proposals have been made to solve the problems of the prior art. For example, JP-A-64-
The publication No. 82133 describes that a neuron that has been calmed down during the learning process is initialized and re-learned, thereby improving the accuracy by several percent. Further, JP-A-1-248268 discloses that
It has been proposed to improve the processing speed of the neural network propagation processing by using a plurality of parallel arithmetic circuits and pipeline processing.

【0012】しかし、これらの解決案はいずれも、情報
処理的な効率化ないし高速化によるもので、上記処理性
の向上と高精度化の課題に本質的な解決を与えるものに
はなっていない。
[0012] However, all of these solutions are based on the efficiency or speedup of information processing, and do not give an essential solution to the above-mentioned problems of improvement in processability and accuracy. ..

【0013】最近、脳をいろいろなサブシステムの集合
体と考えて、その構成するサブシステムの中身を解明
し、脳の本質を把えようとする研究が行なわれている。
これは脳をニューラルネットによってモデリングする
際、ネットワークの構成をできるだけ小さく、つまり最
適化を図るのに役立つと思われる。しかし、現状は、サ
ブシステムの有効な分割方法が提案されるには至ってい
ない。
Recently, studies have been conducted to consider the brain as an assembly of various subsystems, to elucidate the contents of the constituent subsystems, and to grasp the essence of the brain.
This seems to be useful when trying to optimize the network structure as much as possible when modeling the brain with a neural network. However, at present, no effective partitioning method for subsystems has been proposed.

【0014】本発明の目的は、上記従来方法の問題点を
解決し、処理速度と処理精度の向上を可能にする最適化
されたニューラルネットワークの構成とその構築方法を
提供することにある。
An object of the present invention is to solve the problems of the above-mentioned conventional method and to provide an optimized neural network configuration and its construction method that enable improvement of processing speed and processing accuracy.

【0015】本発明の他の目的は、処理精度を低下させ
ることなく、早期に収束可能なニューラルネットワーク
の学習方式を提供することにある。
Another object of the present invention is to provide a learning method of a neural network which can converge early without deteriorating the processing accuracy.

【0016】本発明のさらに他の目的は、最適化された
ニューラルネットワークの好ましい適用の1つであるプ
ロセス制御方法および装置を提供することにある。
Yet another object of the present invention is to provide a process control method and apparatus which is one of the preferred applications of the optimized neural network.

【0017】[0017]

【課題を解決するための手段】本発明は対象物の次のよ
うな性質に着目してなされたものである。たとえば、あ
るプロセス(自然事象による、よらないのいずれでもよ
いが)においては、その挙動に応じて変動する多数の定
量的ないし定性的プロセス情報の間に直接的な因果関係
にあるものと、そうでないものとがある。つまり、情報
で表される事象の全てがプロセス内で有機的に結合して
いるわけではなく、事象間の因果関係が積み上げられ
て、全体の動きが決定されているとも言える。なお、本
発明における因果関係とは、プロセスの任意工程での事
象が後続工程の事象の直接的な一因になるものであり、
事象間が原因(または原因の一部)と結果(または結果
の一部)の関係にあるものを言う。
The present invention was made by paying attention to the following properties of an object. For example, in a process (whether natural or not), there is a direct causal relationship between a large number of quantitative or qualitative process information that fluctuates according to its behavior. Some are not. In other words, it cannot be said that not all the events represented by information are organically connected in the process, but the causal relationship between the events is accumulated to determine the overall movement. The causal relationship in the present invention means that an event at an arbitrary step of the process directly contributes to an event at a subsequent step,
An event has a relationship between a cause (or part of the cause) and an effect (or part of the result).

【0018】本発明は、対象物において記述上は変数と
して扱われる事象間の直接的,定性的因果関係を単位と
するサブ・ニューラルネット(以下、サブ・ネット)を
基本構成とし、このサブ・ネットを積み上げることで、
定性的に無意味な結合を排除し、最適化されたニューラ
ルネットワークを構成するところに特徴がある。
The present invention has a basic structure of a sub-neural net (hereinafter referred to as a sub-net) whose unit is a direct and qualitative causal relationship between events which are treated as variables in the object. By stacking the nets,
It is characterized by eliminating qualitatively meaningless connections and constructing an optimized neural network.

【0019】本発明は、定性的モデルの記述法の1つで
ある定性的因果ネットワークに基づき、その変数間の定
性的因果関係によってサブ・ネット、すなわち、直接結
合されるニューロン間を定義し、これを順次、各層のニ
ューロンに広げることでニューラルネットワークを構築
するものである。
The present invention is based on a qualitative causal network which is one of the description methods of a qualitative model, and defines a sub-net, that is, between directly connected neurons by a qualitative causal relationship between the variables, The neural network is constructed by sequentially expanding this to the neurons of each layer.

【0020】本発明のニューラルネットワークの学習方
法は、最初に定性的因果関係によって結合関係を定義さ
れたニューロン間についてのみ処理を行うところに特徴
がある。
The neural network learning method of the present invention is characterized in that processing is first performed only between neurons whose connection relation is defined by a qualitative causal relation.

【0021】本発明のニューラルネットワークの想起方
法は、定性的因果関係によって結合されたニューロン間
についてのみ処理を行うところに特徴がある。
The neural network recall method of the present invention is characterized in that processing is performed only between neurons connected by a qualitative causal relationship.

【0022】本発明のプロセス制御方法は、プロセス挙
動の定性的予測に、たとえばファジイ理論に替えて、定
性的因果ネットワークを移植したニューラルネットワー
クを用いておこなうことに特徴がある。
The process control method of the present invention is characterized in that the qualitative prediction of the process behavior is performed by using a neural network into which a qualitative causal network is transplanted instead of the fuzzy theory, for example.

【0023】[0023]

【作用】本発明のニューラルネットワークによれば、入
力情報と想起目標との先験的定性因果ネットワークに基
づいて、ニューラルネットワークの分割単位が明確にな
り、因果関係のあるサブ・ネットを積み上げているの
で、構成が最適化され処理性と精度を同時に向上するこ
とができる。
According to the neural network of the present invention, the division unit of the neural network is clarified based on the a priori qualitative causal network of the input information and the recall target, and the sub-nets having a causal relationship are accumulated. Therefore, the configuration is optimized and the processability and accuracy can be improved at the same time.

【0024】また、相関の無いニューロン同志のシナッ
プス結合、つまり仮死シナップスのようなものは、最初
から除かれているので、ニューラルネットワークの学習
に冗長な動作がなく、短時間の学習で収束できる。
Further, since synapse connections of uncorrelated neurons, that is, asphyxia synapses, are removed from the beginning, there is no redundant operation in the learning of the neural network and the learning can be converged in a short time.

【0025】さらに、本発明のプロセス制御方式によれ
ば、定性推論にプロセスの定性因果ネットワークを移植
したかのように振る舞う最適化ニューラルネットワーク
を用いているので、制御システムの構築が容易で、しか
も精度の高い予測とそのリアルタイム処理が実現でき
る。
Further, according to the process control method of the present invention, since the optimized neural network that behaves as if a qualitative causal network of the process is transplanted is used for the qualitative inference, the control system can be easily constructed and Highly accurate prediction and its real-time processing can be realized.

【0026】本発明の最適化ニューラルネットとその学
習機能によれば、従来のファジィ推論を高精度に代替可
能であり、しかも、ファジイ理論を複雑なプロセスに適
用する上の隘路であったメンバーシップ関数のチューニ
ングや推論ルールの定義をまったく不要にする。
According to the optimized neural network and its learning function of the present invention, the conventional fuzzy reasoning can be replaced with high accuracy, and the membership is a bottleneck in applying the fuzzy theory to a complicated process. It eliminates the need for function tuning and inference rule definitions.

【0027】[0027]

【実施例】以下、本発明の一実施例を図1〜図7を参照
して説明する。図2は本発明のニューラルネットワーク
の構築,学習および想起をおこなう装置の基本構成を示
し、通常エキスパートシステムとして実現される。この
装置には、プログラムにしたがって演算や制御をする中
央処理装置とプログラムやデータを記憶するメモリを有
する計算機装置10,オペレータの指示入力や処理結果
の表示をするマンマシン装置11,入力信号または学習
のための教師信号を入力する入力装置12,想起信号の
出力をおこなう出力装置13で構成される。計算機装置
10には、ニューラルネットワークを定義するための定
義手段15,学習または想起を実行する学習/想起手段
16,定義または学習されたニューラルネットワークの
格納手段18、これらの装置や手段を直接またはインタ
ーフェイス19を介して制御する演算制御手段17を備
える。上記実施例で、手段15,16および17はプロ
グラムによって実現され、ニューラルネットワークはニ
ューロン、ニューロンの結合関係およびシナップスの重
みをファイルに記憶して構成している。もちろん、これ
らを公知のハードウエアによって構成することも可能で
ある。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to FIGS. FIG. 2 shows a basic configuration of an apparatus for constructing, learning and recalling a neural network of the present invention, which is usually realized as an expert system. This apparatus includes a central processing unit that performs calculation and control according to a program and a computer apparatus 10 that has a memory that stores programs and data, a man-machine apparatus 11 that inputs instructions from an operator and displays processing results, an input signal or learning. The input device 12 for inputting a teacher signal for input and the output device 13 for outputting a recall signal. The computer device 10 includes a defining unit 15 for defining a neural network, a learning / remembering unit 16 for executing learning or recollection, a storing unit 18 for the defined or learned neural network, and these devices or units directly or through an interface. An arithmetic control unit 17 for controlling via 19 is provided. In the above embodiment, the means 15, 16 and 17 are realized by a program, and the neural network is constructed by storing the neurons, the connection relations of the neurons and the weights of the synapses in a file. Of course, these may be configured by known hardware.

【0028】図3は上記学習/想起手段16を学習手段
として機能させる場合の構成である。学習手段16は制
御手段17によって学習パターンを入力され、メモリ1
8に記憶されているニューラルネットワークに基づい
て、ニューロン出力値とシナップス重みの積和値の非線
形関数演算を各層について順次行い、出力値h(x)を出
力する想起演算手段161と、既知の教師パターンd
(x)とh(x)の誤差を最小にするシナップスの重み演算
修正手段162からなる。
FIG. 3 shows a configuration in which the learning / remembering means 16 functions as a learning means. The learning means 16 is input with the learning pattern by the control means 17, and the memory 1
Based on the neural network stored in FIG. 8, the non-linear function calculation of the product sum value of the neuron output value and the synapse weight is sequentially performed for each layer, and the recollection calculation unit 161 that outputs the output value h (x) and the known teacher Pattern d
It comprises a synapse weight calculation correction means 162 for minimizing the error between (x) and h (x).

【0029】このように構成されている本実施例におい
て、ニューラルネットワークの定義は、図1(a)に示
す定性因果ネットワークに基づいて、同図(b)に示す
ニューラルネットワークのシナップスの結合状態を定め
る。
In the present embodiment having such a configuration, the definition of the neural network is based on the qualitative causal network shown in FIG. 1A, and the synapse connection state of the neural network shown in FIG. Establish.

【0030】ここで、定性因果ネットワークとは、プロ
セスなどのモデルを、事象を表す多数の情報(記述上は
変数で表される)間の定性的な因果関係に基づいて、そ
の入力情報から出力情報までの結合関係を階層的に記述
したものである。このような定性因果ネットワークは、
数式等による定量的な表現は困難であるが入出力の因果
関係がある程度わかっているような対象について、経験
ルールやファジイルールによる定性的推論を行う場合
に、そのモデルを与えるものとして利用されていて、た
とえば、本願出願人による特開平1−243102 号公報など
にその実例が詳述されている。
Here, the qualitative causal network means that a model such as a process is output from its input information based on a qualitative causal relationship between a large number of information (represented by variables in the description) representing an event. It is a hierarchical description of the connection relationship to information. Such a qualitative causal network is
It is used as a model for qualitative inference using empirical rules and fuzzy rules for objects for which it is difficult to express quantitatively using mathematical formulas, but the causal relationship between input and output is known to some extent. For example, an actual example thereof is described in detail in, for example, Japanese Patent Application Laid-Open No. 1-243102 by the applicant of the present application.

【0031】図1(a)における定性因果ネットワーク
は、第1層から第3層でなり、事象(情報)を表す変数
集合は丸付き数字〜で記述される。因果ネットワー
クの入力は第1層の入力変数〜、ネットワークの出
力は第3層の出力変数が対応し、第2層の変数は
第1層の出力変数である。同図において、各変数の左上
の#数字は層ごとの変数の一貫番号である。各変数間の
定性的因果関係は、変数,と変数が論理積(AN
D),変数,と変数が論理積(AND),変数,
と変数がコンビネーション(COMB)を示してい
る。
The qualitative causal network in FIG. 1A is composed of the first to third layers, and the variable set representing the event (information) is described by circled numbers ~. The input of the causal network corresponds to the input variables of the first layer, the output of the network corresponds to the output variable of the third layer, and the variable of the second layer is the output variable of the first layer. In the figure, the # number at the upper left of each variable is the consistent number of the variable for each layer. The qualitative causal relationship between each variable is
D), the variable, and the logical product (AND), the variable,
And the variable indicate the combination (COMB).

【0032】本発明のニューラルネットワークは同図
(b)のように、入力層,中間層および出力層の3層構
造において、定性因果ネットワークの変数〜に対応
させてニューロン〜を定義し、かつ、因果ネットの
変数間に結合関係があるニューロン間のみを重み付きシ
ナップスa〜fで接続する。この結果、入力層の入力ニ
ューロン,はシナップスa,bで中間層のニューロ
ンと結合されて1つのサブ・ネットを構成する。ま
た、入力ニューロン,はシナップスc,dで中間層
のニューロンと結合されてもう1つのサブ・ネットを
構成する。中間層のニューロン,はシナップスe,
fで出力層のニューロンと結合されて別のサブ・ネッ
トを構成する。
The neural network of the present invention defines a neuron ~ in a three-layer structure of an input layer, an intermediate layer and an output layer as shown in FIG. Only weighted synapses a to f connect only the neurons having the connection relation between the variables of the causal net. As a result, the input neurons in the input layer are connected to the neurons in the intermediate layer at the synapses a and b to form one sub-net. The input neuron is connected to the neurons of the intermediate layer by synapses c and d to form another sub net. The neurons in the middle layer are synapses e,
At f, it is connected to the neurons in the output layer to form another sub-net.

【0033】このように、同一層間の複数のサブ・ネッ
トは互いに独立して並列配置し、他層間のサブ・ネット
とは直列に結合するようにニューラルネットワークが定
義される。あたかも、因果ネットワークを投影的にニュ
ーラルネットワークに移植したような構成になってい
る。
As described above, a neural network is defined so that a plurality of sub-nets in the same layer are arranged in parallel independently of each other and are connected in series with sub-nets in other layers. It is as if the causal network was projected into a neural network.

【0034】つぎに、図1に示した定性因果ネットワー
クからニューラルネットワークを定義(構築)する処理
手順を、図4の定義処理フローによって説明する。
Next, the processing procedure for defining (constructing) a neural network from the qualitative causal network shown in FIG. 1 will be described with reference to the definition processing flow of FIG.

【0035】ステップ1(S101);定性因果ネット
ワークの変数定義 ここでは、定性因果ネットワークの全ての変数No(入
力側から一貫番号で付与)、変数名称などをマン・マシ
ン装置11から設定し、図5(a)に示すように定性因
果ネットワーク記憶ファイルに格納する。
Step 1 (S101): Definition of variables of qualitative causal network Here, all variable Nos of the qualitative causal network (given by consistent numbers from the input side), variable names, etc. are set from the man-machine device 11, and 5 (a), store in qualitative causal network storage file.

【0036】ステップ2(S102);定性因果関係の
定義 S101で定義された変数Noを用いて、複数の入力変
数と一の出力変数との定性因果関係の最小単位を図5
(b)のように設定する。
Step 2 (S102); Definition of Qualitative Causal Relationship Using the variable No defined in S101, the minimum unit of the qualitative causal relationship between a plurality of input variables and one output variable is shown in FIG.
Set as shown in (b).

【0037】ステップ3(S103);定性因果ネット
ワークの定義 図5(b)のファイル内容から、入力変数Noにしか現
れない変数Noを第1層に、出力変数Noにしか現れな
い変数Noを最終層に、他の変数はその定性因果関係か
ら逐次各層に自動的に割当て、図5(c)に示す各層ご
との変数Noとその順番がファイルに格納され、因果ネ
ットワークが定義される。なお、変数Noを一貫番号順
に割当ているので、層を飛び越えて変数が関係している
場合でも自動定義は可能である。
Step 3 (S103): Definition of Qualitative Causal Network From the contents of the file in FIG. 5B, the variable No that appears only in the input variable No. is the first layer, and the variable No that appears only in the output variable No. is final. Other variables are automatically assigned to each layer sequentially from the qualitative causal relationship to the layers, and the variable No. and its order for each layer shown in FIG. 5C are stored in a file to define a causal network. Since the variable Nos are assigned in the order of the consistent numbers, automatic definition is possible even when the variables are related across layers.

【0038】ステップ4(S104);ニューロン定義 ここでは、図5(a)の変数定義に基づいて、同数のニ
ューロンNo(一貫番号で付与)とその名称が図6
(a)のように自動生成される。変数とニューロンは
1:1とは限らず、各変数ごとに1:n(n=1,2,
…)であってもよいが、これについては他の実施例で説
明する。
Step 4 (S104); Neuron Definition Here, based on the variable definition of FIG. 5A, the same number of neurons No (assigned with a consistent number) and their names are shown in FIG.
It is automatically generated as shown in (a). Variables and neurons are not always 1: 1 but 1: n (n = 1, 2,
...), but this will be described in another embodiment.

【0039】ステップ5(S105);ニューロンと変
数の対応定義 S101で設定した全ての変数Noにたいし、S104
で自動生成されたニューロンNoが図6(b)のように
自動的に対応づけられる。
Step 5 (S105); Correspondence definition of neuron and variable S104 for all variables No set in S101
The neuron No. automatically generated in step 6 is automatically associated as shown in FIG.

【0040】ステップ6(S106);シナップス結合
状態の定義 最終ステップとして、各ニューロン間のシナップスの結
合状態を図7に示すフローで定義し、図8のシナップス
結合状態ファイルに記憶する。ステップS201でシナ
ップス結合状態ファイルは全て、結合無し状態に初期化
される。S202は以下の処理を第2層から最終層(最
大層)まで繰返し、S203は以下の処理を当該層の最
小ニューロンNoから最大ニューロンNoまで繰返し実
行する。S204はシナップスの結合有無の判定部で、
当該ニューロンが前層のニューロンと結合状態にあるか
定性因果関係ファイル(ステップS102)に基づいて判定
する。図1の例では、第2層のニューロンNo=(j
=1)と第1層のニューロンNo=(i=1)とニュ
ーロンNo=(i=2)に因果関係があるので、図8
の第2層(i,j)ファイルのi=1,j=1およびi
=2,j=1に、それぞれ1を記憶(S205)する。
Step 6 (S106): Definition of Synapse Connection State As the final step, the connection state of synapses between the neurons is defined by the flow shown in FIG. 7, and stored in the synapse connection state file of FIG. In step S201, all the synapse connection state files are initialized to the non-connection state. In S202, the following process is repeated from the second layer to the final layer (maximum layer), and in S203, the following process is repeatedly executed from the minimum neuron No. to the maximum neuron No. of the layer. S204 is a determination unit for the presence or absence of synapse binding,
It is determined whether or not the neuron is connected to the previous neuron based on the qualitative causal relationship file (step S102). In the example of FIG. 1, the second layer neuron No = (j
= 1) and the neuron No = (i = 1) of the first layer and the neuron No = (i = 2) have a causal relationship.
Of the second layer (i, j) file of i = 1, j = 1 and i
= 2, j = 1, and 1 is stored (S205).

【0041】シナップス結合状態ファイルは、ニューラ
ルネットの第1層と第2層の間の結合状態を第2層
(i,j)ファイル上に、第2層と第3層の間の結合状
態を第3層(j,k)ファイル上に…という具合に最終
層まで用意される。各層のニューロン数はS103で定
義された定性因果ネットワークのファイルとS105で定義
された変数NoとニューロンNoの対応から求めること
ができる。ちなみに、図1に示した定性因果ネットワー
クとニューラルネットワークの場合、第2層(i,j)
ファイルではn=4,m=2となり、第3層(j,k)
ファイルではm=2,l=1となる。後述する学習/想
起におけるニューロンの興奮度計算は、このファイルを
参照して結合の有るニューロン間についてのみ演算がお
こなわれる。
The synapse connection state file stores the connection state between the first and second layers of the neural network on the second layer (i, j) file and the connection state between the second and third layers. On the 3rd layer (j, k) file, the final layer is prepared such as ... The number of neurons in each layer can be obtained from the file of the qualitative causal network defined in S103 and the correspondence between the variable No and the neuron No defined in S105. By the way, in the case of the qualitative causal network and the neural network shown in FIG. 1, the second layer (i, j)
In the file, n = 4 and m = 2, and the third layer (j, k)
In the file, m = 2 and l = 1. In the calculation of the degree of excitement of neurons in learning / remembering, which will be described later, this file is referred to and the calculation is performed only between connected neurons.

【0042】このように本発明によれば、定性因果ネッ
トワークの変数と変数間の因果関係に基づいて自動定義
され、従来のように学習によって死亡する無駄な結合の
ない、最適化されたニューラルネットワークが構成され
る。なお、図1のネットワークや上記ステップS101
〜S106の各ファイルは、マン・マシン装置11に画
面表示できるので、オペレータは定義状況の確認が可能
となる。
As described above, according to the present invention, the optimized neural network is automatically defined based on the variables of the qualitative causal network and the causal relationships between the variables, and does not have the wasteful connection that would die by learning as in the conventional case. Is configured. It should be noted that the network of FIG.
Since each file of S106 to S106 can be displayed on the man-machine device 11 on the screen, the operator can confirm the definition status.

【0043】つぎに、本発明によるニューラルネットワ
ークの学習方法について説明する。学習は周知の誤差逆
伝搬学習方法を基本としており、その概要を説明する。
Next, the learning method of the neural network according to the present invention will be described. Learning is based on the well-known error back-propagation learning method, and its outline will be described.

【0044】図3に示すように、学習パターン集合X=
{x1,x2,…xn}と、xに対する教師情報d(x)が
与えられた場合、定義されているニューラルネットワー
クは以下のように学習を行なう。
As shown in FIG. 3, the learning pattern set X =
Given {x 1 , x 2 , ... X n } and teacher information d (x) for x, the defined neural network performs learning as follows.

【0045】(1)中間層ニューロン出力値演算:入力
層ニューロン出力値、すなわち学習パターン値とシナッ
プスの重みの積を演算後、それらの総和を演算し、総和
に対する非線形関数を演算し、中間層ニューロン出力値
を求める。
(1) Intermediate layer neuron output value calculation: After calculating the input layer neuron output value, that is, the product of the learning pattern value and the weight of the synapse, the sum of them is calculated, and the nonlinear function for the sum is calculated, and the intermediate layer is calculated. Find the neuron output value.

【0046】[0046]

【数1】 [Equation 1]

【0047】ここで、Wijは入力ニューロンiと中間ニ
ューロンj間を結合するシナップスの重み係数で正,ゼ
ロ,負の値をとる実数値。xi(i=0…n)は入力層ニ
ューロンの出力値。yj は中間層ニューロンの出力値、
σはニューロン出力の非線形性を得るためのシグモイド
関数で、〔数2〕で表される。
Here, W ij is a weighting coefficient of the synapse connecting the input neuron i and the intermediate neuron j, and is a real value that takes positive, zero, or negative values. x i (i = 0 ... n) is the output value of the input layer neuron. y j is the output value of the hidden layer neuron,
σ is a sigmoid function for obtaining the nonlinearity of the neuron output, and is represented by [Equation 2].

【0048】[0048]

【数2】 [Equation 2]

【0049】(2)出力層ニューロン出力値演算:上記
(1)で求めた中間層ニューロンの出力値yi と中間層
と出力層のニューロン間を結合するシナップスの重みの
積を演算後、それらの総和を演算し、総和に対するシグ
モイド関数を演算し、出力層ニューロン出力値を求め
る。
(2) Output layer neuron output value calculation: After calculating the product of the output value y i of the intermediate layer neuron obtained in (1) above and the synaptic weights connecting the neurons of the intermediate layer and the output layer, Is calculated, a sigmoid function for the sum is calculated, and the output layer neuron output value is obtained.

【0050】[0050]

【数3】 [Equation 3]

【0051】ここで、zk は出力層ニューロンkの出力
値、vjkは中間層ニューロンjと出力層ニューロンk間
を結合するシナップスの重み係数で正,ゼロ,負の値を
とる実数値。
Here, z k is the output value of the output layer neuron k, and v jk is a weight value of the synapse connecting the intermediate layer neuron j and the output layer neuron k, and is a real value that takes positive, zero, or negative values.

【0052】(3)シナップスの重み修正量演算:既知
の入力X(x∈X)に対する教師パターンd(X)と上
記(2)で得られたニューラルネットワークの出力zk
(=hk(X))との誤差を最小にするシナップスの重み修
正量δ2k(X)とδ1j(X)を計算する。
(3) Calculation of synapse weight correction amount: teacher pattern d (X) for a known input X (xεX) and output z k of the neural network obtained in (2) above.
The synapse weight correction amounts δ 2k (X) and δ 1j (X) that minimize the error from (= h k (X)) are calculated.

【0053】[0053]

【数4】 [Equation 4]

【0054】ここで、α(X)は入力ベクトルXに対す
る、出力ベクトルh(X)の近さに関する重要度合で、
既知項目である。
Where α (X) is the degree of importance of the proximity of the output vector h (X) to the input vector X,
It is a known item.

【0055】[0055]

【数5】 [Equation 5]

【0056】(4)重み修正:現在のシナップスの重み
jK,wijを上記(3)の結果を用いて、新しい重みv
jK,wijに修正する。
(4) Weight correction: The new weight v jK and w ij of the current synapse are calculated by using the result of the above (3).
Modify to jK and w ij .

【0057】[0057]

【数6】 [Equation 6]

【0058】[0058]

【数7】 [Equation 7]

【0059】以上が誤差逆伝搬学習方法である。上記の
過程、特に〔数1〕,〔数3〕に示されるニューロン出
力と重み係数の積演算回数は、図9(a)に示す全ニュ
ーロン間が結合される従来のニューラルネットワークで
は膨大なものになる。
The above is the error backpropagation learning method. The above process, particularly the number of times the product of the neuron output and the weighting coefficient shown in [Equation 1] and [Equation 3] is calculated, is enormous in the conventional neural network shown in FIG. become.

【0060】これにたいし図9(b)に示すように、本
発明のニューラルネットワークにおいては、入力層と中
間層または中間層と出力層など隣接層の結合関係は、ニ
ューロンの有限部分集合(Xa)と(Yb)および(X−
Xa)と(Y−Yb)に2分割される。したがって、上
記〔数1〕の演算も
On the other hand, as shown in FIG. 9B, in the neural network of the present invention, the connection relation between the input layer and the intermediate layer or the adjacent layer such as the intermediate layer and the output layer is a finite subset of neurons ( Xa) and (Yb) and (X-
Xa) and (Y-Yb). Therefore, the calculation of [Equation 1] is also

【0061】[0061]

【数8】 [Equation 8]

【0062】[0062]

【数9】 [Equation 9]

【0063】に分割され、積演算の回数は〔数1〕、す
なわち、同図(a)の分割前に比べ1/2に減少する。
もちろん、n分割すれば積演算の回数は1/nに減少す
るので、そのぶん学習を高速に行うことができる。
The number of product operations is divided into [Equation 1], that is, the number of product operations is reduced to 1/2 as compared with that before the division in FIG.
Of course, the number of product operations is reduced to 1 / n if it is divided into n, so that the learning can be performed at high speed.

【0064】つぎに、本発明の最適化ニューラルネット
ワークが単に、結合関係の削減にとどまらず、定性因果
ネットワークの性質(定性的因果関係)を保持して構成
されていることを説明する。
Next, it will be explained that the optimized neural network of the present invention is configured not only to reduce the connection relation but also to retain the property of the qualitative causal network (qualitative causal relation).

【0065】図10(a)は定性因果ネットワークによ
って記述されたMAX−MIN合成法とよばれるファジ
イ推論モデルの一例である。その推論方法は条件部にお
いてはANDの定性関係であり、
FIG. 10A is an example of a fuzzy inference model called MAX-MIN composition method described by a qualitative causal network. The reasoning method is a qualitative relation of AND in the conditional part,

【0066】[0066]

【数10】 [Equation 10]

【0067】と、変数x1 の適合度ty1と変数x2の適
合度ty2のうち、最小のものを変数yの適合度ty とす
る。
[0067] and, among the adaptability ty 2 fitness ty 1 and variables x 2 variables x 1, and adaptability ty of the variable y the smallest.

【0068】一方、結論部における適合度の推論はコン
ビネーション(COMB)の定性関係であり、
On the other hand, the reasoning of the goodness of fit in the conclusion part is a qualitative relation of the combination (COMB),

【0069】[0069]

【数11】 [Equation 11]

【0070】と、ty1,ty2のうち最大のものを変数y
の適合度ty とする。
Then, the maximum one of ty 1 and ty 2 is set to the variable y.
Let ty be the goodness of fit.

【0071】このファジイ推論モデルは、定量的に把握
できないプロセスをモデル化するのに秀れているが、プ
ロセス量と適合度の関係式であるメンバーシップ関数の
チューニングに長時間を要し、これが複雑なプロセスへ
の適用を困難にしている。
This fuzzy inference model is excellent in modeling a process that cannot be grasped quantitatively, but it takes a long time to tune the membership function, which is a relational expression between the process amount and the goodness of fit. Makes it difficult to apply to complex processes.

【0072】一方、図10(b)に示すように、本発明
のニューラルネットの学習はプロセス量x1,x2に対す
る積和関数をS、出力値の適合度をty とすれば
On the other hand, as shown in FIG. 10B, in the learning of the neural network of the present invention, if the product-sum function for the process quantities x 1 and x 2 is S and the fitness of the output value is ty,

【0073】[0073]

【数12】 [Equation 12]

【0074】となる。したがって、上記ANDやCOM
Bなどの関係は、学習の過程でシナップスの結合状況
(重み係数w1,w2,…)に反映され、結果的に収束時
の重み係数はこれら定性関係を含んで調整される。これ
は、プロセス量とプロセス制御量との変換形が、重み係
数を最適値に調整されたニューラルネットワークとして
具現されていることを意味し、実質的に定性因果ネット
ワークを移植したものと等価になる。
It becomes Therefore, the above AND and COM
The relationship such as B is reflected in the synapse connection status (weighting coefficients w 1 , w 2 , ...) In the learning process, and as a result, the weighting coefficient at the time of convergence is adjusted to include these qualitative relationships. This means that the conversion form of the process quantity and the process control quantity is embodied as a neural network in which the weighting coefficient is adjusted to the optimum value, which is substantially equivalent to the transplantation of the qualitative causal network. ..

【0075】学習を完了したのち、シナップスの重みは
固定され、ニューラルネットワークは実装置の想起手段
となる。図3の実施例のように、想起装置は入力データ
をニューラルネットワークの入力層と適合させる入力装
置12を介して取り込み、上述した学習のステップ
(1),(2)と同じ前向き伝搬演算を行う。このとき
積演算はシナップス結合状態ファイルを参照して行われ
る。この結果、出力層に得られる想起出力は、原因入力
に対する診断結果や現状入力に対する将来予測であり、
出力装置13を介して適宜、変換して出力される。ある
いは、マン・マシン装置11に表示される。
After the learning is completed, the weights of the synapses are fixed, and the neural network becomes a recollecting means of the real device. As in the embodiment of FIG. 3, the recollection device takes in input data via the input device 12 adapted to the input layer of the neural network and performs the same forward-propagation operation as in steps (1) and (2) of the learning described above. .. At this time, the product operation is performed by referring to the synapse connection state file. As a result, the recall output obtained in the output layer is the diagnostic result for the cause input or the future prediction for the current input,
The data is appropriately converted and output via the output device 13. Alternatively, it is displayed on the man-machine device 11.

【0076】本実施例の想起によれば、ニューラルネッ
トの結合が、処理速度と精度の両面から最適化されてい
るので、想起の処理性,精度は共に向上する。さらにメ
ンバーシップ関数を用いることなく、ファジイ推論と同
程度の定性推論が簡単に実現できる。
According to the recall of the present embodiment, since the connection of the neural nets is optimized in terms of both processing speed and precision, both the recall processability and precision are improved. Furthermore, qualitative reasoning similar to fuzzy reasoning can be easily realized without using a membership function.

【0077】つぎに、本発明の他の態様であるプロセス
制御装置を図11〜図17によって説明する。図11は
実プロセスの一例であるトンネル換気プロセスの概略を
示したものである。トンネル換気制御は、交通量などの
プロセス量から煤煙の汚染量VIを予測することによ
り、集塵機やジエットファンに対する運転操作量Mを求
めて制御し、汚染量を基準範囲内に維持しようとするも
のである。
Next, a process control device according to another embodiment of the present invention will be described with reference to FIGS. FIG. 11 shows an outline of a tunnel ventilation process which is an example of an actual process. Tunnel ventilation control seeks and controls the operation amount M for dust collectors and jet fans by predicting the pollution amount VI of soot and smoke from process amounts such as traffic volume, and tries to maintain the pollution amount within a standard range. Is.

【0078】図12は本実施例のプロセス制御装置30
の構成を示し、トンネル換気プロセスに適用した例であ
る。推論装置31は入出力インターフェイス32と因果
ネットワークで最適化されたニューラルネットワーク3
3から構成され、プロセス入力装置34,プロセス出力
装置35を介してプロセス40とつながっている。
FIG. 12 shows the process control device 30 of this embodiment.
This is an example of applying the method to a tunnel ventilation process. The inference device 31 uses the input / output interface 32 and the neural network 3 optimized by the causal network.
3 and is connected to the process 40 via the process input device 34 and the process output device 35.

【0079】プロセス量の測定機31によって測定され
る時刻t(現在)における大型台車数の変位ΔTBt
(台/5分),車速の変位ΔTSt(km/h),汚染
量の変位ΔVIt(%),交通量の変位ΔTRt(台/
5分),自然風速WNt(m/s),機械換気量の変位
ΔMt(m3/s)を、プロセス入力装置34によって周
期的(この例は5分)に取り込む(変位は前回値との差
分で求める)。各プロセス量はインターフェイス32で
適合化されニューラルネットワーク33に入力される。
ニューラルネットワーク33では、t+1時刻の汚染量
変位ΔVIt+1を上記した〔数1〕〜〔数3〕の想起演
算によって予測し、汚染量が基準内に維持されるように
プロセス出力装置35で制御機器の操作量(現在制御量
からの可変量)を求めて制御機器42に出力する。想起
演算はシナップスの結合に応じておこなわれる。
Displacement ΔTBt of the number of large trucks at time t (current) measured by the process quantity measuring machine 31
(Vehicle / 5 minutes), displacement of vehicle speed ΔTSt (km / h), displacement of pollution amount ΔVIt (%), displacement of traffic amount ΔTRt (vehicle /
5 minutes), the natural wind speed WNt (m / s), and the displacement ΔMt (m 3 / s) of the mechanical ventilation volume are periodically (5 minutes in this example) taken in by the process input device 34 (the displacement is the same as the previous value). Calculated by the difference). Each process amount is adapted by the interface 32 and input to the neural network 33.
In the neural network 33, the pollution amount displacement ΔVIt + 1 at time t + 1 is predicted by the recall operation of [Equation 1] to [Equation 3], and the process output device 35 controls so that the contamination amount is maintained within the standard. The operation amount of the device (variable amount from the current control amount) is obtained and output to the control device 42. The recall operation is performed according to the synapse connection.

【0080】つぎに、トンネル換気プロセスの定性因果
ネットワークとこれに基づくニューラルネットワーク3
3の構成方法を説明する。図13はトンネル換気プロセ
スの定性因果ネットワークを示したものである。現在時
刻tの大型車台数,車速,汚染量の各変位(t−1から
の)はトンネル内汚染量変位と因果関係にある。また、
交通量,機械換気量の各変位および自然風速は総合換気
量変位と因果関係にある。さらに、トンネル内汚染量変
位および総合換気量変位は一定時間後(t+1)の予測汚
染量変位と因果関係にある。このように、プロセスの要
因となる情報とその因果関係が、因果ネットワークから
先験情報として得られる。
Next, the qualitative causal network of the tunnel ventilation process and the neural network 3 based on it.
The configuration method of No. 3 will be described. FIG. 13 shows a qualitative causal network of the tunnel ventilation process. Each displacement (from t-1) of the number of large vehicles, vehicle speed, and pollution amount at the present time t has a causal relationship with the displacement of pollution amount in the tunnel. Also,
The displacements of traffic volume and mechanical ventilation and natural wind speed have a causal relationship with the displacement of total ventilation. Further, the displacement of the pollution amount in the tunnel and the displacement of the total ventilation amount have a causal relationship with the predicted displacement of the pollution amount after a certain time (t + 1). In this way, information that is a factor of the process and its causal relationship are obtained as a priori information from the causal network.

【0081】図14は、この定性因果ネットワークか
ら、図4のS101〜S103において、変数定義,因
果関係定義および定性因果ネットワーク定義をした例で
ある。同図(a)は前記各プロセス量に対応した1〜9
の変数Noとその名称が格納され、各変数の上下限値も
適宜記憶される。同図(b)は最小単位の因果関係を定
義していて、第1層と第2層間は第1層の変数1,2,
3と第2層の変数7のサブ・ネット、第1層の変数4,
5,6と第2層の変数8のサブ・ネットに分かれる。同
図(c)は各変数を層別,一貫番号順に配置して、定性
因果ネットワークの構成を定義している。
FIG. 14 shows an example of variable definition, causal relationship definition and qualitative causal network definition in S101 to S103 of FIG. 4 from this qualitative causal network. The figure (a) is 1-9 corresponding to each said process amount.
The variable No. and its name are stored, and the upper and lower limit values of each variable are also stored as appropriate. FIG. 2B defines the causal relationship of the minimum unit, and the variables 1, 2, and 1 of the first layer are defined between the first layer and the second layer.
3 and sub net of variable 7 of the second layer, variable 4 of the first layer 4,
It is divided into sub nets 5 and 6 and a variable 8 of the second layer. In the same figure (c), each variable is arranged in order of stratification and consistent number, and the structure of the qualitative causal network is defined.

【0082】図15は定義フローS104〜S106に
おいて、ニューロンと変数関係およびシナップス結合状
態を定義したものである。トンネル換気プロセスにおい
ては、プロセス量をインターフェイス32で正規化して
入力層ニューロンに入力する際、各プロセス量を3種の
評価、すなわち、μ+(増加),μο(現状維持),μ
−(減少)で正規化し、それぞれをニューロン入力とし
ている。正規化は、例えば各評価別(+,0,−)のプ
ロセス量に対する適合度μ(0〜1の値)を表すメンバ
ーシップ関数(予め経験的に知られている)を用いて行
われるが、通常の線形的な正規化によってもよい。
FIG. 15 defines the relationship between neurons and variables and the synapse connection state in the definition flows S104 to S106. In the tunnel ventilation process, when the process amount is normalized by the interface 32 and input to the input layer neuron, each process amount is evaluated by three types, that is, μ + (increase), μο (maintain status quo), μ
Normalized by- (decrease), each is used as neuron input. The normalization is performed using, for example, a membership function (which is empirically known in advance) that represents the goodness of fit μ (value of 0 to 1) for each evaluation (+, 0, −) process amount. , Ordinary linear normalization may be used.

【0083】これによって同図(a)に示すように、た
とえば大型車台数の変位ΔTBtはN−TBt,Z−T
Bt,P−TBtの各評価値がニューロンNo1〜3に
入力される。本実施例では、第2層のプロセス量につい
ては入力層と同様に3種の評価値に対応するニューロン
をそれぞれ配置しているが、出力層については7種の評
価値に対応する7個のニューロンを配置している。すな
わち、予測汚染量変位ΔVIt+1を、μnb(かなり減
少),μnm(減少),μns(やや減少),μz0(現状維
持),μps(やや増加),μpm(増加),μpb(かなり
増加)の観点からそれぞれ評価し、No25〜31のニ
ューロンにその適合値μを出力するようにしている。同
図(b)は因果ネットワークの変数NoとニューロンN
oの対応を示すもので、変数とニューロンの関係は予め
設定されるパラメータnによって1:n(n=1,2,
…)に定義できる。同図(c)はシナップス結合状態フ
ァイルを示すもので、第2層の結合状態は第1層のニュ
ーロンNo1〜9が第2層のニューロンNo19〜21
(第2層の一貫番号1〜3)と相互に結合し、また、第
1層のニューロンNo10〜18が第2層のニューロン
No22〜24(第2層の一貫番号4〜6)と相互に結
合してそれぞれサブ・ネットを構成している。
As a result, as shown in FIG. 7A, the displacement ΔTBt of the number of large vehicles is N-TBt, Z-T.
The evaluation values of Bt and P-TBt are input to neurons Nos. 1 to 3. In the present embodiment, as for the process amount of the second layer, neurons corresponding to three kinds of evaluation values are arranged respectively as in the input layer, but for the output layer, seven neurons corresponding to seven kinds of evaluation values are arranged. The neurons are arranged. That is, the predicted pollution amount displacement ΔVIt + 1 is μnb (significantly decreased), μnm (decreased), μns (slightly decreased), μz0 (currently maintained), μps (slightly increased), μpm (increased), μpb (significantly increased). From the viewpoint, each of the evaluations is performed, and the matching value μ is output to the neurons of Nos. 25 to 31. FIG. 6B shows a causal network variable No and neuron N.
The relationship between the variables and the neurons is 1: n (n = 1, 2,
...) can be defined. FIG. 7C shows a synapse connection state file. In the connection state of the second layer, the first layer neurons No. 1 to 9 are the second layer neurons No. 19 to 21.
(The second layer has consistent numbers 1 to 3), and the first layer neurons No. 10 to 18 have second layer neurons 22 to 24 (the second layer have consistent numbers 4 to 6). They are combined to form sub nets.

【0084】図16は上記の定義に基づいて構成された
ニューラルネットワークを示す。本例では、入力層と中
間層の間が2つのサブ・ネットに分割されているので、
シナップスは実線部分のみ結合される。これによって従
来、点線部分を含む108本(18×6)の結合線は5
4本(9×3+9×3)に半減され、以後の学習/想起
においては著しく処理性を向上できる。
FIG. 16 shows a neural network constructed based on the above definition. In this example, since the space between the input layer and the middle layer is divided into two sub nets,
Synapses are connected only in the solid line. As a result, the number of 108 (18 × 6) connecting lines including the dotted line is 5 in the past.
It is halved to 4 (9 × 3 + 9 × 3), which can significantly improve the processability in the subsequent learning / remembering.

【0085】このように初期定義されたニューラルネッ
トワークは、トンネルプロセスの実測データによる教師
信号パターンの学習によってシナップスの重みを定めら
れ、上記トンネル換気プロセスの定性因果ネットワーク
を実質的に移植されたのち、プロセス制御装置の推論装
置31に組み込まれる。なお、出力ニューロンからの7
つの適合値はインターフェイス32でファジイ量から逆
変換されて、予測汚染量変位が求められる。この逆変換
はデファジイ手段36により、たとえば各評価種別のメ
ンバーシップ関数上をそれぞれの適合値が切断するとき
の重心演算によって行う。
In the neural network initially defined in this way, the synaptic weight is determined by learning the teacher signal pattern by the measured data of the tunnel process, and after the qualitative causal network of the tunnel ventilation process is substantially transplanted, It is incorporated in the inference device 31 of the process control device. In addition, 7 from the output neuron
The two adaptive values are inversely converted from the fuzzy amount in the interface 32 to obtain the predicted pollution amount displacement. This inverse conversion is performed by the defuzzifying means 36, for example, by calculating the center of gravity when each matching value cuts on the membership function of each evaluation type.

【0086】図17は横軸に時間、縦軸にトンネル内の
透過率TI(汚染度VIの逆数)をとって、TIと換気
制御装置の動作関係を説明したものである。太い実線は
TIの実測値、二重線は推論装置31によるTIの予測
値を示す。また、TIの目標範囲は上限70%,下限4
0%に設定されている。
In FIG. 17, the horizontal axis represents time and the vertical axis represents the transmittance TI (reciprocal of pollution degree VI) in the tunnel, and illustrates the operational relationship between TI and the ventilation control device. The thick solid line shows the measured value of TI, and the double line shows the predicted value of TI by the inference device 31. The target range of TI is 70% for the upper limit and 4 for the lower limit.
It is set to 0%.

【0087】現時点16:50におけるTI実測値(=
49%)等を入力して、5分後(16:55)のTIが
42%と予測され、現在の運転状態を維持すると間もな
く、TIの下限値を割り込む恐れがある。そこで現在値
と予測値の偏差に応じ、あるいは上記目標範囲の中間値
程度(図示の点線)となるように、集塵機やジェットフ
ァンのパワーや運転台数をプロセス出力装置35で求め
て、これら制御機器42をリアルタイム(16:50)
に制御する。この結果、16:55の実測値は57%に
改善されている。
TI actual measurement value at 16:50 at present (=
49%) is input and the TI is predicted to be 42% 5 minutes later (16:55), and the lower limit of TI may be interrupted soon after the current operating state is maintained. Therefore, the process output device 35 determines the power and the number of operating dust collectors and jet fans so as to be in accordance with the deviation between the present value and the predicted value, or to be about the intermediate value of the above target range (dotted line in the figure), and the control devices 42 in real time (16:50)
To control. As a result, the measured value at 16:55 is improved to 57%.

【0088】ニューラルネットの最適化により、本実施
例のようにプロセスが複雑で入力信号が多くなるほど想
起時間の短縮効果が増加し、リアルタイムな予測制御を
可能にしている。これによって、従来、ファジイ制御の
メンバーシップ関数チューニングに複雑なプロセスでは
1〜2年も要していたのが、本発明のニューラルネット
ワークの学習では1〜2日ですみ、しかも同等の精度が
得られる。
By optimizing the neural network, the effect of shortening the recall time increases as the process becomes more complicated and the number of input signals increases as in the present embodiment, and real-time predictive control is enabled. As a result, conventionally, it took 1-2 years in a complicated process for tuning a fuzzy control membership function, but it takes 1-2 days in learning the neural network of the present invention, and the same accuracy can be obtained. Be done.

【0089】[0089]

【発明の効果】本発明によれば、対象の先験的情報であ
る定性因果ネットワークに基づき、その変数間の因果関
係の最小単位をサブ・ニューラルネットワークとし、こ
れを積み上げてニューラルネットワークを構成している
ので、シナップスの結合が大幅に減少し、学習/想起の
処理性と精度を共に向上したニューラルネットを提供で
きる効果が有る。さらに、ニューラルネットの結合状況
(シナップスの重み)は定性因果ネットワークの因果関
係を実質的に移植するものとなっているので、ファジイ
推論と同等の定性推論を実現でき、しかもファジイのよ
うにメンバーシップ関数のチューニングに長時間を要す
ることもないので、複雑なプロセスの診断や制御に簡単
に適用できる効果がある。
According to the present invention, based on the qualitative causal network which is the a priori information of the object, the minimum unit of the causal relationship between the variables is the sub-neural network, and the neural network is constructed by stacking the sub-neural networks. Therefore, the coupling of synapses is significantly reduced, and there is an effect that a neural network with improved learning / remembering processability and accuracy can be provided. Furthermore, since the connection status (weight of synapses) of the neural network is the one that substantially transfers the causal relationship of the qualitative causal network, qualitative inference equivalent to fuzzy inference can be realized, and membership like fuzzy Since it does not take a long time to tune functions, it has an effect that it can be easily applied to diagnosis and control of complicated processes.

【図面の簡単な説明】[Brief description of drawings]

【図1】定性因果ネットワークから本発明のニューラル
ネットワークを生成するための基本概念を示す説明図。
FIG. 1 is an explanatory diagram showing a basic concept for generating a neural network of the present invention from a qualitative causal network.

【図2】本発明のニューラルネットワークを構成し、学
習し、想起する手段を有するエキスパートシステムの一
実施例。
FIG. 2 is an embodiment of an expert system having means for constructing, learning and recalling the neural network of the present invention.

【図3】図2の学習手段の一実施例。FIG. 3 shows an embodiment of the learning means shown in FIG.

【図4】定性的因果ネットワークとニューラルネットの
定義処理基本フロー図。
FIG. 4 is a basic flow chart of a definition process of a qualitative causal network and a neural network.

【図5】図4の定性因果ネットワークの定義ファイル。5 is a definition file of the qualitative causal network in FIG.

【図6】図4のニューラルネットの定義ファイル。6 is a definition file of the neural network shown in FIG.

【図7】図4のシナップス結合状態を定義する詳細フロ
ー。
FIG. 7 is a detailed flow for defining the synapse connection state of FIG.

【図8】図7のシナップス結合状態の定義ファイル。FIG. 8 is a definition file of the synapse coupling state of FIG.

【図9】従来のニューラルネットの結合と本発明のニュ
ーラルネットの結合を対比した説明図。
FIG. 9 is an explanatory diagram comparing a conventional neural network connection with a neural network connection of the present invention.

【図10】ファジイ推論とニュラルネット推論の概念を
対比した説明図。
FIG. 10 is an explanatory diagram comparing the concepts of fuzzy inference and neural net inference.

【図11】トンネル換気プロセスの説明図。FIG. 11 is an explanatory view of a tunnel ventilation process.

【図12】本発明のプロセス制御装置の一実施例。FIG. 12 shows an embodiment of the process control device of the present invention.

【図13】トンネル換気プロセスの定性因果ネットワー
ク。
FIG. 13: Qualitative causal network of tunnel ventilation process.

【図14】トンネル換気プロセスの定性因果ネットワー
クの定義ファイル。
FIG. 14: Definition file of qualitative causal network of tunnel ventilation process.

【図15】トンネル換気プロセスのニューラルネットの
定義ファイル。
FIG. 15: Neural network definition file for tunnel ventilation process.

【図16】トンネル換気プロセスのニューラルネットの
構成図。
FIG. 16 is a configuration diagram of a neural network of a tunnel ventilation process.

【図17】図12の制御装置の動作説明図。FIG. 17 is an operation explanatory diagram of the control device of FIG. 12.

【図18】従来のニューラルネットの説明図。FIG. 18 is an explanatory diagram of a conventional neural network.

【符号の説明】[Explanation of symbols]

1…定性因果ネットワーク、2…ニューラルネットワー
ク、10…計算機システム、15…ニューラルネット定
義手段、16…学習/想起手段、17…演算・制御手
段、18…ニューラルネットワーク記憶メモリ、30…
プロセス制御装置、31…推論装置、34…プロセス入
力装置、35…プロセス出力装置、41…測定器、42
…制御機器。
DESCRIPTION OF SYMBOLS 1 ... Qualitative causal network, 2 ... Neural network, 10 ... Computer system, 15 ... Neural network definition means, 16 ... Learning / remembering means, 17 ... Arithmetic / control means, 18 ... Neural network storage memory, 30 ...
Process control device, 31 ... Inference device, 34 ... Process input device, 35 ... Process output device, 41 ... Measuring device, 42
… Control equipment.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 八尋 正和 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか工場内 (72)発明者 阿部 登 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか工場内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Masakazu Yahiro, 5-2-1, Omika-cho, Hitachi-shi, Ibaraki Hitachi Ltd. Omika Plant, Hitachi, Ltd. (72) Noboru Abe 5-chome, Omika-cho, Hitachi-shi, Ibaraki No. 1 stock company Hitachi Ltd. Omika factory

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】入力層と出力層を含む複数の層からなるニ
ューラルネットワークであって、その想起対象の因果関
係に応じてニューロン間が結合されることを特徴とする
ニューラルネットワーク。
1. A neural network comprising a plurality of layers including an input layer and an output layer, wherein the neurons are connected in accordance with the causal relationship of the recall target.
【請求項2】複数の層からなり、隣接する前層と後層が
それぞれ複数のニューロンを有しているニューラルネッ
トワークにおいて、前層のニューロンに入力する情報と
後層のニューロンから出力する情報の間に因果関係のあ
る場合のみ、これらニューロン間をシナップスで結合し
てなるニューラルネットワーク。
2. In a neural network composed of a plurality of layers, each of which has a plurality of neurons in adjacent front and back layers, information input to a front layer neuron and information output from a rear layer neuron A neural network that connects these neurons with synapses only when there is a causal relationship between them.
【請求項3】隣接する前層と後層の2層以上からなるニ
ューラルネットワークにおいて、所定の入力信号を入力
される前層ニューロンと前記入力信号と因果関係のある
出力信号を出力する全ての後層ニューロンの間、およ
び、前記全ての後層ニューロンの出力信号と因果関係の
ある入力信号を入力される全ての前層ニューロンの間を
シナップスで結合してなるサブネットワークを単位とし
て組合せられるニューラルネットワーク。
3. A neural network consisting of two or more layers, an anterior layer and a posterior layer, which are adjacent to each other, and a posterior layer neuron to which a predetermined input signal is input, and an output signal which is causally related to the input signal. A neural network that is combined with a sub-network formed by connecting synapses between layer neurons and all anterior neurons to which an input signal causally related to the output signals of all the posterior neurons are connected. ..
【請求項4】請求項3において、前記サブネットワーク
を同一層間では並列的に他層間とは直列的に結合してな
るニューラネットワーク。
4. The neural network according to claim 3, wherein the sub-networks are connected in parallel between the same layers and in series with other layers.
【請求項5】プロセスの各事象を示す複数の情報(変
数)とこの情報(変数)間の因果関係によって前記プロ
セスを定性的に表現する定性因果ネットワークを記憶
し、前記情報に対応してニューロンを配置し、前記因果
関係に対応してシナップスを結合するようニューラルネ
ットワークを定義することを特徴とするニューラルネッ
トワークの構成方法。
5. A qualitative causal network that qualitatively expresses the process by a plurality of information (variables) indicating each event of the process and a causal relationship between the information (variables) is stored, and a neuron corresponding to the information is stored. And a neural network is defined so as to connect the synapses in correspondence with the causal relationship.
【請求項6】定性因果ネットワークを記憶し、前記定性
因果ネットワークの情報(変数)と因果関係に対応して
入力層と出力層を含む各層のニューロンの配置とシナッ
プスの結合を定義してニューラルネットワークを構成
し、前記定性因果ネットワークの入力情報パターンと出
力情報パターンの対を教師信号として記憶し、前記入力
層の各ニューロンに前記入力情報パターンを与えて前記
ニューラルネットワークを実行させ、実行の結果、前記
出力層に得られる出力信号と前記出力情報パターンの偏
差が小さくなるようにシナップスの重みを修正するニュ
ーラルネットワークの学習方法。
6. A neural network which stores a qualitative causal network and defines neuron arrangement and synapse connection in each layer including an input layer and an output layer in correspondence with information (variables) of the qualitative causal network and a causal relationship. A pair of the input information pattern and the output information pattern of the qualitative causal network is stored as a teacher signal, the input information pattern is given to each neuron of the input layer to execute the neural network, and the result of the execution is A learning method for a neural network, which corrects synaptic weights so that a deviation between an output signal obtained in the output layer and the output information pattern becomes small.
【請求項7】入力層のニューロンに想起条件を示す信号
を入力して想起し、出力層のニューロンから想起結果を
示す信号を出力するニューラルネットワークの想起方法
において、前記想起はシナップス結合状態を参照し結合
のあるものについておこなうことを特徴とするニューラ
ルネットワークの想起方法。
7. A neural network recalling method in which a signal indicating a recalling condition is input to a neuron in an input layer for recalling, and a signal indicating a recalling result is output from a neuron in an output layer, wherein the recalling refers to a synapse connection state. A method of recalling a neural network, which is characterized in that it is carried out for a connection.
【請求項8】プロセスの状態を予測してプロセスを制御
する方法において、 ニューラルネットワークにプロセスの状態量を入力し、
前記ニューラルネットワークのニューロン間が結合され
ているもののみニューロン出力を演算する想起によって
プロセスの状態量の予測値を求め、該予測値に基づいて
制御量を決定することを特徴とするプロセス制御方法。
8. A method of predicting a process state and controlling the process, comprising inputting a process state quantity to a neural network,
A process control method characterized in that a predictive value of a state quantity of a process is obtained by recollecting a neuron output only for a neural network in which neurons are connected, and a control quantity is determined based on the predictive value.
【請求項9】入出力手段や記憶手段を有してニューラル
ネットワークの構築を演算制御する処理装置であって、 想起対象の定性因果ネットワークを変数と変数間の入出
力関係で定義する因果関係定義手段、定義された前記変
数と入出力関係から層ごとのニューロンの配置を決定
し、かつ、前記変数間の入出力関係を参照して関係のあ
るニューロン間をシナップスで結合するニューラルネッ
トワーク構成手段を具備することを特徴とするニューラ
ルネットワーク構築装置。
9. A causal relation definition for defining a qualitative causal network to be recalled by a variable and an input / output relation between variables, which is a processing device having an input / output means and a storage means for arithmetically controlling the construction of a neural network. Means for determining the arrangement of neurons for each layer from the defined variables and the input / output relationship, and for connecting the neurons having a relationship by synapse with reference to the input / output relationship between the variables. An apparatus for constructing a neural network, comprising:
【請求項10】一対のデータである学習パターンと教師
パターンを入力する入力手段,入力された前記学習パタ
ーンによってニューロンの出力値を順次演算して演算結
果を出力するニューラルネットワーク,演算結果と前記
教師パターンの偏差が小さくなるように前記ニューラル
ネットワークのシナップスの重みを演算して修正する重
み修正手段を有するニューラルネットワークの学習装置
において、 予め記憶されている前記シナップスの結合状態を参照し
結合有のときに前記ニューラルネットワークの演算を実
行させるシナップスの結合状態判定手段を具備すること
を特徴とするニューラルネットワークの学習装置。
10. An input means for inputting a learning pattern and a teacher pattern, which are a pair of data, a neural network for sequentially calculating output values of neurons by the inputted learning pattern, and outputting a calculation result, the calculation result and the teacher. In a learning device of a neural network having weight correction means for calculating and correcting synapse weights of the neural network so that the deviation of the pattern becomes small, referring to a pre-stored connection state of the synapse A learning device for a neural network, comprising: a synapse connection state determining means for executing the calculation of the neural network.
【請求項11】プロセスの状態を予測しながら制御効果
器を操作するプロセス制御装置において、 プロセス情報の入力装置と、プロセスの定性因果関係に
よってニューロン間が結合され前記プロセス情報に基づ
いてプロセスの状態量の予測値を推論するニューラルネ
ットワークと、予め記憶されている前記ニューラルネッ
トワークのシナップスの結合状態を参照し結合有のとき
に前記ニューラルネットワークの演算を実行させるシナ
ップスの結合状態判定手段と、予測された状態量から前
記制御効果器の操作量を求めて出力するプロセス出力装
置を具備することを特徴とするプロセス制御装置。
11. A process control device for operating a control effector while predicting a process state, wherein a process information input device and neurons are connected by a qualitative causal relationship of the process, and the process state is based on the process information. A neural network that infers a predicted value of the quantity, a synapse connection state determining unit that executes a calculation of the neural network when there is a connection by referring to a connection state of the synapse of the neural network that is stored in advance, and is predicted. A process control device comprising: a process output device that obtains and outputs an operation amount of the control effector from the state quantity.
JP3231482A 1990-11-26 1991-09-11 Neural network and its structuring method, and process control system using neural network Pending JPH0573522A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP3231482A JPH0573522A (en) 1991-09-11 1991-09-11 Neural network and its structuring method, and process control system using neural network
US07/797,534 US5402519A (en) 1990-11-26 1991-11-25 Neural network system adapted for non-linear processing
EP91120155A EP0488150B1 (en) 1990-11-26 1991-11-26 Fuzzy inference system including neural network
DE69132003T DE69132003T2 (en) 1990-11-26 1991-11-26 Fuzzy inference-based system and the neural network it contains
KR1019910021293A KR100243353B1 (en) 1990-11-26 1991-11-26 Neural network system adapted for non-linear processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3231482A JPH0573522A (en) 1991-09-11 1991-09-11 Neural network and its structuring method, and process control system using neural network

Publications (1)

Publication Number Publication Date
JPH0573522A true JPH0573522A (en) 1993-03-26

Family

ID=16924189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3231482A Pending JPH0573522A (en) 1990-11-26 1991-09-11 Neural network and its structuring method, and process control system using neural network

Country Status (1)

Country Link
JP (1) JPH0573522A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010140271A (en) * 2008-12-11 2010-06-24 Nippon Telegr & Teleph Corp <Ntt> Device, method and program for estimating degree of busyness
JP2019153216A (en) * 2018-03-06 2019-09-12 Kddi株式会社 Learning device, information processing system, method for learning, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02162404A (en) * 1988-12-15 1990-06-22 Toshiba Corp Computer control system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02162404A (en) * 1988-12-15 1990-06-22 Toshiba Corp Computer control system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010140271A (en) * 2008-12-11 2010-06-24 Nippon Telegr & Teleph Corp <Ntt> Device, method and program for estimating degree of busyness
JP2019153216A (en) * 2018-03-06 2019-09-12 Kddi株式会社 Learning device, information processing system, method for learning, and program

Similar Documents

Publication Publication Date Title
KR100243353B1 (en) Neural network system adapted for non-linear processing
Jang et al. Neuro-fuzzy modeling and control
Li Neural network models for intelligent support of mark‐up estimation
EP2287786A1 (en) Fuzzy inference apparatus and methods, systems and apparatuses using such inference apparatus
Khan et al. Neufuz: Neural network based fuzzy logic design algorithms
Tsoi Recurrent neural network architectures: an overview
JP2747104B2 (en) neural network
Li et al. Forecasting stock market with fuzzy neural networks
Uehara et al. Multistage fuzzy inference formulated as linguistic-truth-value propagation and its learning algorithm based on back-propagating error information
Shan et al. A hybrid knowledge-based system for urban development
Fu et al. A fuzzy neural network for knowledge learning
CN112232565A (en) Two-stage time sequence prediction method, prediction system, terminal and medium
JP3354593B2 (en) Learning system for network type information processing equipment
JPH0573522A (en) Neural network and its structuring method, and process control system using neural network
JP3056324B2 (en) Learning / recalling method and device
Pedrycz Logic-based neurons: Extensions, uncertainty representation and development of fuzzy controllers
CN113887570B (en) Solar flare two-classification prediction method based on neural network
Shan et al. An integrated knowledge-based system for urban planning decision support
Neagu et al. A neuro-fuzzy approach for functional genomics data interpretation and analysis
JP2501932B2 (en) Center of gravity determining element output device by neural network
Aghaarabi et al. Application of neuro-fuzzy based expert system in water quality assessment
JP4267726B2 (en) Device for determining relationship between operation signal and operation amount in control device, control device, data generation device, input / output characteristic determination device, and correlation evaluation device
CN110853754A (en) Decision support system method under conditions of non-determinacy and non-integrity
Xu et al. Synergism of neural networks and expert systems for system identification
Abraham Neuro Fuzzy Systems: Sate-of-the-Art Modeling Techniques