JPH0793160A - Inference device - Google Patents

Inference device

Info

Publication number
JPH0793160A
JPH0793160A JP5256531A JP25653193A JPH0793160A JP H0793160 A JPH0793160 A JP H0793160A JP 5256531 A JP5256531 A JP 5256531A JP 25653193 A JP25653193 A JP 25653193A JP H0793160 A JPH0793160 A JP H0793160A
Authority
JP
Japan
Prior art keywords
inference
learning
neural network
module
rule
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5256531A
Other languages
Japanese (ja)
Inventor
Masaya Ono
雅也 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP5256531A priority Critical patent/JPH0793160A/en
Publication of JPH0793160A publication Critical patent/JPH0793160A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To obtain a device capable of possessing adaptability for the constitutional change of an object system, expanding the retrieval range of a solution and describing the resolution accurately by keeping the variety of an inference result appropriately by providing an inference part, and a constitution retrieval part which optimizes constitution by performing the change operation of each module by using the inference part. CONSTITUTION:An inference execution mode is the operation of the inference part A after the constitution of a rule module required for inference and the completion of adjustment for a neural network that is a constituent, and infers by applying fetched data to a rule module set 2, and stores it is an inference result storage means 3. In a module constitution retrieval mode, the constitution retrieval part B optimize plural neural networks when the rule module set 2 of the inference part A is constituted of those plural neural networks, and optimizes the constitution by the change operation for the symbol string of the rule module set 2. The learning of the neural network that is the constituent is performed in a module adjusting mode.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は推論装置、特に学習能力
を持った知識ベースシステムの推論装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an inference device, and more particularly to an inference device for a knowledge base system having learning ability.

【0002】[0002]

【従来の技術】近年、知識ベースをもとに観測又は与え
られたデータを解釈し、結論,結果を推論,推測する推
論装置の開発が、各種診断,認識,制御,意志決定など
の分野で盛んに行なわれている。これら従来の推論装置
は、対象分野の専門家が持つ経験的知識をプロダクショ
ンルールで表現し、知識ベースに蓄積することで、専門
的な問題解決を可能としている。ところがこれらの推論
装置は、専門家からの知識の獲得及び知識の更新に多大
の時間と労力を要するという問題があった。
2. Description of the Related Art In recent years, the development of an inference device that interprets observed or given data based on a knowledge base, and infers and infers conclusions and results has been developed in various fields such as diagnosis, recognition, control, and decision making. It is being actively conducted. These conventional reasoning devices enable specialized problem solving by expressing the empirical knowledge of experts in the target field with production rules and accumulating them in a knowledge base. However, these inference devices have a problem that it takes a lot of time and labor to acquire knowledge from a specialist and update the knowledge.

【0003】一方、学習データから自動的に入出力関係
を実現するニューラルネットワークが脚光を浴び、パタ
ーン認識,制御など様々な分野への適用が検討されてい
る。ニューラルネットワークは、対象分野に対する知識
を予め必要としないという長所を持っている。
On the other hand, a neural network that automatically realizes an input / output relationship from learning data is in the limelight, and its application to various fields such as pattern recognition and control is being studied. Neural networks have the advantage that they do not require any prior knowledge of the subject area.

【0004】[0004]

【発明が解決しようとする課題】ところが、従来のニュ
ーラルネットワークは予め入力変数と出力変数が決めら
れているので、対象となる系の変化への対応を図る場
合、例え、これらの変数間の関係を学習により更新する
ことはできても、用いる入出力変数を切替えることは不
可能であり、対象系の変化への対応に限界があった。更
に、従来のニューラルネットワークは、いわゆる1:1
の関係が成立する変数間の関係づけのみ可能であるが、
推論装置では後向き推論の実行時などに同じ入力変数に
対し出力変数が異なるという状況も発生する。
However, since the input variables and the output variables are determined in advance in the conventional neural network, when dealing with the change of the target system, for example, the relation between these variables is used. Although it can be updated by learning, it is impossible to switch the input / output variables to be used, and there is a limit in responding to changes in the target system. Furthermore, conventional neural networks use so-called 1: 1.
Although it is only possible to associate variables that satisfy the relationship
In the inference device, there is a situation in which output variables are different for the same input variable when performing backward inference.

【0005】この場合可能な出力を複数提示できること
が、推論の解候補数を増加させ、推論結果の正確な表現
及び広範囲の解の探索を行なう上で望ましいが、従来の
ニューラルネットワークを推論装置に適用する場合、上
記の理由によりこれは不可能である。即ち、従来のニュ
ーラルネットワークでは、可能な出力変数の統計的な平
均値を出力してしまい、いずれの学習データとも十分に
一致しない場合が発生する可能性がある。本発明は上記
事情に鑑みてなされたものであり、対象系の構造的な変
化への適応性を有するばかりか、推論結果の多様性の保
持による、解の探索範囲の適切な拡大及び解の正確な記
述の可能な推論装置を提供することを目的としている。
In this case, it is desirable to be able to present a plurality of possible outputs in order to increase the number of inference solution candidates, to accurately express the inference result and to search a wide range of solutions, but the conventional neural network is used as an inference device. If applied, this is not possible for the reasons given above. That is, the conventional neural network may output a statistical average value of possible output variables and may not sufficiently match any learning data. The present invention has been made in view of the above circumstances, and not only has adaptability to structural changes of the target system, but also appropriately expands the search range of solutions and maintains solution diversity by maintaining diversity of inference results. The purpose is to provide an inference device capable of accurate description.

【0006】[0006]

【課題を解決するための手段】本発明の[請求項1]に
係る推論装置は、与えられたデータを解釈し、これらの
データを推論ルールに適用して推論結果を得る推論装置
において、データ取り込み手段とニューラルネットワー
クからなる複数の推論ルールを有するルールモジュール
セットと推論格納手段とからなる推論部と、前記推論部
で使用する各モジュールを変更操作して構成を最適化す
ると共に、各ニューラルネットワークの学習を行ない、
かつこれらの最適なルールモジュールを自動探索する構
成探索部とを備えたこ。
An inference device according to claim 1 of the present invention interprets given data and applies these data to an inference rule to obtain an inference result. An inference unit including a rule module set having a plurality of inference rules including a fetching unit and a neural network, and an inference storing unit, and each module used in the inference unit is changed to optimize the configuration and each neural network. Learning
In addition, it has a configuration search unit that automatically searches for these optimum rule modules.

【0007】本発明の[請求項2]に係る推論装置は、
[請求項1]において、構成探索部での自動探索を、ジ
ェネティックアルゴリズムによって行なうようにした。
An inference apparatus according to [Claim 2] of the present invention comprises:
In [Claim 1], the automatic search in the configuration search unit is performed by a genetic algorithm.

【0008】本発明の[請求項3]に係る推論装置は、
[請求項1]において、推論ルールの実現要素であるニ
ューラルネットワークの学習に際し、学習時に期待され
る精度で学習されなかった場合、当該学習データを分別
し、これを別のニューラルネットワークに分割して学習
させるようにした。
An inference apparatus according to [Claim 3] of the present invention comprises:
In [Claim 1], when learning a neural network which is a realization element of an inference rule, if the learning is not performed with the expected accuracy at the time of learning, the learning data is classified and divided into another neural network. I tried to make them learn.

【0009】[0009]

【作用】本発明の[請求項1]に係る推論装置は、動作
において以下に示す3つのモードを有している。先ず、
第1は推論実行モードであり、この場合は推論に必要な
ルールモジュールの構成、及び構成要素であるニューラ
ルネットワークの調整が既に完了した後における推論部
Aの動作である、したがって、この場合は構成探索部B
は関係せず、取り込まれたデータをルールモジュールセ
ット2の夫々に適用して推論し、その結果を推論結果格
納手段3に格納する。
The reasoning device according to the first aspect of the present invention has the following three modes of operation. First,
The first is the inference execution mode, which is the configuration of the rule module necessary for inference in this case, and the operation of the inference unit A after the adjustment of the neural network that is a component has already been completed. Search section B
Irrelevant, the fetched data is applied to each of the rule module sets 2 for inference, and the result is stored in the inference result storage means 3.

【0010】第2はモジュール構成探索モードであり、
この場合は推論部Aのルールモジュールセットを複数の
ニューラルネットワークにより構成するに際し、これら
のニューラルネットワークの最適化を行なうものであ
る。そしてルールモジュールセットの構成は記号列にて
表現されているため、この記号列に対する変更操作によ
り構成が最適化される。又、構成要素であるニューラル
ネットワークの学習はモジュール調整モードにて行なわ
れる。なお、[請求項2]では構成探索部での自動探索
をジェネティックアルゴリズムとして精度向上を図り、
[請求項3]では学習時に期待される精度で学習されな
かった場合に、学習データを分別して他のニューラルネ
ットワークにて分割して処理させるようにした。
The second is a module configuration search mode,
In this case, when the rule module set of the inference unit A is composed of a plurality of neural networks, these neural networks are optimized. Since the configuration of the rule module set is represented by a symbol string, the configuration is optimized by a change operation on this symbol string. Further, learning of the neural network which is a constituent element is performed in the module adjustment mode. In [Claim 2], the accuracy is improved by using the automatic search in the configuration search unit as a genetic algorithm.
In [Claim 3], when the learning is not performed with the expected accuracy, the learning data is sorted and divided by another neural network to be processed.

【0011】[0011]

【実施例】以下図面を参照して実施例を説明する。図1
は本発明の[請求項1]に係る推論装置の一実施例の構
成図である。そして、この推論装置は一例として、医療
診断に供され、患者の年齢,性別,身長,体重,体温,
血圧,脈拍数,血液の各成分、その他疾患に伴なう咳な
どの症状から、異常の診断及び疾患の原因推定を行な
う。ここでの診断過程の特徴としては、推論が多段階に
行なわれることである。即ち、入力データから一旦、中
間推論結果が出力され、これをもとに推論を繰り返して
最終的な診断結果を示す。又、動物の診断などにおいて
は、新たな動物の診断のために推論装置の構成を再編成
する必要が生じる。
Embodiments will be described below with reference to the drawings. Figure 1
FIG. 1 is a configuration diagram of an embodiment of an inference device according to [Claim 1] of the present invention. Then, this reasoning device is used for medical diagnosis as an example, and the age, sex, height, weight, body temperature,
Diagnosis of the abnormality and estimation of the cause of the disease are performed based on blood pressure, pulse rate, blood components, and other symptoms such as cough associated with the disease. A feature of the diagnostic process here is that inference is performed in multiple stages. That is, the intermediate inference result is once output from the input data, and the inference is repeated based on this to show the final diagnosis result. In addition, when diagnosing an animal or the like, it is necessary to reorganize the configuration of the inference device for diagnosing a new animal.

【0012】この推論装置の構成は大きく分けて、推論
部Aと構成探索部Bとで構成されている。推論部Aは、
データ取り込み手段1、複数ニューラルネットワークの
組合せにより構成されるルールモジュールセット2、推
論結果格納手段3とで構成されている。構成探索部B
は、学習データベース4、複数のニューラルネットワー
クの組合せにより構成されるルールモジュールセットを
複数格納するモジュールセット格納部5、出力格納器
6、ニューラルネットワーク学習器7、誤差値格納器
8、荷重値修正器9、エンコーダ10、デコーダ11、モジ
ュールコードテーブル12、モジュール評価値算出手段1
3、モジュール変更手段14、モジュール呼び出し・書込
み手段15、モジュールコードデータベース16、最適モジ
ュール選択手段17、学習制御器18、切替えスイッチ19,
20,21とで構成されている。
The configuration of this inference apparatus is roughly divided into an inference section A and a configuration search section B. The reasoning unit A is
It is composed of a data capturing means 1, a rule module set 2 composed of a combination of a plurality of neural networks, and an inference result storage means 3. Configuration search unit B
Is a learning database 4, a module set storage unit 5 for storing a plurality of rule module sets configured by a combination of a plurality of neural networks, an output storage unit 6, a neural network learning unit 7, an error value storage unit 8, and a weight value correction unit. 9, encoder 10, decoder 11, module code table 12, module evaluation value calculation means 1
3, module changing means 14, module calling / writing means 15, module code database 16, optimum module selecting means 17, learning controller 18, changeover switch 19,
It is composed of 20 and 21.

【0013】このように構成された装置は、以下に示す
3つのモードで動作する。推論実行モード、モジュ
ール構成探索モード、モジュール調整モード。そし
て、これらの切替えは学習制御器18によって行なわれ
る。以下、各部の機能モード毎に説明する。
The device thus configured operates in the following three modes. Inference execution mode, module configuration search mode, module adjustment mode. Then, these switching is performed by the learning controller 18. Hereinafter, each function mode of each unit will be described.

【0014】1.推論実行モード この推論実行モードは、推論に必要なルールモジュール
セットの構成及び構成要素であるニューラルネットワー
クの調整が既に終了した後での推論部Aの動作である。
したがって、この動作では構成探索部Bは関係しない。
この切離しは、学習制御器18からの信号により、切替え
スイッチ19が(1)で示す端子側に切り替わることによ
って行なわれる。このモードでは、データ取り込み手段
1から与えられた入力データに対して、ルールモジュー
ルセット2が予め定められたルールに従って推論を行な
う。このルールモジュールセット2は複数のニューラル
ネットワークにより構成される。この構成の一例が図2
に示されている。
1. Inference Execution Mode This inference execution mode is the operation of the inference unit A after the configuration of the rule module set necessary for inference and the adjustment of the neural network which is a component have already been completed.
Therefore, the configuration search unit B is not involved in this operation.
This disconnection is performed by switching the selector switch 19 to the terminal side indicated by (1) in response to a signal from the learning controller 18. In this mode, the rule module set 2 infers the input data given from the data fetching means 1 in accordance with a predetermined rule. The rule module set 2 is composed of a plurality of neural networks. An example of this configuration is shown in FIG.
Is shown in.

【0015】この例では、年齢,性別,身長,体重,体
温,血圧,脈拍数,赤血球数,白血球数,ヘマトクリッ
ト,アルブミン,血清タンパク量,血糖,血清総脂肪
量,尿酸,扁桃腺の炎症,咳の17項の入力項目から、
中間推論結果として体力の消耗,呼吸器系の異常,循環
器系の異常,消化器系の異常の4項目の診断結果を出力
し、更にこれらの中間推論結果と入力項目の一部の値と
から異常なし,過労,風邪,心臓疾患,糖尿病,肝臓障
害,腎臓障害,動脈硬化の8項目に関する診断結果を最
終的に出力する。
In this example, age, sex, height, weight, body temperature, blood pressure, pulse rate, red blood cell count, white blood cell count, hematocrit, albumin, serum protein content, blood glucose, serum total fat content, uric acid, inflammation of the tonsils, From the 17 items of cough,
As the intermediate inference results, output the diagnostic results of 4 items of physical exhaustion, respiratory system abnormalities, circulatory system abnormalities, digestive system abnormalities, and these intermediate inference results and some values of input items. Finally, it outputs the diagnostic results for 8 items including no abnormality, overwork, cold, heart disease, diabetes, liver disorder, renal disorder and arteriosclerosis.

【0016】入力項目から中間推論結果を導出する処理
はニューラルネットワーク1(NN1),ニューラルネ
ットワーク2(NN2),ニューラルネットワーク3
(NN3),ニューラルネットワーク4(NN4)によ
って行なわれる。中間推論結果と入力項目の一部の値か
ら最終的な診断結果を導出する処理は、ニューラルネッ
トワーク5(NN5),ニューラルネットワーク6(N
N6),ニューラルネットワーク7(NN7)によって
行なわれる。これらの各ニューラルネットワークは入力
層,1層又は多層からなる中間層及び出力層から構成さ
れ、予め学習データとして与えられる入力データと出力
データとの関係づけを行ない、入出力データとの間に望
ましい1:1の関係が実現されている。
The process of deriving the intermediate inference result from the input item is the neural network 1 (NN1), the neural network 2 (NN2), the neural network 3
(NN3) and neural network 4 (NN4). The process of deriving the final diagnosis result from the intermediate inference result and the partial value of the input item is performed by the neural network 5 (NN5) and the neural network 6 (N
N6), neural network 7 (NN7). Each of these neural networks is composed of an input layer, an intermediate layer consisting of one layer or multiple layers, and an output layer, and correlates input data and output data given in advance as learning data, and is desirable between input and output data. A 1: 1 relationship has been realized.

【0017】2.モジュール構成探索モード このモードでは、推論部Aのルールモジュールセットを
複数のニューラルネットワークにより構成する方法の最
適化が構成探索部Bより実行される。ここでの構成と
は、ニューラルネットワークの入力変数と出力変数、及
び各ニューラルネットワークの接続を意味している。各
ルールモジュールセットの構成は後述する記号列により
表現され、この記号列に対する変更操作により構成が最
適化される。構成要素であるニューラルネットワークの
学習は、後述するモジュール調整モードで行なわれる。
構成探索部Bの作用は以下の通りである。
2. Module Configuration Search Mode In this mode, the configuration search unit B executes optimization of the method of configuring the rule module set of the inference unit A with a plurality of neural networks. The configuration here means input variables and output variables of the neural network, and connections of the neural networks. The configuration of each rule module set is represented by a symbol string described later, and the configuration is optimized by a change operation on this symbol string. Learning of the neural network which is a constituent element is performed in a module adjustment mode described later.
The operation of the configuration search unit B is as follows.

【0018】(a)学習制御器18からの信号により切替
えスイッチ19が(2)で示す端子側に切り替わり、推論
部Aと構成探索部Bとが接続する。 (b)同じく切替えスイッチ20,21が(2)で示す端子
側に切り替わることにより、複数のルールモジュールセ
ットからなるルールモジュールセット群が後述するエン
コーダ10,デコーダ11に接続する。 (c)学習制御器18からの信号により、後述するニュー
ラルネットワーク学習器7が停止状態になる。 (d)モジュールセット格納部5に格納されている複数
のルールモジュールセット各々の構成が、エンコーダ10
により記号列として表現され、モジュールコードテーブ
ル12に格納される。
(A) The changeover switch 19 is switched to the terminal side shown by (2) by a signal from the learning controller 18, and the inference unit A and the configuration searching unit B are connected. (B) Similarly, the changeover switches 20 and 21 are switched to the terminal side shown in (2), so that a rule module set group including a plurality of rule module sets is connected to an encoder 10 and a decoder 11 described later. (C) A signal from the learning controller 18 causes the neural network learning device 7 described later to be stopped. (D) The configuration of each of the plurality of rule module sets stored in the module set storage unit 5 is the encoder 10
Is represented by a symbol string and stored in the module code table 12.

【0019】記号列の表現方法は以下の通りである。 ・入力項目,診断結果,中間推論結果の各々の項目に通
して番号をつける。図2の例では、入力項目が1から1
7,診断結果が18から25,中間推論結果が26から
29と番号づけされている。 ・1つのニューラルネットワークは、その入力項目と出
力項目との組合せにより表現される。各項目はまとめて
()により記述され、夫々の()の組により1つのニュ
ーラルネットワークが表される。図2のニューラルネッ
トワーク1(NN1)は、{(1,2,3,4,5,
6,7,13),(26)}と表現される。
The expression method of the symbol string is as follows. -Number the input items, diagnostic results, and intermediate inference results. In the example of FIG. 2, the input items are 1 to 1
7, diagnostic results are numbered 18 to 25, and intermediate inference results are numbered 26 to 29. -One neural network is represented by a combination of its input items and output items. Each item is collectively described by (), and each set of () represents one neural network. The neural network 1 (NN1) of FIG. 2 has {(1, 2, 3, 4, 5,
6, 7, 13), (26)}.

【0020】・複数のニューラルネットワークの接続方
法には並列と直列があり、それらは各々//,+で表され
る。図2の例では、ニューラルネットワーク1,2,
3,4(NN1,NN2,NN3,NN4)が並列接続
し、ニューラルネットワーク5,6,7(NN5,NN
6,NN7)が並列接続し、そしてそれらが直列に接続
しているため、{NN1//NN2//NN3//NN4}+
{NN5//NN6//NN7}と表現される。なお、これ
らのニューラルネットワークの接続は多重に組合せるこ
とが可能である。例:{{A//{B+C}}+D}。
There are parallel and serial connection methods for a plurality of neural networks, which are represented by // and + respectively. In the example of FIG. 2, the neural networks 1, 2,
3, 4 (NN1, NN2, NN3, NN4) are connected in parallel, and neural networks 5, 6, 7 (NN5, NN)
6, NN7) are connected in parallel, and they are connected in series, so {NN1 // NN2 // NN3 // NN4} +
It is expressed as {NN5 // NN6 // NN7}. Note that these neural network connections can be combined in multiple ways. Example: {{A // {B + C}} + D}.

【0021】(e)又、エンコーダ10は、後述する誤差
値格納器8に格納されている各ルールモジュールセット
の学習データに対する誤差値を取り込み、モジュールコ
ードテーブル12に格納する。
(E) Further, the encoder 10 fetches the error value for the learning data of each rule module set stored in the error value storage 8 described later and stores it in the module code table 12.

【0022】(f)モジュール評価値算出手段13は、学
習制御器18からの信号により、モジュールコードテーブ
ル12に格納されている各記号列の評価値(以下、モジュ
ール評価値と記述)を計算する。学習データへの学習精
度と、ルールモジュールセット構成の単純性を以下の項
目により評価する。 ・ルールモジュールセットの学習データに対する誤差値
E。 ・ルールモジュールセットを構成するニューラルネット
ワークの数N。 ・ルールモジュールセットを構成する各ニューラルネッ
トワークのユニット数U。とすると、
(F) The module evaluation value calculation means 13 calculates an evaluation value (hereinafter referred to as a module evaluation value) of each symbol string stored in the module code table 12 based on a signal from the learning controller 18. . The learning accuracy for learning data and the simplicity of the rule module set configuration are evaluated by the following items. An error value E for the learning data of the rule module set. The number N of neural networks that make up the rule module set. The number U of units of each neural network that constitutes the rule module set. Then,

【数1】 ただし、α,β,γは各項目の重みづけ係数である。
又、上の例では評価値は大きい程良好であることを示し
ている。
[Equation 1] However, α, β, and γ are weighting coefficients for each item.
Also, the above example shows that the larger the evaluation value, the better.

【0023】(g)モジュール変更器14は、算出された
モジュール評価値をもとに、モジュールコードテーブル
12に格納されている記号列の書き替えを行ない、更に良
好なモジュール構成を探索する。この例では、この探索
にジェネティックアルゴリズムを用いており、これが
[請求項2]に示される。これは以下のように行なわれ
る。 i.モジュールコードテーブル12からモジュール評価値
に比例した確率で記号列を選択する。これによって、評
価値の高い記号列の選択される確率が増す。
(G) The module changer 14 uses the calculated module evaluation value as a module code table.
The symbol string stored in 12 is rewritten to search for a better module configuration. In this example, a genetic algorithm is used for this search, which is shown in [Claim 2]. This is done as follows. i. A symbol string is selected from the module code table 12 with a probability proportional to the module evaluation value. This increases the probability that a symbol string having a high evaluation value will be selected.

【0024】ii.選択された記号列に対して、遺伝オペ
レータを作用させ、新しい記号列を作成する。ジェネテ
ィックアルゴリズムの基本的な遺伝オペレータとして
は、次のようなものがある。 ・Crossover (交差):2つの記号列から交差点をラン
ダムに選択し、交差点以降の文字列を入れ替える。 ・Mutation(突然変移):文字列を構成する文字をラン
ダムに入れ替える。 ・Inversion (逆転):部分列の並び方を逆転する。 ここではモジュールセットの特性を反映させ、以下のオ
ペレータを定義する。各オペレータは夫々作用する確率
が設定されており、これに応じてオペレータが作用す
る。
Ii. The genetic operator is applied to the selected symbol string to create a new symbol string. The following are basic genetic operators of genetic algorithms.・ Crossover: Randomly select an intersection from two symbol strings and replace the character strings after the intersection. -Mutation (sudden transition): The characters that make up the character string are randomly exchanged.・ Inversion (reverse): Reverse the arrangement of subsequences. Here, the following operators are defined by reflecting the characteristics of the module set. The probability that each operator acts is set, and the operator acts accordingly.

【0025】追加…1つのニューラルネットワークの入
力又は出力項目を追加する。例:{a,b}→{(a,
c),b}。a:もとの入力項目,b:もとの出力項
目,c:追加された出力項目。 分割…1つのニューラルネットワークの入力又は出力項
目を分割し、複数のニューラルネットワークを生成す
る。例:{(a,c),b}→{a,b}//{c,
b}。 挿入…1つのニューラルネットワークに中間推論結果の
項目を示す層を挿入し、複数のニューラルネットワーク
を生成する。例:{a,b}→{a,c}+{c,
b}。 削除…1つのニューラルネットワークの入力又は出力項
目を削除する。これは追加と逆の操作である。例:
{(a,c),b}→{a,b}。
Add ... Adds an input or output item of one neural network. Example: {a, b} → {(a,
c), b}. a: original input item, b: original output item, c: added output item. Divide ... Divides an input or output item of one neural network to generate a plurality of neural networks. Example: {(a, c), b} → {a, b} // {c,
b}. Insert ... Inserts a layer indicating an item of an intermediate inference result into one neural network to generate a plurality of neural networks. Example: {a, b} → {a, c} + {c,
b}. Delete ... Deletes one neural network input or output item. This is the reverse operation of adding. Example:
{(A, c), b} → {a, b}.

【0026】合成…複数のニューラルネットワークの入
力又は出力項目を合わせて、1つのニューラルネットワ
ークにする。これは分割と逆の操作である。例:{a,
b}//{c,b}→{(a,c),b}。 縮約…複数のニューラルネットワークから中間推論結果
の項目を示す層を外して、1つのニューラルネットワー
クにする。これは挿入と逆の操作である。例:{a,
c}+{c,b}→{a,b}。 交差…2つのモジュールセットに共通のモジュール接続
記号以下のモジュールを交換する。このとき前後のモジ
ュールとの入出力の整合性を調べ、不整合部分の解消処
理又は交差処理の制御も行なう。例:モジュール1
{A}+{B}、モジュール2{C}+{D}→モジュ
ール1′{A}+{C}、モジュール2′{C}+
{B}。
Synthesizing ... The input or output items of a plurality of neural networks are combined into one neural network. This is the reverse operation of splitting. Example: {a,
b} // {c, b} → {(a, c), b}. Reduction ... Removes the layer indicating the item of the intermediate inference result from a plurality of neural networks to form one neural network. This is the reverse operation of insert. Example: {a,
c} + {c, b} → {a, b}. Crossing ... Replace the modules below the module connection symbol common to the two module sets. At this time, the consistency of the input and output with the preceding and following modules is checked, and the processing for eliminating the mismatched portion or the intersection processing is also controlled. Example: Module 1
{A} + {B}, module 2 {C} + {D} → module 1 ′ {A} + {C}, module 2 ′ {C} +
{B}.

【0027】iii.新しく作成された記号列をモジュール
コードテーブル12のモジュール評価値の低い記号列と置
き替える。なお、新しい記号列の作成時に、後述するモ
ジュールコードデータベース16から適当な記号列を呼び
出し利用することも行なわれる。これは、すべてのモジ
ュール評価値が同じ極値に捕らわれてしまうことや、最
適解に近いモジュールセットが消去されるといった、望
ましくない状態が発生することを防止するための処理で
ある。モジュール変更手段14により変更された記号列
は、デコーダ11によって解釈され、対応するルールモジ
ュールセットの更新が行なわれる。
Iii. Replace the newly created symbol string with a symbol string having a low module evaluation value in the module code table 12. When a new symbol string is created, an appropriate symbol string is called from the module code database 16 described later and used. This is a process for preventing the occurrence of an undesired state in which all module evaluation values are caught by the same extreme value and the module set close to the optimum solution is deleted. The symbol string changed by the module changing means 14 is interpreted by the decoder 11 and the corresponding rule module set is updated.

【0028】(h)モジュール呼び出し・書込み手段15
は、モジュールコードデータベース16に貯蔵されている
記号列からランダムに、又はモジュールコードテーブル
12に格納されている記号列に応じて、記号列を取り出
す。又、モジュール変更手段14にて新しく記号列が作成
された場合に、それをモジュールコードデータベース16
に書き込む処理も行なう。
(H) Module calling / writing means 15
Is a random symbol string stored in the module code database 16 or a module code table.
The symbol string is extracted according to the symbol string stored in 12. In addition, when a new symbol string is created by the module changing means 14, it is updated by the module code database 16
It also writes to.

【0029】(i)最適モジュール選択手段17は、学習
制御器18の信号により最も評価値の高い記号列を取り出
す。そしてこの評価値が所定の水準に達している場合デ
コーダ11へ送る。この記号列は対応するルールモジュー
ルセットに変換され、推論部Aのルールモジュールセッ
ト2を実現する。そして学習制御器18は、切替えスイッ
チ19を(1)で示す端子側に切替えることにより、動作
モードを推論実行に切替える。ここで評価値が所定の水
準に達していない場合は、その旨を伝える信号が学習制
御器18に送られ、モジュール構成探索処理が続行され
る。
(I) The optimum module selecting means 17 extracts the symbol string having the highest evaluation value according to the signal from the learning controller 18. Then, when this evaluation value has reached a predetermined level, it is sent to the decoder 11. This symbol string is converted into the corresponding rule module set, and the rule module set 2 of the inference unit A is realized. Then, the learning controller 18 switches the operation mode to inference execution by switching the changeover switch 19 to the terminal side indicated by (1). If the evaluation value does not reach the predetermined level, a signal to that effect is sent to the learning controller 18, and the module configuration search processing is continued.

【0030】3.モジュール調整モード このモードでは、ルールモジュールセットの構成が設定
された状態で、ルールモジュールの実現要素であるニュ
ーラルネットワークが、予め用意されている入力データ
とそれに対する推論結果を学習する。学習制御器18から
の信号により、切替えスイッチ19,20,21が(3)で示
す端子側に切り替わり、モジュールセット格納部5がモ
ジュールコードテーブル12から切り離される。
3. Module adjustment mode In this mode, the neural network, which is the realization element of the rule module, learns the input data prepared in advance and the inference result for the rule module set configuration. By the signal from the learning controller 18, the changeover switches 19, 20, 21 are switched to the terminal side shown by (3), and the module set storage unit 5 is disconnected from the module code table 12.

【0031】ニューラルネットワーク学習器7は、学習
制御器18からの信号により作動し、学習データベース4
に格納されている入力データを、モジュールセット格納
部5に格納されている複数のルールモジュールセットに
入力する。学習データベース4は、診断に用いられる入
力項目及び中間推論結果と、それに対する推論結果とが
対になって、学習データとして格納されている。
The neural network learning device 7 operates by a signal from the learning controller 18, and the learning database 4
The input data stored in (1) is input to the plurality of rule module sets stored in the module set storage unit 5. In the learning database 4, input items used for diagnosis, intermediate inference results, and inference results corresponding thereto are paired and stored as learning data.

【0032】ルールモジュールセットへ入力されたデー
タに対して、各ニューラルネットワークが推論を行な
い、その結果を出力格納器6に格納する。ニューラルネ
ットワークの学習が完了する前の時点では、正しい推論
結果が得られるとは限らない。そこで誤差値格納器8
は、学習データベース4に格納されている正しい推論結
果と、出力格納部6に格納されている結果との比較を行
ない、この差を学習誤差として誤差値格納器8に格納す
る。
Each neural network infers the data input to the rule module set and stores the result in the output storage unit 6. A correct inference result may not always be obtained before the learning of the neural network is completed. Therefore, the error value storage 8
Compares the correct inference result stored in the learning database 4 with the result stored in the output storage unit 6, and stores this difference in the error value storage 8 as a learning error.

【0033】ニューラルネットワーク学習器7は、この
学習誤差が所定の許容範囲を越えており、かつ学習回数
が所定回数に達していない場合、荷重値修正手段9に対
して信号を送り、この評価量をもとにルールモジュール
を構成するニューラルネットワークの荷重値を修正す
る。この評価量から荷重値修正量の計算にはバックプロ
パゲーションアルゴリズムを用いる。バックプロパゲー
ションは良く知られたニューラルネットワークの学習ア
ルゴリズムであり、これはニューラルネットワークの実
際の出力と学習データとの差である学習誤差を小さくす
るために、荷重値をどの程度修正すべきかという修正量
を与えるものである。
The neural network learning device 7 sends a signal to the load value correcting means 9 when the learning error exceeds the predetermined allowable range and the number of learning times has not reached the predetermined number, and the evaluation amount is calculated. Based on, the weight value of the neural network that constitutes the rule module is corrected. A backpropagation algorithm is used to calculate the weight value correction amount from this evaluation amount. Backpropagation is a well-known learning algorithm for neural networks. This is a modification of how much the weight value should be modified in order to reduce the learning error that is the difference between the actual output of the neural network and the training data. It gives a quantity.

【0034】以上、各部の機能を分りやすくするために
モード別に説明したが、実際にはモジュール構成探索モ
ードにおいて、新しいルールモジュールセットが作成さ
れる度にモジュール調整モードに切り替わり、モジュー
ルの構成要素であるニューラルネットワークの学習が行
なわれる。そして学習終了後、再びモジュール構成探索
モードに切り替わり、モジュール構成が変更される。こ
れらの処理は終了条件が満たされるまで繰り返される。
そして終了条件が満たされると推論実行モードに切り替
えられる。
In the above description, the functions of the respective parts have been described for each mode in order to make it easier to understand. However, in the module configuration search mode, each time a new rule module set is created, the mode is switched to the module adjustment mode, and the module components A neural network is trained. After the learning is completed, the mode is switched to the module configuration search mode again, and the module configuration is changed. These processes are repeated until the end condition is satisfied.
When the end condition is satisfied, the mode is switched to the inference execution mode.

【0035】上記実施例によれば、ルールモジュールセ
ットの構成及び各ルールモジュールの調整を自動的に行
なうので、短時間かつ容易に装置を構築できる。又、ル
ールモジュールセットの構成を最適化することで、ルー
ルモジュールであるニューラルネットワークの学習のみ
では対応することのできない対象系の構造的な変化に対
応することができる。これは医療診断装置に関しては、
動物の診断装置において対象となる動物が変化した場合
に相当する。なお、本実施例は上述した実施例に限定さ
れるものではなく、入力データに基づく診断処理に適用
できる。
According to the above embodiment, the construction of the rule module set and the adjustment of each rule module are automatically performed, so that the apparatus can be constructed easily in a short time. Further, by optimizing the configuration of the rule module set, it is possible to deal with structural changes in the target system that cannot be dealt with only by learning the neural network that is the rule module. This is a medical diagnostic device
This corresponds to the case where the target animal changes in the animal diagnostic device. It should be noted that this embodiment is not limited to the above-mentioned embodiment, but can be applied to the diagnosis processing based on the input data.

【0036】図3は本発明の[請求項3]に対応する実
施例であり、ニューラルネットワーク及びその学習装置
(以下、学習システムと記述)の構成図が示されてい
る。これは予め与えられている学習データの学習を行な
うものであり、上記実施例における構成探索部Bのモジ
ュール調整モードと基本的には同一である。ここでの特
徴は、ニューラルネットワークに学習させる入力データ
と出力データの関係が1:1でない場合に、学習データ
を分割し、これを別のニューラルネットワークに学習さ
せることである。これにより、同一の入力に対して複数
の出力が対応する学習データの学習を可能になる。
FIG. 3 is an embodiment corresponding to [Claim 3] of the present invention, and shows a configuration diagram of a neural network and its learning device (hereinafter referred to as a learning system). This is for learning learning data given in advance, and is basically the same as the module adjustment mode of the configuration searching unit B in the above embodiment. The feature here is that if the relationship between the input data and the output data to be learned by the neural network is not 1: 1, the learning data is divided and this is learned by another neural network. As a result, it becomes possible to learn learning data in which a plurality of outputs correspond to the same input.

【0037】図3は図1の該当部分に対応してあり、図
1と同一部分については同一符号を付して説明を省略す
る。本実施例で新たに付加したものは、ニューラルネッ
トワーク複製器22と学習データ分割器23である。ニュー
ラルネットワーク学習器7は、学習データベース4に格
納されている入力データを、ニューラルネットワーク格
納部5に格納されているニューラルネットワーク1に入
力する。この時点では格納されているニューラルネット
ワークはニューラルネットワーク1のみである。学習デ
ータベース4には、入力データ及び出力データとが対に
なって、学習データとして格納されている。その入出力
関係は図4に示すように、同じ入力に対して異なる出力
が対応するものも含まれている。
FIG. 3 corresponds to the corresponding portions in FIG. 1, and the same portions as those in FIG. 1 are designated by the same reference numerals and the description thereof will be omitted. Newly added in this embodiment are a neural network duplicator 22 and a learning data divider 23. The neural network learning device 7 inputs the input data stored in the learning database 4 into the neural network 1 stored in the neural network storage unit 5. At this point, the only neural network stored is the neural network 1. In the learning database 4, input data and output data are paired and stored as learning data. As shown in FIG. 4, the input / output relationship includes that in which different outputs correspond to the same input.

【0038】ニューラルネットワーク1に入力されたデ
ータに対する出力は、出力格納器6に格納され、これと
望ましい出力データとの差が誤差値格納器8により計
算,格納される。ニューラルネットワーク学習器7は、
この誤差値が許容範囲を越えており、かつ学習回数が所
定回数に達していない場合、荷重値修正器9に対して信
号を送り、この誤差値をもとにニューラルネットワーク
の荷重値を修正する。この誤差値から荷重値修正量の計
算にはバックプロパゲーションアルゴリズムを用いる。
The output corresponding to the data input to the neural network 1 is stored in the output storage device 6, and the difference between this and the desired output data is calculated and stored in the error value storage device 8. The neural network learning device 7
When this error value exceeds the allowable range and the number of learning times has not reached the predetermined number, a signal is sent to the weight value corrector 9 and the weight value of the neural network is corrected based on this error value. . A backpropagation algorithm is used to calculate the weight value correction amount from this error value.

【0039】バックプロパゲーションは良く知られたニ
ューラルネットワークの学習アルゴリズムであり、これ
はニューラルネットワークの実際の出力と学習データと
の差である学習誤差を小さくするために、荷重値をどの
程度修正すべきかという修正量を与えるものである。し
かし、図4のようなデータを学習した場合、ニューラル
ネットワークは図5のように学習データの平均的な値を
出力し、学習の誤差はある値以下に減少しない。この場
合、以下の手順により再学習を行なう。
Back-propagation is a well-known learning algorithm for neural networks, and this is how much the weight value should be modified in order to reduce the learning error which is the difference between the actual output of the neural network and the learning data. It gives a correction amount of kika. However, when the data shown in FIG. 4 is learned, the neural network outputs the average value of the learning data as shown in FIG. 5, and the learning error does not decrease below a certain value. In this case, re-learning is performed by the following procedure.

【0040】先ず、ニューラルネットワーク学習器7か
らの信号により、ニューラルネットワーク複製器22はニ
ューラルネットワーク1とユニット数,荷重値ともに等
しいニューラルネットワーク2を複製し、ニューラルネ
ットワーク格納部5に格納する。次に、ニューラルネッ
トワーク学習器7からの信号により、学習データ分割器
23は学習データベース4の学習データを2分割し、夫々
ニューラルネットワーク1及びニューラルネットワーク
2に学習させる。この分割は以下の方法により行なう。
学習データの中から、最も学習誤差の大きいものを分離
し、ニューラルネットワーク1の学習を行なう。再学習
の結果、最も学習誤差の大きいものを再び分離し、学習
を繰り返す。この処理を誤差値が所定の要求水準以下に
なるまで続ける。
First, the neural network duplicator 22 duplicates the neural network 2 having the same number of units and the same weight value as the neural network 1 according to the signal from the neural network learning device 7, and stores it in the neural network storage unit 5. Next, using the signal from the neural network learning device 7, the learning data divider
Reference numeral 23 divides the learning data of the learning database 4 into two, and causes the neural network 1 and the neural network 2 to learn respectively. This division is performed by the following method.
The learning data having the largest learning error is separated from the learning data, and the neural network 1 is trained. As a result of re-learning, the one with the largest learning error is separated again, and the learning is repeated. This process is continued until the error value becomes equal to or lower than the predetermined required level.

【0041】上記実施例によれば、同一の入力に対して
複数の出力が対応する学習データの学習が可能になる。
したがって、所定の入力に対する可能な出力を提示で
き、後向き推論をニューラルネットワークにより実現す
ることが可能になると共に、推論結果の多様性の保持に
よる、解の探索範囲の適切な拡大及び解の正確な記述が
可能になる。
According to the above embodiment, it is possible to learn the learning data in which a plurality of outputs correspond to the same input.
Therefore, it is possible to present a possible output for a given input, and it is possible to realize backward inference by a neural network, and to appropriately expand the search range of the solution and accurately calculate the solution by maintaining the diversity of inference results. Can be described.

【0042】[0042]

【発明の効果】以上説明したように、本発明によれば対
象系の構造的な変化への適応性と推論結果の多様性の保
持による解の探索範囲の適切な拡大及び解の正確な記述
が可能となる。又、[請求項1,2]では短時間かつ容
易に装置を構築でき、ルールモジュールセットの構成を
最適化することで、ルールモジュールであるニューラル
ネットワークの学習のみでは対応することのできない対
象系の構造的な変化に対応することができる。又、[請
求項3]では所定の入力に対する可能な出力を提示で
き、後向き推論をニューラルネットワークにより実現す
ることが可能になると共に、推論結果の多様性の保持に
よる、解の探索範囲の適切な拡大及び解の正確な記述が
可能になる。
As described above, according to the present invention, the adaptability to structural changes of the target system and the appropriate expansion of the search range of solutions by maintaining the diversity of inference results and the accurate description of solutions are provided. Is possible. Further, in [Claims 1 and 2], the device can be constructed in a short time and easily, and by optimizing the configuration of the rule module set, the target system that cannot be dealt with only by learning the neural network which is the rule module. It can respond to structural changes. Further, in [claim 3], possible output for a predetermined input can be presented, and backward inference can be realized by a neural network, and at the same time, by maintaining the diversity of inference results, an appropriate search range of solutions can be obtained. Extending and accurate description of the solution are possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の[請求項1]及び[請求項2]に係る
一実施例の推論装置の構成図。
FIG. 1 is a configuration diagram of an inference apparatus according to an embodiment of [Claim 1] and [Claim 2] of the present invention.

【図2】ルールモジュールセットの例。FIG. 2 shows an example of rule module set.

【図3】本発明の[請求項3]に係る一実施例の学習シ
ステム構成図。
FIG. 3 is a configuration diagram of a learning system according to an embodiment of [Claim 3] of the present invention.

【図4】1:1の関係にない学習データの例。FIG. 4 is an example of learning data having no 1: 1 relationship.

【図5】図4の学習データを従来の学習方法で学習した
結果図。
FIG. 5 is a result diagram of learning data of FIG. 4 learned by a conventional learning method.

【符号の説明】[Explanation of symbols]

A 推論部 B 構成探索部 1 データ取り込み手段 2 ルールモジュールセット 3 推論結果格納手段 4 学習データベース 5 モジュールセット格納部 6 出力格納器 7 ニューラルネットワーク学習器 8 誤差値格納器 9 荷重値修正器 10 エンコーダ 11 デコーダ 12 モジュールコードテーブル 13 モジュール評価値算出手段 14 モジュール変更手段 15 モジュール呼び出し・書込み手段 16 モジュールコードデータベース 17 最適モジュール選択手段 18 学習制御器 19,20,21 切替えスイッチ 22 ニューラルネットワーク複製器 23 学習データ分割器 A inference unit B configuration search unit 1 data importing unit 2 rule module set 3 inference result storing unit 4 learning database 5 module set storing unit 6 output storing unit 7 neural network learning unit 8 error value storing unit 9 weight value correcting unit 10 encoder 11 Decoder 12 Module code table 13 Module evaluation value calculating means 14 Module changing means 15 Module calling / writing means 16 Module code database 17 Optimal module selecting means 18 Learning controller 19, 20, 21 Changeover switch 22 Neural network duplicator 23 Learning data division vessel

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 与えられたデータを解釈し、これらのデ
ータを推論ルールに適用して推論結果を得る推論装置に
おいて、データ取り込み手段とニューラルネットワーク
からなる複数の推論ルールを有するルールモジュールセ
ットと推論格納手段とからなる推論部と、前記推論部で
使用する各モジュールを変更操作して構成を最適化する
と共に、各ニューラルネットワークの学習を行ない、か
つこれらの最適なルールモジュールを自動探索する構成
探索部とを備えたことを特徴とする推論装置。
1. An inference device that interprets given data and applies these data to an inference rule to obtain an inference result, and a rule module set having a plurality of inference rules including a data fetching means and a neural network, and inference. A configuration search in which an inference unit including a storage unit and each module used in the inference unit are changed and operated to optimize the configuration, learning of each neural network is performed, and these optimal rule modules are automatically searched. An inference device including a section.
【請求項2】 構成探索部での自動探索は、ジェネティ
ックアルゴリズムによって行なうことを特徴とする請求
項1記載の推論装置。
2. The inference apparatus according to claim 1, wherein the automatic search in the configuration search unit is performed by a genetic algorithm.
【請求項3】 推論ルールの実現要素であるニューラル
ネットワークの学習に際し、学習時に期待される精度で
学習されなかった場合、当該学習データを分別し、これ
を別のニューラルネットワークに分割して学習させるこ
とを特徴とする請求項1記載の推論装置。
3. When learning a neural network, which is a realization element of an inference rule, if the learning data is not learned with the expected accuracy at the time of learning, the learning data is separated, and this is divided into different neural networks for learning. The inference device according to claim 1, wherein
JP5256531A 1993-09-20 1993-09-20 Inference device Pending JPH0793160A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5256531A JPH0793160A (en) 1993-09-20 1993-09-20 Inference device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5256531A JPH0793160A (en) 1993-09-20 1993-09-20 Inference device

Publications (1)

Publication Number Publication Date
JPH0793160A true JPH0793160A (en) 1995-04-07

Family

ID=17293922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5256531A Pending JPH0793160A (en) 1993-09-20 1993-09-20 Inference device

Country Status (1)

Country Link
JP (1) JPH0793160A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7653606B2 (en) 2003-10-03 2010-01-26 Axway Inc. Dynamic message filtering
JP2017129896A (en) * 2016-01-18 2017-07-27 富士通株式会社 Machine learning device, machine learning method, and machine learning program
JP2018533153A (en) * 2016-06-02 2018-11-08 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Network model construction method and apparatus based on machine learning
JP2021089628A (en) * 2019-12-05 2021-06-10 日立Astemo株式会社 Neural network contraction device and method thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7653606B2 (en) 2003-10-03 2010-01-26 Axway Inc. Dynamic message filtering
JP2017129896A (en) * 2016-01-18 2017-07-27 富士通株式会社 Machine learning device, machine learning method, and machine learning program
JP2018533153A (en) * 2016-06-02 2018-11-08 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Network model construction method and apparatus based on machine learning
JP2021089628A (en) * 2019-12-05 2021-06-10 日立Astemo株式会社 Neural network contraction device and method thereof
WO2021111788A1 (en) * 2019-12-05 2021-06-10 日立Astemo株式会社 Neural network compression device and method for same

Similar Documents

Publication Publication Date Title
JPH0738186B2 (en) Self-expanding neural network
US5168549A (en) Inference rule determining method and inference device
US5195169A (en) Control device for controlling learning of a neural network
JP2017129896A (en) Machine learning device, machine learning method, and machine learning program
CN108630312A (en) A kind of hypertension diagnosis rule base automatic generation method and device
JPS6257021A (en) Dynamic modifying method for discrimination network
Nie et al. Fast self-learning multivariable fuzzy controllers constructed from a modified CPN network
Sarra et al. Enhanced accuracy for heart disease prediction using artificial neural network
CN114496233A (en) Auxiliary diagnosis system for myocardial infarction complications
JPH11510936A (en) Optimization method of fuzzy rules by computer
CN115940294A (en) Method, system, equipment and storage medium for adjusting real-time scheduling strategy of multi-stage power grid
JPH0793160A (en) Inference device
CN112262399A (en) Action learning device, action learning method, action learning system, program, and recording medium
Pham et al. Control chart pattern recognition using combinations of multi-layer perceptrons and learning-vector-quantization neural networks
Lee et al. A genetic algorithm based robust learning credit assignment cerebellar model articulation controller
CN113035348A (en) Diabetes diagnosis method based on GRU feature fusion
CN111897857A (en) ICU (intensive care unit) duration prediction method after aortic dissection cardiac surgery
CN109697511B (en) Data reasoning method and device and computer equipment
JPH064292A (en) Decision rule generating device
US5696882A (en) Method and apparatus for using a neural network to extract an optimal subset of data objects from an available class of data objects
Liu et al. A new learning algorithm for feedforward neural networks
Andersen et al. Safer reinforcement learning for agents in industrial grid-warehousing
KR102627336B1 (en) Method and apparatus for estimaing blood pressure using newural architecture search and deep supervision
Mastorocostas et al. A block-diagonal recurrent fuzzy neural network for system identification
JP3172163B2 (en) Group-based learning adjustment method of connection in neural network