JPH0424736A - Learning method for prewired neuro of rule part - Google Patents
Learning method for prewired neuro of rule partInfo
- Publication number
- JPH0424736A JPH0424736A JP2124707A JP12470790A JPH0424736A JP H0424736 A JPH0424736 A JP H0424736A JP 2124707 A JP2124707 A JP 2124707A JP 12470790 A JP12470790 A JP 12470790A JP H0424736 A JPH0424736 A JP H0424736A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- membership function
- unit
- rule
- function realization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 133
- 230000006870 function Effects 0.000 claims abstract description 260
- 210000002569 neuron Anatomy 0.000 claims description 63
- 238000012886 linear function Methods 0.000 description 34
- 238000004364 calculation method Methods 0.000 description 31
- 238000010586 diagram Methods 0.000 description 30
- 230000005484 gravity Effects 0.000 description 25
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 210000002364 input neuron Anatomy 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000004205 output neuron Anatomy 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Landscapes
- Devices For Executing Special Programs (AREA)
- Feedback Control In General (AREA)
Abstract
Description
【発明の詳細な説明】
[概要]
前件部メンバシップ関数実現部、ルール部及び後件部メ
ンバシップ関数実現部で成るファジィ制御ルールを実現
する階層ネットワーク構造に従って入力に対応する制御
出力を生ずるルール部プリワイヤニューロの学習方法に
関し、
対象システムに適合した制御を行うための学習を効率良
く行なうことを目的とし、
前件部メンバシップ関数実現部、ルール部及び後件部メ
ンバシップ関数実現部の各々に、予め持っている知識を
導入した重み初期値を設定した後、まず前件部メンバシ
ップ関数実現部とルール部のいずれか一方又は両方の重
みを学習し、最終的に後件部メンバシップ関数実現部の
重みを学習するように構成する。尚、前件部メンバシッ
プ関数実現部及びルール部の重み値の初期設定は、乱数
を利用して行っても良し、予め持っている知識と乱数の
併用でも良い。[Detailed Description of the Invention] [Summary] A control output corresponding to an input is generated according to a hierarchical network structure that realizes a fuzzy control rule, which is composed of an antecedent membership function implementation unit, a rule unit, and a consequent membership function implementation unit. Regarding the learning method of the rule part pre-wired neuro, we have developed an antecedent membership function realization part, a rule part and a consequent part membership function realization part, with the aim of efficiently learning to perform control suitable for the target system. After setting the initial weight value that introduces the knowledge held in advance for each, first, the weight of either or both of the membership function realization part of the antecedent part and the rule part is learned, and finally the weight of the consequent part is learned. The configuration is configured to learn the weights of the membership function realization unit. Note that the initial setting of the weight values of the antecedent membership function realization section and the rule section may be performed using random numbers, or may be performed using a combination of prior knowledge and random numbers.
[産業上の利用分野]
本発明は、ファジィ制御とニューラルネットワークを融
合させたルール部プリワイヤニューロの学習方法に関す
る。[Industrial Application Field] The present invention relates to a learning method for a rule section prewired neuron that combines fuzzy control and a neural network.
ニューロを用いた情報処理にあっては、対象とするシス
テムの入カバターンと、その入カバターンに対する望ま
しい出カバターンとの組でなる学習データを階層型二−
ラルネットワークに提示して学習させ適応的な処理を行
わせる。この学習処理には特にパックプロパゲーション
法と呼ばれる処理方式が、その実用性の高さから注目さ
れている。In information processing using neurons, learning data consisting of a set of input patterns of the target system and desired output patterns for that input pattern is used in a hierarchical format.
It is presented to the physical network to learn and perform adaptive processing. In particular, a processing method called pack propagation method is attracting attention due to its high practicality in this learning process.
一方、ファジィ理論は、1960年にZadehにより
提案され、温度が「低い」とか「高い」といった人間が
行っている曖昧さに基づく思考や判断の過程をモデル化
する理論である。このファジィ理論では曖昧さを現わす
ためにメンバシップ関数を導入したファジィ集合論を数
学的基礎としている。On the other hand, fuzzy theory was proposed by Zadeh in 1960, and is a theory that models the process of thinking and judgment based on ambiguity that humans make, such as whether the temperature is "low" or "high." This fuzzy theory is mathematically based on fuzzy set theory, which introduces membership functions to represent ambiguity.
ファジィ理論の応用としては1974年にMaqmd+
+niがスチームエンジンの制御に用いたのを最初に、
各種のファジィ制御が行われている。As an application of fuzzy theory, Maqmd+ was introduced in 1974.
+ni first used it to control steam engines,
Various types of fuzzy control are performed.
このファジィ制御を実行するシステムは不確定なものを
扱うものであることから、制御アルゴリズムの調整や変
更等に対して適応的に対応できるような構成にしていく
必要がある。Since the system that performs this fuzzy control handles uncertain things, it is necessary to have a configuration that can adaptively respond to adjustments and changes in the control algorithm.
[従来の技術]
一般に、ファジィ制御システムを構築するには、以下の
ような手続きを取る。[Prior Art] Generally, the following procedure is taken to construct a fuzzy control system.
■熟練操作員の持つ[もし温度が高ければ、火を小さく
する」等の曖昧な制御規則を得る。■Acquire ambiguous control rules such as ``If the temperature is high, reduce the fire'' that skilled operators have.
■制御規則の中の言葉(命題)の意味をメンバシップ関
数という形で定量化し、制御規則をrIF−THEN部
」
型のルール表現で記述する。■The meaning of the words (propositions) in the control rule is quantified in the form of a membership function, and the control rule is described in a rule expression of the type ``rIF-THEN section''.
■シミュレーションや現地テストによる検査を行う。■Conduct inspections through simulations and on-site tests.
■検査結果を評価し、メンバシップ関数や規則の改良を
行う。■Evaluate inspection results and improve membership functions and rules.
更に詳細に説明すると、ファジィ制御ルールは、例えば
、
rif I、 is big and x2is sm
all theny、 is bigJ
と記述される。ここでIF部は前件部と呼ばれ、温度等
の制御状態量(制御入力)についての条件を記述する部
分である。またTHEN部は後件部と呼ばれ、操作端等
の制御操作量(制御出力)についての条件を記述する部
分である。To explain in more detail, the fuzzy control rules are, for example, rif I, is big and x2is sm
It is written as all theny, is bigJ. Here, the IF section is called an antecedent section, and is a section that describes conditions regarding control state quantities (control inputs) such as temperature. Further, the THEN section is called a consequent section, and is a section that describes the conditions regarding the control operation amount (control output) of the operating terminal, etc.
ファジィ制御では、対象システムの制御論理として用意
される複数のファジィ制御ルールを管理すると共に、各
ファジィ制御ルール中に記述される「大きい」とか「小
さい」とかいうような曖昧な言語表現の意味をメンバシ
ップ関数として定量化して管理する。Fuzzy control manages multiple fuzzy control rules prepared as the control logic of the target system, and also manages the meaning of ambiguous linguistic expressions such as "large" or "small" written in each fuzzy control rule. Quantify and manage it as a ship function.
完成したファジィ制御システムの制御手順は次のように
なる。The control procedure of the completed fuzzy control system is as follows.
■制御対象から温度等の制御状態量が入力されると、設
定している前件部のメンバシップ関数に従って真理値を
算出する。■When a controlled state quantity such as temperature is input from the controlled object, the truth value is calculated according to the membership function of the antecedent part that has been set.
■次に、最小値を選択する等の前件部演算に従って、各
ファジィ制御ルールにおける後件部に対しての適用値を
決定する処理を実行する。例えば、r x、 is b
igJ の真理値=0.8r x2 ia 5m1l
lJの真理値=0.5である場合には、最小値を選択す
る前件部演算に従って、真理値=0.5をそのファジィ
制御ルールの後件部に対しての適用値として出力するよ
うに処理する。(2) Next, in accordance with the antecedent computation such as selecting the minimum value, a process is executed to determine the value to be applied to the consequent in each fuzzy control rule. For example, r x, is b
Truth value of igJ = 0.8r x2 ia 5ml1l
When the truth value of lJ = 0.5, the truth value = 0.5 is output as the applied value to the consequent part of the fuzzy control rule according to the antecedent part operation that selects the minimum value. to be processed.
■続いて、同一の制御操作量となる後件部のメンバーシ
ップ関数に対する前件部からの入力値(適用値)から出
力適用値を決定する処理を実行する。(2) Next, a process is executed to determine an output application value from the input value (applied value) from the antecedent part to the membership function of the consequent part, which has the same amount of control operation.
例えば、2つのファジィ制御ルールにより、r 7.
is bigJの適用値=0.5「7. is big
Jの適用値=0.6が得られた場合、最大値を選択する
後件部演算に従って、適用値=0.6を選択決定する。For example, with two fuzzy control rules, r7.
Applicable value of is bigJ = 0.5 "7. is big
When the applied value of J=0.6 is obtained, the applied value=0.6 is selected and determined according to the consequent operation that selects the maximum value.
■続いて、決定された適用値に従って制御操作量のメン
バーシップ関数を縮小(又は拡大)すると共に、同一の
制御操作量についてのメンバーシップ関数の関数和の図
形の重心を求める等の処理を行ってファジィ推論値であ
る制御操作量を算出して出力する。■Subsequently, the membership function of the control operation amount is reduced (or expanded) according to the determined applied value, and the center of gravity of the figure of the sum of the membership functions for the same control operation amount is calculated. The control operation amount, which is a fuzzy inference value, is calculated and output.
ところで、ファジィ制御ルールは、熟練操作員の持つ知
識に従って生成されることを予定しており、最初から最
適制御を実現できるファジィ制御ルールを確立すること
は困難である。従って、生成したファジィ制御ルールを
シミュレーションや現地テストにより評価しながら試行
錯誤的に改良していくという手順をとらざるを得ない。By the way, fuzzy control rules are planned to be generated according to the knowledge possessed by a skilled operator, and it is difficult to establish fuzzy control rules that can realize optimal control from the beginning. Therefore, it is necessary to improve the generated fuzzy control rules through trial and error while evaluating them through simulations and field tests.
そこで本願発明者等にあっては、ニューロの適用により
ファジィ制御ルールを実現する階層ネットワーク構造、
即ちルール部プリワイヤニューロを使用した適応型のフ
ァジィ制御システムを提案している(特願平2−602
56号の「階層ネットワーク構成データ処理装置及びデ
ータ処理システム」参照)。即ち、ルール部プリワイヤ
ニューロは、前件部メンバシップ関数実現部、ルール部
及び後件部メンバシップ関数で成るファジィ制御ルール
を実現する階層ネットワーク構成をもつ。Therefore, the inventors of the present application developed a hierarchical network structure that realizes fuzzy control rules by applying neurology.
That is, we have proposed an adaptive fuzzy control system using prewired neuro in the rule section (Patent Application No. 2-602).
(See No. 56, “Hierarchical Network Configuration Data Processing Device and Data Processing System”). That is, the rule part prewire neuro has a hierarchical network configuration that realizes a fuzzy control rule consisting of an antecedent part membership function realization part, a rule part, and a consequent part membership function.
このルール部プリワイヤニューロによるファジィ制御ル
ールの自動抽出を考えると、以下のような手続きを取れ
ばよい。Considering the automatic extraction of fuzzy control rules by the pre-wired neuron of the rule section, the following procedure may be taken.
■ルール部プリワイヤニューロのメンバシップ関数を設
定する。■Set the membership function of the rule section prewire neuro.
■ルール部プリワイヤニューロに、対象システムの入カ
バターンとその入カバターンに対する望ましい出カバタ
ーンの組とを提示して学習させる。■The rule section prewire neuro is presented with the input pattern of the target system and a set of desirable output patterns for that input pattern, and is made to learn.
■ルール部の結線の重みを解析することにより対象シス
テムについての最適ファジィ制御ルールを抽出する。■Extract the optimal fuzzy control rule for the target system by analyzing the weights of connections in the rule section.
[発明が解決しようとする課題]
しかしながら、ルール部プリワイヤニューロについてフ
ァジィ制御ルールを抽出させるために行われる学習は、
前件部メンバシップ関数部、ルール部及び後件部メンバ
シップ関数実現部の重みを含め、どのようにして学習を
行わせるかの学習方法が決っておらず、ロール部プリワ
イヤニューロの性能を最大限に引き出すことのできる効
率の良い学習法の構築が必要となっている。[Problems to be Solved by the Invention] However, the learning performed for extracting fuzzy control rules for the rule section pre-wired neuron is
The learning method for learning, including the weights of the antecedent membership function part, rule part, and consequent part membership function realization part, has not been determined, and the performance of the roll part prewire neuron has not yet been determined. There is a need to develop efficient learning methods that can bring out the best in students.
本発明は、このような状況に鑑みてなされたもので、対
象システムに適合した制御を行うための学習を効率良く
行なうことのできるルール部プリワイヤニューロの学習
方法を提供することを目的とする。The present invention has been made in view of the above situation, and an object of the present invention is to provide a learning method for a rule section pre-wired neuron that can efficiently perform learning for controlling a target system. .
[課題を解決するための手段] 第1図は本発明の原理説明図である。[Means to solve the problem] FIG. 1 is a diagram explaining the principle of the present invention.
まず本発明は、前件部メンバシップ関数実現部10.1
又は複数階層でなるルール部12及び後件部メンバシッ
プ関数実現部14でなるファジィ制御ルールを実現する
階層ネットワーク構造を有し、ルール部12は前段の前
件メンバシップ関数実現部10及び又は後段の後件部メ
ンバシ・ツブ関数実現部14との間で全ユニット間を内
部結合せずに制御ルールに従って一部を内部結合して成
り、入力される制御状態量(Xl、X2.・・・Xゎ)
に対応する1又は複数の制御操作量(Y)を出力するル
ール部プリワイヤニューロ100を対象とする。First, the present invention provides antecedent membership function realization unit 10.1
Or, it has a hierarchical network structure that realizes a fuzzy control rule consisting of a multi-layered rule section 12 and a consequent membership function realization section 14, where the rule section 12 is an antecedent membership function realization section 10 in the preceding stage and/or a subsequent stage. The control state quantities (Xl, X2... Xゎ)
The target is a rule section prewire neuro 100 that outputs one or more control operation amounts (Y) corresponding to .
このようなルール部プリワイヤニューロ100の学習方
法として本発明にあっては、次の5つの学習方法を行な
う。In the present invention, the following five learning methods are used as learning methods for the rule section pre-wired neuron 100.
■請求項1;
[第1過程コ
前件部メンバシップ関数実現部10に予め持っている知
識(図中は「先験的知識」として示す)に基づき又は乱
数を用いて重み値を初期設定すると共に、ルール部12
及び後件部メンバシップ関数実現部14に予め持ってい
る知識に基づいて重み値を初期設定する;
[第2過程コ
学習データを使用して前件部メンバシップ関数実現部1
0の重みを学習させる;
[第3過程]
学習データを使用して後件部メンバシップ関数実現部1
4の重みを学習させる第3過程と:ように構成する。■Claim 1; [First step antecedent membership function realization unit 10 has in advance knowledge (indicated as "prior knowledge" in the figure) or random numbers to initialize the weight values. At the same time, the rule section 12
and the weight values are initialized based on the knowledge that the consequent membership function realizing unit 14 has in advance;
Learn the weight of 0; [Third process] Consequent membership function realization unit 1 using learning data
The third process of learning the weights of 4 is configured as follows.
■請求項2
[第1過程コ
ルール部12に予め持っている知識に基づき又は乱数を
用いて重み値を初期設定すると共に、前件部メンバシッ
プ関数実現部10及び後件部メンバシップ関数実現部1
4に予め持っている知識に基づいて重み値を初期設定す
る;
[第2過程]
学習データを使用してルール部12の重みを学習させる
;
[第3過程コ
学習データを使用して後件部メンバシップ関数実現部1
4の重みを学習させる:
ように構成する。■Claim 2 [The first process corrule unit 12 initializes the weight values based on knowledge held in advance or using random numbers, and the antecedent membership function realization unit 10 and the consequent membership function realization unit 1
4. Initialize the weight values based on the knowledge held in advance; [Second process] Learning the weights of the rule section 12 using the learning data; [Third process] Using the learning data to set the consequent Part membership function realization part 1
Learn the weight of 4: Configure as follows.
■請求項3
[第1過程コ
ルール部12に予め持っている知識に基づき又は乱数を
用いて重み値を初期設定すると共に、前件部メンバシッ
プ関数実現部10及び後件部メンバシップ関数実現部1
4に予め持っている知識に基づいて重み値を初期設定す
る;
[第2過程コ
学習データを使用してルール部12の重みを学習させる
;
[第3過程]
学習データを使用して前件部メンバシップ関数実現部1
0の重みを学習させると;
[第4過程コ
学習データを使用して後件部メンバシップ関数実現部1
4の重みを学習させる第4過程と;ように構成する。■Claim 3 [The weight values are initialized based on the knowledge held in advance in the first process corrule unit 12 or using random numbers, and the antecedent membership function realization unit 10 and the consequent membership function realization unit 1
4. Initialize the weight values based on knowledge held in advance; [Second process: learn the weights of the rule section 12 using the learning data; [Third process] set the antecedent using the learning data. Part membership function realization part 1
When a weight of 0 is learned;
The fourth step is to learn the weight of 4.
■請求項4
[第1過程]
前件部メンバシップ関数実現部10に予め持っている知
識に基づき又は乱数を用いて重み値を初期設定すると共
に、ルール部12及び後件部メンバシップ関数実現部1
4に予め持っている知識に基づいて重み値を初期設定す
る;
[第2過程コ
学習データを使用して前件部メンバシップ関数実現部1
0の重みを学習させる;
[第3過程]
学習データを使用してルール部12の重みを学習させる
;
[第4過程コ
学習データを使用して後件部メンバシップ関数実現部1
4の重みを学習させる;
ように構成する。■Claim 4 [First step] The weight values are initialized based on knowledge held in advance in the antecedent membership function realizing unit 10 or using random numbers, and the rule unit 12 and the consequent membership function are realized. Part 1
4. Initialize the weight values based on the knowledge held in advance;
Learn the weight of 0; [Third process] Use the learning data to learn the weight of the rule part 12; [Fourth process] Use the learning data to learn the consequent part membership function realization part 1
The weight of 4 is learned; it is configured as follows.
■請求項5
[第1過程コ
前件部メンバシップ関数実現部10及びルール部12に
予め持っている知識に基づき又は乱数を用いて重み値を
初期設定すると共に、後件部メンバシップ関数実現部1
4に予め持っている知識に基づいて重み値を初期設定す
る;
[第2過程]
学習データを使用して前記前件部メンバシップ関数実現
部10及びルール部12のの重みを同時に学習させる;
[第3過程]
学習データを使用して後件部メンバシップ関数実現部1
4の重みを学習させる;
ように構成する。■Claim 5 [In the first step, the antecedent membership function realization unit 10 and the rule unit 12 initialize the weight values based on knowledge held in advance or by using random numbers, and realize the consequent membership function. Part 1
4. Initialize the weight values based on the knowledge held in advance; [Second process] Simultaneously learn the weights of the antecedent membership function realization unit 10 and the rule unit 12 using the learning data; [Third process] Consequent membership function realization unit 1 using learning data
The weight of 4 is learned; it is configured as follows.
■請求項6
最初に重みを学習する部分の第1過程における重み初期
値の設定は、予め持っている知識で設定可能な重みは該
知識で初期設定し、その他は乱数を用いて初期設定する
。■Claim 6 In the setting of initial weight values in the first process of the part where weights are first learned, weights that can be set based on knowledge held in advance are initialized using this knowledge, and other weights are initialized using random numbers. .
■請求項7
第1過程の重み値の初期設定後に行う各過程の学習開始
時に、前件部メンバシップ関数実現部10、ルール部1
2及び後件部メンバシップ関数実現部14の内、学習対
象となっている部分の結線毎に設けられた学習フラグを
オンすると共に、学習対象となっていない部分の結線毎
に設けられた学習フラグをオフし、オン状態にある学習
フラグを有する結線の重み値のみを学習処理により最適
化する。■Claim 7 At the start of learning of each process performed after the initial setting of the weight value of the first process, the antecedent membership function realization unit 10, the rule unit 1
2 and the consequent membership function realization unit 14, turn on the learning flag provided for each connection in the part that is the learning target, and turn on the learning flag provided for each connection in the part that is not the learning target. The flag is turned off, and only the weight values of the connections having the learning flag in the on state are optimized through learning processing.
[作用]
このような構成を備えた本発明のルール部プリワイヤニ
ューロの学習方法によれば次の作用が得られる。[Operations] According to the learning method of the rule section pre-wired neuron of the present invention having such a configuration, the following operations can be obtained.
まず、ルール部プリワイヤニューロの前件部メンバシッ
プ関数実現部及び又はルール部に対し予め持っている知
識に基づいた重み値の初期設定又は乱数を用いた重み値
の初期設定あるいは両者を併用した設定を行ない、後件
部メンバシップ関数実現部に対しては予め持っている知
識に基づいた重み値の初期設定を行なう。First, initial setting of weight values based on prior knowledge for the antecedent membership function realization part of the rule part prewire neuro and/or rule part, initial setting of weight values using random numbers, or a combination of both. The weight values are initialized for the consequent membership function realization unit based on knowledge held in advance.
続いて、学習処理を起動し、学習用の入カバターンをル
ール部プリワイヤニューロに提示し、ルール部プリワイ
ヤニューロからの出カバターンがが、入カバターンに対
し望ましい出力バター゛となる学習比カバターン(教師
信号)に略一致するように初期設定した重み値を修正す
る例えばパックプロパゲーション法による重みの学習を
■前件部メンバシップ関数実現部及び又はルール部
■後件部メンバシップ関数実現部
の順に行う。Next, the learning process is started, the input pattern for learning is presented to the rule section prewire neuron, and the learning ratio cover pattern ( For example, weight learning using the pack propagation method is performed by modifying the initially set weight values so that they almost match the teacher signal). Do it in order.
このようにルール部プリワイヤニューロの内の前件部メ
ンバシップ関数実現部とルール部のいずれか一方又は両
方の重み学習後に、後件部メンバシップ関数実現部の重
みを学習させることにより、前件部メンバシップ関数実
現部とルール部のいずれか一方又は両方の重みの学習結
果に合わせた後件部メンバシップ関数実現部の重み調整
が可能となる。In this way, after learning the weights of either or both of the antecedent part membership function realization part and the rule part in the rule part prewire neuron, the weights of the consequent part membership function realization part are learned. It is possible to adjust the weights of the consequent membership function realization unit in accordance with the learning results of the weights of either or both of the subject membership function realization unit and the rule unit.
また予め持っている知識を導入した重みの初期設定によ
り、学習が容易にでき学習効率を高めることができる。In addition, the initial setting of weights that incorporates pre-existing knowledge facilitates learning and improves learning efficiency.
更に、乱数を利用した重みの初期設定により、ニューロ
による学習機能を最大限に引き出すことができる。Furthermore, by initializing the weights using random numbers, it is possible to maximize the neural learning function.
[実施例]
第2A〜第2E図は本発明によるルール部プリワイヤニ
ューロの学習方法の第1実施例から第5実施例の処理手
順を示した学習動作フロー図である。この第1〜第5実
施例の手順による学習方法の対象となるルール部プリワ
イヤニューロは、例えば第3図に示す前件部メンバシッ
プ関数実現部10、ルール部12、後件部メンバシップ
関数実現部14(重心計算実現部18を含む)で成るフ
ァジィ制御ルールを実現するための階層ネットワーク構
造を有する。[Embodiment] FIGS. 2A to 2E are learning operation flowcharts showing the processing procedures of the first to fifth embodiments of the learning method of the rule section pre-wire neuro according to the present invention. The rule section pre-wired neuron that is the object of the learning method according to the procedures of the first to fifth embodiments includes, for example, the antecedent section membership function realizing section 10, the rule section 12, and the consequent section membership function shown in FIG. It has a hierarchical network structure for realizing fuzzy control rules, which is composed of a realization unit 14 (including a centroid calculation realization unit 18).
ここでルール部プリワイヤニューロとは、ルール部12
が前段の前件メンバシップ関数実現部10及び又は後段
の後件部メンバシップ関数実現部14との間で全ユニッ
ト間を内部結合せずに制御ルールに従って一部を内部結
合したネットワーク構造をもち、階層ユニット間の全て
を内部結合したルール部全結合ニューロに対比される。Here, the rule section pre-wire neuro means the rule section 12.
has a network structure in which all units are not internally connected with the antecedent membership function realizing unit 10 in the previous stage and/or the consequent membership function realizing unit 14 in the subsequent stage, but some are internally connected according to the control rule. , is compared to a rule-part fully connected neuron that internally connects everything between hierarchical units.
第2A〜第2E図に示した第1〜第5実施例の各学習処
理にあっては、次のステップ81〜S6から成る処理を
行なう。In each learning process of the first to fifth embodiments shown in FIGS. 2A to 2E, the following steps 81 to S6 are performed.
[ステップSL] 前件部メンバシップ関数実現部10の重みCab。[Step SL] Weight Cab of the antecedent membership function realization unit 10.
Cbcを、与えられたメンバシップ関数を実現するよう
に初期設定する。尚、Cab、 Cbcは後述するよ
うに、重みを設定する結線の結線グループ番号を示して
いる。Initialize Cbc to implement the given membership function. Note that Cab and Cbc indicate connection group numbers of connections for which weights are set, as will be described later.
[ステップS2]
ルール部12の重みCcd、 Cdeを、与えられた
ファジィルールを実現するように初期設定する。[Step S2] Initialize the weights Ccd and Cde of the rule section 12 so as to realize the given fuzzy rule.
[ステップS3コ
後件部メンバシップ関数実現部14の重みCefを、与
えられたメンバシップ関数を実現するように初期設定す
る。[Step S3] The weight Cef of the consequent membership function realization unit 14 is initialized so as to realize the given membership function.
[ステップS4コ
重心計算実現部18の重みC1gを、重心計算を実現す
るように初期設定する。[Step S4: Initialize the weight C1g of the center of gravity calculation implementation unit 18 so as to realize center of gravity calculation.
[ステップS5]
学習処理を行なうフェーズ毎のニューロングループを示
すフェーズ・グループ対応表及び各二ニーロングループ
に属する結線グループを示すグループ・結線対応表の設
定を行なう。[Step S5] A phase/group correspondence table indicating neuron groups for each phase in which learning processing is performed and a group/connection correspondence table indicating connection groups belonging to each two-neelon group are set.
[ステップS6]
学習スケジューラを起動してパックプロパゲーション法
により学習処理を行なう。[Step S6] Start the learning scheduler and perform learning processing using the pack propagation method.
このようなステップS1〜S6から成る学習処理におい
て、ステップ81〜S3の前件部メンバシップ関数実現
部10、ルール部12及び後件部メンバシップ関数実現
部14に対する重み値の初期設定は各実施例毎に異なる
が、いずれの実施例にあってもステップS6で最初に、
即ちフェーズ1で重み学習を行なう部分については予め
持っている知識の導入に基づく重み値の初期設定、また
は乱数を用いたランダムな重み値の初期設定を行ない、
2回目以降に重み値を学習する部分、即ちフェーズ2以
降に重み値を学習する部分については予め持っている知
識の導入に基づいた重み値の初期設定のみを行なってい
る。In such a learning process consisting of steps S1 to S6, the initial setting of weight values for the antecedent membership function realization unit 10, rule unit 12, and consequent membership function realization unit 14 in steps 81 to S3 is performed in each implementation. Although each example is different, in any of the examples, in step S6, first,
That is, for the part where weight learning is performed in Phase 1, initial setting of weight values based on the introduction of knowledge that is previously held or initial setting of random weight values using random numbers is performed.
For the part where the weight values are learned from the second time onwards, that is, the part where the weight values are learned from the phase 2 onwards, only the initial setting of the weight values is performed based on the introduction of previously held knowledge.
ステップS4の重心計算実現部18に対する重み値の初
期設定は全ての実施例について同じである。また、ステ
ップS5のフェーズ・グループ対応表の設定は、各実施
例毎に固有のニューロングループを設定するが、グルー
プ・結線対応表については共通に設定される。更に、ス
テップS6の学習スケジューラの起動による重み学習に
あっては、全ての実施例において最終段階の重み学習を
後件部メンバシップ関数実現部14に対し行なう点は共
通しているが、後件部メンバシップ関数実現部14の重
み学習に先立って行なう前段階の重み学習の対象が各実
施例毎に異なっている。The initial setting of weight values for the center of gravity calculation implementation unit 18 in step S4 is the same for all embodiments. Further, in setting the phase/group correspondence table in step S5, a unique neuron group is set for each embodiment, but the group/connection correspondence table is set in common. Furthermore, in the weight learning by activating the learning scheduler in step S6, all embodiments have the same point in that the final stage of weight learning is performed on the consequent membership function realization unit 14. The object of weight learning performed in the preliminary stage prior to weight learning by the section membership function realizing section 14 is different for each embodiment.
以下、第2A図の第1実施例を例にとって本発明のルー
ル部プリワイヤニューロの学習方法の具体例を詳細に説
明する。Hereinafter, a specific example of the learning method of the rule section pre-wired neuron of the present invention will be explained in detail by taking the first embodiment shown in FIG. 2A as an example.
[第1実施例]
第2A図の第1実施例にあっては、ステップ81〜S3
で前件部メンバシップ関数実現部10、ルール部12及
び後件部メンバシップ関数実現所・14の重み値を、与
えられたメンバシップ関数を実現するように初期設定し
、ステップS4で重心計算実現部18の重み値を初期設
定した後、ステップS5のフェーズ・グループ対応表及
びグループ・結線対応表の設定を経てステップS6でま
ずフェーズ1で前件部メンバシップ関数実現部10の重
み学習を行ない、その後にフェーズ2で後件部メンバシ
ップ関数実現部14の重み学習を行なうようにしたこと
を特徴とする。[First Example] In the first example shown in FIG. 2A, steps 81 to S3
In step S4, the weight values of the antecedent membership function realization unit 10, the rule unit 12, and the consequent membership function realization unit 14 are initialized to realize the given membership function, and in step S4, the center of gravity is calculated. After initializing the weight values of the realization unit 18, the phase/group correspondence table and the group/connection correspondence table are set in step S5, and then the weight learning of the antecedent membership function realization unit 10 is performed in phase 1 in step S6. The method is characterized in that the weight learning of the consequent membership function realization unit 14 is performed in phase 2.
ステップS6のフェーズ1で最初に重み学習を行なうの
は、前件部メンバシップ関数実現部10であることから
、ステップS1の前件部メンバシップ関数実現部の重み
値の初期設定にあっては、重み値を予め持っている知識
の導入に基づいて初期設定するか、あるいは乱数を用い
てランダムに重み値を初期設定する。これに対し学習を
行なわないルール部12については、ステップS2に示
すように予め持っている知識の導入に基づいて重み値の
初期設定を行なっており、またフェーズ2となる最終段
階で学習を行なう後件部メンバシップ関数実現部14に
ついては、ステップS3に示すようにルール部12と同
様、予め持っている知識の導入に基づいて重み値を初期
設定している。Since it is the antecedent membership function realization unit 10 that first performs weight learning in phase 1 of step S6, it is necessary to initialize the weight values of the antecedent membership function realization unit in step S1. , the weight values are initialized based on the introduction of prior knowledge, or the weight values are initialized randomly using random numbers. On the other hand, for the rule section 12 that does not perform learning, the weight values are initialized based on the introduction of pre-existing knowledge as shown in step S2, and learning is performed in the final stage of phase 2. As for the consequent membership function realization section 14, as shown in step S3, similarly to the rule section 12, weight values are initially set based on the introduction of knowledge held in advance.
このような第1実施例の学習動作フローに示したステッ
プS1〜S6のそれぞれの処理を詳細に説明すると次の
ようになる。A detailed explanation of each process of steps S1 to S6 shown in the learning operation flow of the first embodiment is as follows.
[ルール部プリワイヤニューロの構成]本発明の対象と
なるルール部プリワイヤニューロは、例えば第3図に示
すファジィ制御ルールを実現可能な階層ネットワーク構
造を有する。[Configuration of the rule section prewire neuron] The rule section prewire neuron to which the present invention is applied has a hierarchical network structure capable of realizing the fuzzy control rule shown in FIG. 3, for example.
第3図において、各部に示したノードは1つの基本ユニ
ットを示しており、基本ユニットは黒丸で示すシグモイ
ド関数ユニットと、白丸で示す線形関数ユニットの2種
が使用されている。In FIG. 3, each node shown in each part represents one basic unit, and two types of basic units are used: a sigmoid function unit shown by a black circle, and a linear function unit shown by a white circle.
第4図は第3図の基本ユニットの構成を取り出して示す
。FIG. 4 shows the configuration of the basic unit shown in FIG. 3.
第4図において、基本ユニット201;L多入力1出力
系を構成しており、複数の入力に対し各々の内部結合の
重み値を乗算する乗算部22と、乗算部22の全乗算結
果を加算する加算部24と、加算部24の出力に閾値処
理を施す閾値処理部26とで構成される。In FIG. 4, a basic unit 201 constitutes an L multi-input 1-output system, and includes a multiplication section 22 that multiplies multiple inputs by the weight values of each internal connection, and a multiplication section 22 that adds all the multiplication results of the multiplication section 22. and a threshold processing section 26 that performs threshold processing on the output of the addition section 24.
ここで前段層をh層、後段層をi層とすると乗算部22
と加算部24は下記の(1)式の演算を実行し、また閾
値処理部26では下記の(2)式の演算を実行する。Here, if the first layer is the h layer and the second layer is the i layer, the multiplier 22
The addition unit 24 executes the calculation of equation (1) below, and the threshold processing unit 26 executes the calculation of equation (2) below.
x、、=Σ’J jhw l h
(1)れ
yp+=1/ (1+e−′x”−”’ )
(2)但し、
h :h層のユニット番号
i :i層のユニット番号
p :入力信号のパターン番号
θ1 :i層の1番ユニットの閾値
Wlh:h−i層間の内部結合の重み値x、I:h層の
各ユニットからi層の1番ユニットへの入力の積和
Tab:p番目パターンの入力信号に対するh層の6番
ユニットからの出力
y2□:p番目パターンの入力信号に対するi層の1番
ユニットからの出力
ここで前記(2)式はシグモイド関数として知られてお
り、第3図に示した黒丸の基本ユニットの閾値処理とな
る。x,,=Σ'J jhw l h
(1) yp+=1/ (1+e-'x"-"')
(2) However, h: unit number of the h layer i: unit number of the i layer p: pattern number of the input signal θ1: threshold value of the first unit of the i layer Wlh: weight value x of the internal connection between the h-i layers, I: Sum of products of inputs from each unit of the h layer to the 1st unit of the i layer Here, the above equation (2) is known as a sigmoid function, and is the threshold value processing of the basic unit indicated by the black circle shown in FIG.
これに対し閾値処理部26に y pl= x 。In contrast, the threshold processing unit 26 ypl=x.
となる線形関数を設定したものが第3図における白丸の
線形関数ユニットとなる。但し、前件部メンバシップ関
数実現部10の最初のユニットである入力部は必ずしも
線形関数ユニットでなくて良い。この第4図の基本ユニ
ットのハードウェアは特願昭63−216865号の[
ネットワーク構成データ処理装置」に示される。The linear function unit set as follows becomes the white circle linear function unit in FIG. However, the input section, which is the first unit of the antecedent membership function realization section 10, does not necessarily have to be a linear function unit. The hardware of the basic unit shown in Fig. 4 is disclosed in Japanese Patent Application No. 63-216865.
"Network Configuration Data Processing Device".
再び第3図を参照してルール部プリワイヤニューロの各
部の構成を説明する。Referring again to FIG. 3, the configuration of each part of the rule section pre-wire neuro will be explained.
まず前件部メンバシップ関数実現部10は、各入力変数
Xn、X2. ・・・Xnを入力とし、入力変数Xn
〜Xnのメンバシップ関数のグレード値を出力する。図
では簡単のため各メンバシップ関数は1変数関数として
いるが、多変数関数であってもよい。つまり変数X1と
X2を入力としてXI &X2 (SA)
というメンバシップ関数であっても良い。First, the antecedent membership function realization unit 10 executes each input variable Xn, X2 . ...Xn is input, input variable Xn
Output the grade value of the membership function of ~Xn. In the figure, each membership function is a one-variable function for simplicity, but it may be a multi-variable function. In other words, it may be a membership function XI &X2 (SA) with variables X1 and X2 as inputs.
ルール部12は前件部ルール部12−1と後件部ルール
部12−2で構成される。前件部ルール部12−1は、
入力変数X1〜Xnのメンバシップ関数X 1(S A
) 〜X n (L A )のグレード値を入力とし
て、各ルールのグレード値を出力する。The rule section 12 includes an antecedent section rule section 12-1 and a consequent section rule section 12-2. The antecedent part rule part 12-1 is
Membership function X1(S A
) to X n (LA) as input, and outputs the grade value of each rule.
また後件部ルール部12−2は、ルールのグレード値L
H8−1〜LH3−nを入力として出力変数のメンバシ
ップ関数y (SA)〜y (LA)のグレード値を出
力する。Further, the consequent part rule part 12-2 contains the grade value L of the rule.
H8-1 to LH3-n are input, and grade values of membership functions y (SA) to y (LA) of output variables are output.
更に後件部メンバシップ関数実現部14(重心計算実現
部16を含む)は、出力変数のメンバシップ関数y (
SA)〜y (LA)のグレード値を入力して、出力変
数Yの値を出力する。Further, the consequent membership function realization unit 14 (including the centroid calculation realization unit 16) calculates the membership function y (
Input the grade values of SA) to y (LA) and output the value of the output variable Y.
ここで、前件部ルール部12−1と後件部ルール部12
−2を合わせたルール部12は、入力も出力もメンバシ
ップ関数のグレード値であるので、これをカスケード結
合することができ、多段推論が可能である。Here, the antecedent part rule part 12-1 and the consequent part rule part 12
Since both the input and output of the rule unit 12 including -2 are the grade values of the membership function, these can be cascaded and multi-stage inference is possible.
また、各モジュール10.12−1.12−2゜14間
を結ぶニューロンは共用できる。例えば前件部メンバシ
ップ関数実現部10の出力ニューロンと前件部ルール部
12−1の入力ニューロンは実際には同じものでよい。Further, the neurons connecting each module 10.12-1.12-2.14 can be shared. For example, the output neuron of the antecedent membership function implementation unit 10 and the input neuron of the antecedent rule unit 12-1 may actually be the same.
更に第3図では各ユニットを1つのニューロとして説明
しているが、ユニットの機能が特定できているものにつ
いてはニューロとせずにユニット機能を実現するゲート
回路、演算器等としても良い。Further, in FIG. 3, each unit is described as one neuron, but if the function of the unit can be specified, it may be used as a gate circuit, an arithmetic unit, etc. that realizes the unit function instead of a neuron.
第5A図は本発明のルール部プリワイヤニューロの具体
的実施例を示したもので、入力Xn、X2の2つを与え
て制御出力Yを得る場合を例にとっており、この第5A
図を参照して各部の構成を詳細に説明すると次のように
なる。FIG. 5A shows a specific embodiment of the rule section pre-wired neuron of the present invention, taking as an example a case where two inputs, Xn and X2, are given to obtain a control output Y.
The configuration of each part will be explained in detail with reference to the drawings as follows.
入力部16は分離ユニット28−1.28−2で構成さ
れ、入力Xn、X2を2つに分けて前件部メンバシップ
関数実現部10に与える。前件部メンバシップ関数実現
部10は4つのシグモイド関数ユニット30−1〜30
−4及び同じく4つの線形関数ユニット32−1〜32
−3で構成される。The input section 16 is composed of separation units 28-1 and 28-2, which divides the inputs Xn and X2 into two and supplies them to the antecedent membership function realization section 10. The antecedent membership function realization unit 10 includes four sigmoid function units 30-1 to 30.
-4 and the same four linear function units 32-1 to 32
-3.
ルール部12は例えば8つのファジィルールを実現する
シグモイド関数ユニット34−1〜34−8を備え、前
件部メンバシップ関数実現部10からは各ファジィルー
ルL1〜L8の記述に従った結線が行なわれている。シ
グモイド関数ユニット34−1〜34−8の出力はファ
ジィルールに従って後件部演算を行なう2つの線形関数
ユニット36−1.36−2にファジィルールに従って
結線されている。The rule section 12 includes, for example, sigmoid function units 34-1 to 34-8 that realize eight fuzzy rules, and the antecedent membership function realization section 10 performs wiring according to the description of each fuzzy rule L1 to L8. It is. The outputs of the sigmoid function units 34-1 to 34-8 are connected according to fuzzy rules to two linear function units 36-1 and 36-2 which perform consequent operations according to fuzzy rules.
後件部メンバシップ関数実現部14は例えば9つの線形
関数ユニット38−1〜38−9で構成されており、ル
ール部12から出力される2つのユニット出力値(グレ
ード値)に基づいてメンバシップ関数を縮小(または拡
大)すると共に縮小(または拡大)した2つのメンバシ
ップ関数の関数和を算出する。The consequent membership function realization unit 14 is composed of, for example, nine linear function units 38-1 to 38-9, and determines membership based on two unit output values (grade values) output from the rule unit 12. The function is reduced (or enlarged) and the function sum of the two reduced (or enlarged) membership functions is calculated.
更に重心計算実現部18は重心決定要素出力装置40と
重心算出装置42で構成される。重心決定要素出力装置
40の線形関数ユニツ) 40−1. 。Furthermore, the center of gravity calculation implementation unit 18 is composed of a center of gravity determining element output device 40 and a center of gravity calculation device 42. Linear function unit of center of gravity determining element output device 40) 40-1. .
40−2は、後件部メンバシップ関数実現部]4からの
ユニット出力の重付は総和を演算して2つの重心算出要
素Y、、Y2を求め、最終的に重心算出装置42で2つ
の重心算出要素Y、、Y2から重心を算出してファジィ
推論値としての制御出力Yを生ずる。40-2 is a consequent membership function realization unit] The weighting of the unit output from 4 calculates the sum to obtain two centroid calculation elements Y, , Y2, and finally the centroid calculation device 42 calculates the two The center of gravity is calculated from the center of gravity calculation elements Y, , Y2 to generate a control output Y as a fuzzy inference value.
第5B図は第5A図のルール部プリワイヤニューロにつ
いて本発明による学習方法を実現するためのニューロン
グループと結線グループを示す。FIG. 5B shows neuron groups and connection groups for realizing the learning method according to the present invention for the rule section pre-wire neuron of FIG. 5A.
第5B図において、ニューロングループはGa−Ggの
7つであるが、この内、入力部のニューロングループG
aと重心計算実現部18のニューロングループGgの2
つについては単なる分離及び加算合成を行なうにすぎな
いことから、バックプロパゲーション法による重みの学
習対象からは除いている。従ってパックプロパゲーショ
ン法による重みの学習対象に入るニューロングループは
Gb、Gc、Gd、Ge及びGfの5つとなる。In FIG. 5B, there are seven neuron groups, Ga-Gg, among which neuron group G in the input section
a and 2 of neuron group Gg of center of gravity calculation realization unit 18
As for the first one, it is excluded from the weight learning target by the backpropagation method because it merely performs separation and addition/synthesis. Therefore, there are five neuron groups that are subject to weight learning by the pack propagation method: Gb, Gc, Gd, Ge, and Gf.
一方、各二ニーロングループの入力結線を示す結線グル
ープはCab〜Cjgの6っであり、学習対象となるニ
ューロングループの前段に位置する入力結線の重み値を
パックプロパゲーション法により学習する。On the other hand, there are six connection groups representing the input connections of each two-neelon group, Cab to Cjg, and the weight values of the input connections located before the neuron group to be learned are learned by the pack propagation method.
このjI5A、5B図に示した構造のルール部プリワイ
ヤニューロを対象とした第2図の学習動作フローにつき
、まず各部に対する重み値の初期設定を説明すると次の
ようになる。Regarding the learning operation flow shown in FIG. 2, which targets the rule section pre-wire neuron having the structure shown in FIGS.
[前件部メンバシップ関数実現部の初期設定]この前件
部メンバシップ関数実現部10に対する重み値の初期設
定は結線グループCab及びCbcに含まれる各結線の
重みを、与えられたメンバシップ関数を実現するように
初期設定する。[Initial setting of the antecedent membership function realizing unit] The initial setting of the weight value for the antecedent membership function realizing unit 10 is to set the weight of each connection included in the connection groups Cab and Cbc to the given membership function. Initial settings are made to achieve this.
第6図は第5A図の前件部メンバシップ関数実現部10
における制御人力x1側を取り出して示す。 第6図に
おいて、シグモイド関数ユニット30−1.30−2よ
り出力される出力値yはy=1/ (1+e−””“−
′) ) (3)で表わされる。FIG. 6 shows the antecedent membership function realization unit 10 of FIG. 5A.
The control human power x1 side in is extracted and shown. In FIG. 6, the output value y output from the sigmoid function unit 30-1.30-2 is y=1/(1+e-"""-
') ) (3)
本発明の前件部メンバシップ関数実現部10に対する重
み値の初期設定にあっては、予め持っている知識に基づ
き、例えばシグモイド関数ユニッ)30−1の入力結線
の重み値Wとして、W=−20
を設定し、且つシグモイド関数ユニット3o−1に閾値
θとして、
θ=−10
を設定する。In the initial setting of the weight value for the antecedent membership function realization unit 10 of the present invention, based on the knowledge that is available in advance, for example, as the weight value W of the input connection of the sigmoid function unit 30-1, W= −20 is set, and θ=−10 is set as the threshold value θ in the sigmoid function unit 3o-1.
またもう1つのシグモイド関数ユニット30−2の入力
結線の重み値Wとして、
W=20
を設定し、同時にシグモイド関数ユニット3゜2に閾値
θとして、
θ=10
を設定する。尚、線形関数ユニット32−1. 32−
2の入力結線の重み値は重み初期値=1を設定している
。Further, the weight value W of the input connection of the other sigmoid function unit 30-2 is set to W=20, and at the same time, the threshold value θ of the sigmoid function unit 3.2 is set to θ=10. Note that the linear function unit 32-1. 32-
The weight value of the input connection No. 2 is set to the initial weight value=1.
このようにシグモイド関数ユニット30−1に、W<Q
θ〈0
となる重み値及び閾値を初期設定した場合には、第7図
の特性曲線44に示す制御出力Xnに対するユニット出
力値Xn(SS)、即ち制御人力Xが大きくなるとユニ
ット出力値Xn(SS)が小さくなるという関数形状の
メンバシップ関数の真理値算出機能を設定することがで
きる。In this way, in the sigmoid function unit 30-1, W<Q
When the weight value and threshold value are initially set such that θ<0, the unit output value Xn(SS) for the control output Xn shown in the characteristic curve 44 in FIG. It is possible to set a truth value calculation function for a membership function having a function shape such that SS) becomes small.
またシグモイド関数ユニット30−2に、W>Q
θ〉0
となる重み値及び閾値を初期設定することで第7図の特
性曲線46に示す制御人力Xnに対するユニット出力値
X+(LA)、即ち制御人力Xが大きい程ユニット出力
値Xn(LA)が大きくなるという関数形状のメンバシ
ップ関数の真理値を算出する機能が実現できる。Also, in the sigmoid function unit 30-2, W>Q
By initially setting the weight value and threshold value such that θ>0, the unit output value X+(LA) for the control human power Xn shown in the characteristic curve 46 in FIG. 7, that is, the larger the control human power X, the unit output value Xn(LA). It is possible to realize a function that calculates the truth value of a membership function whose function shape is such that .
この第6図に示すシグモイド関数ユニット301.30
−2に対する重み値及び閾値の初期設定は、前件部メン
バシップ関数実現部10における残りのシグモイド関数
ユニット30−3.304側についても所望の前件部メ
ンバシップ関数を実現するように予め持っている知識に
基づいて初期設定する。Sigmoid function unit 301.30 shown in FIG.
The initial settings of the weight value and threshold for -2 are set in advance so that the desired antecedent membership function is realized for the remaining sigmoid function unit 30-3.304 side in the antecedent membership function realization unit 10. initial settings based on your knowledge.
[ルール部の初期設定]
第5A図のルール部12に対する重み値の初期設定は、
第5B図に示す結線グループCc+I及びCdeに属す
る各結線の重み値を、与えられたファジィルールを実現
するように予め持っている知識を導入して初期設定する
。[Initial Setting of Rule Section] The initial setting of the weight value for the rule section 12 in FIG. 5A is as follows.
The weight values of the respective connections belonging to the connection groups Cc+I and Cde shown in FIG. 5B are initialized by introducing knowledge held in advance so as to realize the given fuzzy rule.
第8図はルール部12に対する重み値の初期膜・定の具
体例をファジィルールと共に示した説明図である。FIG. 8 is an explanatory diagram showing a specific example of the initial value constant of the weight value for the rule section 12 together with fuzzy rules.
第8図において、8つのシグモイド関数ユニット34−
1〜34−8は、右側に取り出して示すファジィルール
L1〜L8のそれぞれに対応している。シグモイド関数
ユニット34−1〜34−8のそれぞれに対しては前段
に位置する前件部メンバシップ関数実現部10の線形関
数ユニット32−1〜32−4からファジィルールし1
〜L8に従った入力結線が行なわれている。また8つの
シグモイド関数ユニット34−1〜34−8に続いて設
けられた2つの線形関数ユニット36−1゜36−2に
対してもファジィルールし1〜L8の後件部(T HE
N)に従った結線が行なわれている。In FIG. 8, eight sigmoid function units 34-
1 to 34-8 correspond to fuzzy rules L1 to L8 extracted and shown on the right side, respectively. For each of the sigmoid function units 34-1 to 34-8, fuzzy rules are calculated from the linear function units 32-1 to 32-4 of the antecedent membership function realization section 10 located at the previous stage.
Input connections are made in accordance with ~L8. Furthermore, fuzzy rules are applied to the two linear function units 36-1 and 36-2 provided following the eight sigmoid function units 34-1 to 34-8, and the consequent parts of 1 to L8 (T HE
Connections are made in accordance with N).
ここで第8図のルール部12におけるシグモイド関数ユ
ニット34−1〜34−8の入力結線に初期設定する重
み値とユニット自体に設定する閾値に基づくファジィ論
理演算の関数形状を説明すると次のようになる。Here, the function shape of the fuzzy logic operation based on the weight values initially set for the input connections of the sigmoid function units 34-1 to 34-8 in the rule section 12 of FIG. 8 and the threshold values set for the units themselves will be explained as follows. become.
第9図はルール部1201つのシグモイド関数ユニット
34を示したもので、前段に位置する前件部メンバシッ
プ関数実現部10より真理値X1゜X2が入力し、積和
演算及び閾値処理により出力値yを生ずる。FIG. 9 shows one sigmoid function unit 34 in the rule section 120, in which truth values produces y.
第9図のシグモイド関数ユニット34より出力される出
力値yは、
5=Wx1・Xn+Wx1・X2−θ (4)y=
1/ (1+e−s) (5)とし
て算出される。この前記(5)式で与えられるユニット
出力値yは、入力結線の重み値Wx1゜Wx7及び閾値
θを任意に設定することで適宜の関数形状を実現するこ
とができる。The output value y output from the sigmoid function unit 34 in FIG. 9 is as follows: 5=Wx1・Xn+Wx1・X2−θ (4) y=
It is calculated as 1/(1+e-s) (5). The unit output value y given by the above equation (5) can have an appropriate function shape by arbitrarily setting the input connection weight values Wx1 to Wx7 and the threshold value θ.
具体的には第8図のシグモイド関数ユニット34−1〜
34−8の入力結線に示す数値か重み初期値として設定
され、またシグモイド関数ユニット34−1〜34−8
の下側に示す数値が閾値θを示す。Specifically, the sigmoid function units 34-1 to 34-1 in FIG.
The numerical value shown in the input connection of 34-8 is set as the initial weight value, and the sigmoid function units 34-1 to 34-8
The numerical value shown below indicates the threshold value θ.
例えばファジィルールL1を実現するシグモイド関数ユ
ニット34−1にあっては、
が設定されており、これら初期値の設定によりファジィ
ルールL1を実現するシグモイド関数ユニット34−1
は第10図の三次元座標で示される関数形状の閾値処理
を行なうことになる。For example, in the sigmoid function unit 34-1 that realizes the fuzzy rule L1, the following is set, and by setting these initial values, the sigmoid function unit 34-1 that realizes the fuzzy rule L1
will perform threshold processing of the function shape shown by the three-dimensional coordinates in FIG.
以下、同様にシグモイド関数ユニット34−2〜34−
8の各ファジィルールし2〜L8に対する重み値及び閾
値の初期設定により第11〜17図に示す関数形状を得
ることができる。Hereinafter, similarly, sigmoid function units 34-2 to 34-
By initializing the weight values and threshold values for each of the 8 fuzzy rules 2 to L8, the function shapes shown in FIGS. 11 to 17 can be obtained.
尚、第8図の出力段に設けられた線形関数ユニット36
−1.36−2に対する結線の重み値は1に初期設定さ
れており、また閾値処理については線形関数であり、θ
=0が設定される。Note that the linear function unit 36 provided at the output stage in FIG.
The weight value of the connection for -1.36-2 is initially set to 1, and the threshold processing is a linear function, and θ
=0 is set.
[後件部メンバシップ関数実現部の初期設定]第5A図
の後件部メンバシップ関数実現部14に対する重み値の
初期設定は、第5B図の結線グループCelに属する結
線の重み値を予め持っている知識に基づき、与えられた
メンバシップ関数を実現するように初期設定する。[Initial settings of the consequent membership function realizing unit] The initial setting of the weight values for the consequent membership function realizing unit 14 in FIG. 5A is as follows: The weight values of the connections belonging to the connection group Cel in FIG. 5B are preset. Initial settings are made to realize the given membership function based on the knowledge of the given membership function.
第18図は後件部メンバシップ関数実現部14に対する
重み値の初期設定を具体的に示した説明図である。FIG. 18 is an explanatory diagram specifically showing the initial setting of weight values for the consequent membership function realization unit 14.
第18図において、後件部メンバシップ関数実現部14
に設けられた9つの線形関数ユニット38−1〜38−
9に対しては、前段のルール部12の線形関数ユニッ)
36−1.36−2より図示のように結線入力が行なわ
れている。この9つのユニットは、38−1〜38−9
の順番に制御出力yの練直線上のO〜1の範囲の点に等
間隔に対応している。In FIG. 18, the consequent membership function realization unit 14
Nine linear function units 38-1 to 38- provided in
9, the linear function unit of the previous rule part 12)
Connection input is performed from 36-1 and 36-2 as shown in the figure. These nine units are 38-1 to 38-9
correspond to points in the range O to 1 on the training line of the control output y at equal intervals.
この線形関数ユニット38−1〜38−9に対する入力
結線の重み値の初期設定は、ルール部12のユニット3
6−1からの出力y(SS)の結線の重み値については
、右側に示す横軸を制御出力Y1縦軸をユニット出力値
としたグラフの特性曲線46に従ってユニツ)38−1
側からユニット38−9側に重み値、
1、 1. 1. G、75. Q、5. 0.2
5. 0. CI、 0を初期設定する。The initial setting of the weight values of the input connections for the linear function units 38-1 to 38-9 is performed by the unit 3 of the rule section 12.
Regarding the weight value of the connection of the output y (SS) from unit 6-1, follow the characteristic curve 46 of the graph shown on the right side with the horizontal axis as the control output Y1 and the vertical axis as the unit output value.
Weight values from the side to the unit 38-9 side, 1, 1. 1. G, 75. Q, 5. 0.2
5. 0. CI, initialize to 0.
またルール部12のユニット出力y (LA)からの入
力結線の重み値については、特性曲線48に従ってユニ
ット38−1側からユニット38−9側に向けて重み値
、
0、 0. 0. G、25. Q、5. G、’75
. 1. ]、、 ■を初期設定する。Further, regarding the weight values of the input connections from the unit output y (LA) of the rule section 12, the weight values are changed from 0 to 0 from the unit 38-1 side to the unit 38-9 side according to the characteristic curve 48. 0. G, 25. Q, 5. G, '75
.. 1. ],, ■Initialize.
更に線形関数ユニット38−1〜38−9の閾値θはθ
=0に設定する。Furthermore, the threshold value θ of the linear function units 38-1 to 38-9 is θ
= 0.
このような後件部メンバシップ関数実現部14における
重み値の初期設定により、ルール部12の線形関数ユニ
ッ)36−1.36−2から出力されたユニット出力値
y(SS)及びy (LA)は、重み初期値の乗算によ
り縮小された後に加算され、次の重心計算実現部18に
出力される。Due to the initial setting of the weight values in the consequent membership function realization unit 14, the unit output values y(SS) and y(LA ) is reduced by multiplication by the initial weight value, added, and output to the next center of gravity calculation implementation unit 18.
尚、第18図にあっては、ユニット出力を縮小するよう
に1以下の重み値を初期設定しているが、1以上の重み
値を設定して拡大することも有り得る。In FIG. 18, a weight value of 1 or less is initially set so as to reduce the unit output, but it is also possible to set a weight value of 1 or more to enlarge it.
[重心計算実現部の初期設定]
第5A図の重心計算実現部18に対する重み値の初期設
定は、第5B図の結線グループCfgに対し重心計算を
実現するように初期設定する。[Initial Setting of Center of Gravity Calculation Implementation Unit] The weight values for the center of gravity calculation implementation unit 18 in FIG. 5A are initialized so as to realize center of gravity calculation for the connection group Cfg in FIG. 5B.
第19図は重心計算実現部18の重心決定要素出力装置
40に対して行なわれる重心計算を実現するための重み
値の初期設定の具体例を示す。FIG. 19 shows a specific example of initial setting of weight values for realizing the center of gravity calculation performed on the center of gravity determining element output device 40 of the center of gravity calculation implementation unit 18.
重心決定要素出力装置40に設けられた2つの線形関数
ユニット40−1.40−2に対しては、前段の後件部
メンバシップ関数実現部14に設けられた9つの線形関
数ユニット38−1〜38−9のそれぞれが結線される
。そして、この入力結線に対し図示のように重心計算に
使用する2つの重心導出値y、、Y2を算出するための
重み値が設定される。For the two linear function units 40-1 and 40-2 provided in the centroid determining element output device 40, the nine linear function units 38-1 provided in the consequent membership function realization unit 14 of the preceding stage ~38-9 are connected. Then, as shown in the figure, weight values for calculating the two gravity center derived values y, , Y2 used in the gravity center calculation are set for this input connection.
ファジィ制御にあっては一般的に次式に従って同一制御
出力位置についての縮小されたメンバシップ関数の関数
和で成る図形の重心を求めることでファジィ推論値であ
る制御出力Yを算出する方法を採用する。In fuzzy control, a method is generally adopted in which the control output Y, which is a fuzzy inference value, is calculated by finding the center of gravity of a figure consisting of the sum of functions of reduced membership functions for the same control output position according to the following formula: do.
Y= f grade(y)ydy / f gr3d
e(y)dy (6)この(6)式を実現するた
め、後件部メンバシップ関数実現部14の線形関数ユニ
ット38〜1〜38−9から線形関数ユニッ)40−1
に対する結線の重み値として、制御出力Yの最小値Y=
0を起点に最大値Y=1まで等間隔をもって0から増加
する重み値を割り付ける。一方、線形関数ユニット40
−2の入力結線に対しては、制御出力Yの最大値Y=1
を起点に最小値Y=0までの間に0から上記と同じ等間
隔をもって、例えば0から−1に減少する重み値を割り
付ける。Y= f grade (y) ydy / f gr3d
e(y)dy (6) In order to realize this formula (6), the linear function units 40-1 are obtained from the linear function units 38 to 1 to 38-9 of the consequent membership function realization unit 14.
As the connection weight value for the connection, the minimum value Y of the control output Y =
Starting from 0, weight values are assigned that increase from 0 at equal intervals up to the maximum value Y=1. On the other hand, the linear function unit 40
-2 input connection, maximum value of control output Y = 1
From 0 to the minimum value Y=0, weight values that decrease from 0 to -1, for example, are assigned at the same equal intervals as above.
このような線形関数ユニット40−1.40−2に対す
る入力結線の重み付けにより、前段の線形関数ユニット
38−1〜38−9のユニット出力値を01〜C9とす
ると、線形関数ユニット40−1は、
Yl=IC+ +〇、875 C2+0.75C3十〇
、625 C4+0.5 C5+[1,375C6十0
.25C,+0.125 C8+OC9(7)を出力し
、また線形関数ユニット40−2は、Yl”OC+
0.125 C20,25C3−0,375C4−0,
5C5−0,625C6−0,75C7−0,875C
8+IC3(8)を出力する。By weighting the input connections to the linear function unit 40-1, 40-2, if the unit output values of the preceding stage linear function units 38-1 to 38-9 are 01 to C9, the linear function unit 40-1 becomes , Yl=IC+ +〇, 875 C2+0.75C3〇, 625 C4+0.5 C5+[1,375C6〇
.. 25C, +0.125 C8+OC9 (7), and the linear function unit 40-2 outputs Yl”OC+
0.125 C20, 25C3-0, 375C4-0,
5C5-0,625C6-0,75C7-0,875C
Outputs 8+IC3 (8).
線形関数ユニッ)40−1.40−2から出力される重
心導出値Y、、Y2は重心算出装置42に与えられ、
Y=Y2 / (Y2−Y、) (9)を
使用して重心、即ちファジィ推論値である制御出力Yが
算出される。The centroid derived value Y, , Y2 output from the linear function unit) 40-1.40-2 is given to the centroid calculation device 42, and the centroid is calculated using That is, the control output Y, which is a fuzzy inference value, is calculated.
前記(9)式に前記(7)式及び(8)式を代入すると
、前記(9)式のYは、前記(6)式のYと一致するこ
とがわかる。By substituting the above equations (7) and (8) into the above equation (9), it can be seen that Y in the above equation (9) matches Y in the above equation (6).
以上の処理で第2図のステップ81〜S4に示したルー
ル部プリワイヤニューロに対する重み値の初期設定が終
了し、ステップS5に進む。With the above processing, the initial setting of the weight value for the rule section prewire neuron shown in steps 81 to S4 in FIG. 2 is completed, and the process proceeds to step S5.
[学習スケジュールの設定コ
第2A図のステップS5にあっては、初期設定の終了に
続いてルール部プリワイヤニューロに学習処理を行なわ
せるための学習計画、即ち学習スケジュールの設定を行
なう。この学習スケジュールの設定は、第20図(a)
に示すフェーズ・グループ対応表の設定と、同図(f)
に示すグループ・結線対応表の2つを行なう。尚、第2
0図(b)〜(e)のフェーズ・グループ対応表は第2
B〜2E図の第2〜第5実施例について示している。[Learning Schedule Setting] In step S5 of FIG. 2A, following the completion of the initial settings, a learning plan, ie, a learning schedule, for causing the rule section prewire neuro to perform learning processing is set. The setting of this learning schedule is shown in Figure 20(a).
The settings of the phase group correspondence table shown in the figure (f)
Perform the two steps shown in the group/connection correspondence table shown below. Furthermore, the second
The phase/group correspondence table in Figure 0 (b) to (e) is shown in the second
The second to fifth embodiments shown in FIGS. B to 2E are shown.
まずフェーズ・グループ対応表は学習フェー;の進行に
対し各フェーズで学習対象となるニューロングループを
指定する。本発明の第1実施例(:あっては、重み値の
初期設定後に前件部メンバ已ツブ関数実現部10の重み
を学習し、その後に彷件部メンバシップ関数実現部14
の重みを学習することがら、第20図(a)に示すよう
にフェーズ1に学習対象グループとして前件部メンバシ
・)プ関数実現部10に属する第5図の二ニーロン多ル
ープGb、Gcの2つを設定し、またフエ−22には学
習対象グループとして後件部メンバ已ツブ関数実現部1
4に属する第5B図のニューロジグループGfを設定す
る。First, the phase-group correspondence table specifies the neuron groups to be learned in each phase as the learning phase progresses. In the first embodiment of the present invention, the weights of the antecedent member member function realizing unit 10 are learned after the initial setting of the weight values, and then the weights of the antecedent member member function realizing unit 14 are learned.
As shown in FIG. 20(a), in Phase 1, as shown in FIG. In addition, in Fa-22, the consequent member and the function realization unit 1 are set as the learning target group.
Neurology group Gf in FIG. 5B belonging to No. 4 is set.
一方、グループ結線対応表はルール部プリワイヤニュー
ロにおける各二ニーロングループGa〜Ggと入力結線
グループCab−ClHの対応関係苓第20図(f)に
示すように設定しており、グ)L−プ・結線対応表は全
ての実施例において共通に設定される。On the other hand, the group connection correspondence table is set as shown in FIG. - A common connection table is set in all embodiments.
このようなフェーズ・グループ対応表及びグループ・結
線対応表の設定が終了すると、第2A図のステップS6
に進んで学習スケジューラを起動し、実際にルール部プ
リワイヤニューロに対し学習データを与えて、パックプ
ロパゲーション法により重みの学習を実行する。When the setting of the phase/group correspondence table and the group/connection correspondence table is completed, step S6 in FIG. 2A is completed.
Step 2 starts the learning scheduler, actually provides learning data to the rule section pre-wired neuron, and executes weight learning using the pack propagation method.
[学習スケジューラの処理と構成コ
第21図は本発明のルール部プリワイヤニューロの学習
処理フロー図を示す。この処理フロー図は例えば第22
図に示す装置構成により実現することができる
まず、学習処理のための装置構成を説明すると、第22
図において、ルール部プリワイヤニューロ100に対し
ては学習指示ユニット50と学習ユニット70が設けら
れる。[Processing and Configuration of Learning Scheduler] FIG. 21 shows a flowchart of the learning process of the rule section pre-wired neuron of the present invention. This processing flow diagram is, for example, the 22nd
First, the device configuration for learning processing that can be realized by the device configuration shown in the figure will be explained.
In the figure, a learning instruction unit 50 and a learning unit 70 are provided for the rule section pre-wired neuron 100.
学習指示ユニット50は学習スケジューラ52を有し、
学習スケジューラ52に対しては制御入力とその制御入
力に対する望ましい制御出力との対でなる学習信号を格
納した学習信号格納部54、第20図に示したフェーズ
・グループ対応表を格納したフェーズ・グループ対応テ
ープ56、及びグループ・結線対応表を格納したグルー
プ・結線対応テーブル58、更に学習収束判定部60が
設けられる。The learning instruction unit 50 has a learning scheduler 52,
For the learning scheduler 52, there is a learning signal storage unit 54 that stores learning signals consisting of pairs of control inputs and desired control outputs for the control inputs, and a phase group storage unit 54 that stores the phase group correspondence table shown in FIG. A correspondence tape 56, a group/connection correspondence table 58 storing a group/connection correspondence table, and a learning convergence determination section 60 are provided.
一方、学習ユニット70には学習指示読取部72、学習
フラグ設定部74及びパックプロパゲーション法により
重み値を変更する重み変更部76が設けられる。On the other hand, the learning unit 70 is provided with a learning instruction reading section 72, a learning flag setting section 74, and a weight changing section 76 that changes weight values using the pack propagation method.
更に、第22図における装置構成の特徴は、ルール部プ
リワイヤニューロ100における各ユニットを結ぶ結線
に学習調整器80が設けられている点である。Furthermore, a feature of the device configuration in FIG. 22 is that a learning adjuster 80 is provided in the connection connecting each unit in the rule section prewire neuron 100.
学習調整器80は第23図に示す構成を有する。The learning adjuster 80 has the configuration shown in FIG.
尚、学習調整器80と共に重み変更部76を示している
。Note that the weight change unit 76 is shown together with the learning adjuster 80.
学習調整器80にはフラグ保存部82、重み変更情報読
取部84及び重み変更量調整部86が設けられる。The learning adjuster 80 is provided with a flag storage section 82 , a weight change information reading section 84 , and a weight change amount adjustment section 86 .
一方、重み変更部76にはパックプロパゲーション法に
よる重み演算を実行する重み演算部88、重み保存部9
0及び重み変更量保存部92が設けられる。On the other hand, the weight change unit 76 includes a weight calculation unit 88 that performs weight calculation based on the pack propagation method, and a weight storage unit 9.
0 and a weight change amount storage section 92 are provided.
このように、ルール部プリワイヤニューロ100の結線
毎に学習調整器80を設けることで、学習指示ユニット
50の学習スケジューラ52によりルール部プリワイヤ
ニューロ100に対し結線の重み値を変更するか否かを
決定する学習フラグを設定することができ、学習フラグ
か有効、即ちフラグオンとなっている結線に対してのみ
重みの学習を行なうことが可能となる。In this way, by providing the learning adjuster 80 for each connection of the rule section pre-wire neuro 100, it is possible to determine whether or not the learning scheduler 52 of the learning instruction unit 50 changes the weight value of the connection for the rule section pre-wire neuro 100. It is possible to set a learning flag that determines the learning flag, and it is possible to perform weight learning only for connections for which the learning flag is valid, that is, the flag is turned on.
また、学習調整器80に対するフラグセットは、第2図
に示したようなファジィルールを実現可能なネットワー
ク構造をもたない一般的な階層ネットワークに対し、フ
ァジィルールを実行可能な前件部メンバシップ関数実現
部、ルール部及び後件部メンバシップ関数実現部で成る
階層ネットワーク構造を特定する際にも使用される。Furthermore, the flag set for the learning coordinator 80 sets the antecedent membership that can execute fuzzy rules for a general hierarchical network that does not have a network structure that can implement fuzzy rules as shown in FIG. It is also used when specifying a hierarchical network structure consisting of a function realization section, a rule section, and a consequent membership function realization section.
ファジィルールに適合した階層ネットワークを構成した
状態でパックプロパゲーション方により実際に学習させ
る際の重み値の調整は次のように行なわれる。When a hierarchical network conforming to fuzzy rules is configured, the weight values are adjusted as follows when actually learning is performed by the pack propagation method.
第23図において、学習調整器80の重み変更情報読取
部84が重み変更部76の重み変更量保存部92に対し
重み演算部88より重みの変更量が書き込まれているか
否かを監視している。重み変更情報読取部84で重みの
変更があったことを検知すると、その旨を重み変更量調
整部86に伝える。重み変更量調整部86はフラグ保存
部82の学習フラグを調べ、学習フラグがオンであれば
何もしない。即ち、重み変更量保存部92への書込みを
有効とする。一方、学習フラグがオフであれば、重み変
更量調整部86は重み変更部76の重み変更量保存部9
2にゼロを設定し、重み変更を無効とする。この学習ス
ケジューラのハードウェアは特願昭63−227825
号の「ネットワーク構成データ処理装置の学習方式」に
示される。In FIG. 23, the weight change information reading unit 84 of the learning adjuster 80 monitors whether the weight change amount has been written by the weight calculation unit 88 to the weight change amount storage unit 92 of the weight change unit 76. There is. When the weight change information reading unit 84 detects that the weight has changed, it notifies the weight change amount adjustment unit 86 of the fact. The weight change amount adjustment unit 86 checks the learning flag in the flag storage unit 82, and does nothing if the learning flag is on. That is, writing to the weight change amount storage section 92 is made valid. On the other hand, if the learning flag is off, the weight change amount adjustment section 86 changes the weight change amount storage section 9 of the weight change section 76.
2 is set to zero to disable the weight change. The hardware of this learning scheduler is disclosed in Japanese Patent Application No. 63-227825.
``Learning method for network configuration data processing device'' in the issue.
[学習スケジューラの処理内容]
次に第21図の処理フロー図を参照して第22゜23図
の装置構成に従った本発明の第1実施例におけるルール
部プリワイヤニューロの学習処理を説明する。[Processing contents of learning scheduler] Next, the learning process of the rule section pre-wired neuro in the first embodiment of the present invention according to the device configuration of FIGS. 22 and 23 will be explained with reference to the process flow diagram of FIG. 21. .
まず学習指示ユニット50の学習スケジューラ52が起
動されると、ステップSL(以下「ステップ」は省略)
で学習フェーズの進行を示すフェーズカウンタiをi=
1にセットしてS2に進み、フェーズ・グループ対応テ
ーブル56を参照して学習フェーズi=1に対応するニ
ューロングループ番号Gb、Gcを読み出す。即ち、最
初に重み学習を行なう前件部メンバシップ関数実現部1
0に属するニューロングループ番号Gb、Gcを読み出
す。First, when the learning scheduler 52 of the learning instruction unit 50 is activated, step SL (hereinafter "step" is omitted)
Let the phase counter i indicating the progress of the learning phase be i=
It is set to 1 and the process proceeds to S2, where the phase/group correspondence table 56 is referred to and the neuron group numbers Gb and Gc corresponding to the learning phase i=1 are read out. That is, the antecedent membership function realization unit 1 that performs weight learning first
The neuron group numbers Gb and Gc belonging to 0 are read out.
続いてS3に進み、ニューロングループ番号Gb、Gc
に対応した結線グループ番号Cab、 Cbcをグル
ープ・結線対応テーブル58を参照して読み出す。次に
84に進み、結線グループ番号Cab。Next, proceed to S3, and set neuron group numbers Gb and Gc.
The connection group numbers Cab and Cbc corresponding to ``Cab'' and ``Cbc'' are read out with reference to the group/connection correspondence table 58. Next, the process advances to 84 and the connection group number Cab.
Cbcを出力して結線グループ番号Cah、 Cbe
に属する結線に設けられた学習調整器80の学習フラグ
をオンする。具体的には、学習指示ユニット50の学習
スケジューラ52から学習ユニット70の学習指示読取
部72に対し結線グループ番号Cab、 Cbcを出
力して読み取らせる。学習指示読取部72の読取結果を
受けた学習フラグ設定部74は、結線グループ番号Ca
b、 Cbcに属する結線に設けられている学習調整
器80のフラグ保存部82に対しフラグオンを指令して
学習フラグをセットする。これにより前件部メンバシッ
プ関数実現部10の重み学習の指定が行なわれる。Output Cbc and connect group number Cah, Cbe
The learning flag of the learning adjuster 80 provided in the connection belonging to the connection is turned on. Specifically, the learning scheduler 52 of the learning instruction unit 50 outputs the connection group numbers Cab and Cbc to the learning instruction reading section 72 of the learning unit 70 for reading. The learning flag setting unit 74 receives the reading result from the learning instruction reading unit 72, and sets the connection group number Ca.
b. The learning flag is set by instructing the flag storage section 82 of the learning adjuster 80 provided in the connection belonging to Cbc to turn on the flag. This designates the weight learning of the antecedent membership function realizing section 10.
次に85に進んで、学習スケジューラ52は学習実行指
令を出して学習処理を開始させる。この学習処理は学習
信号格納部54に準備されている制御人力Xと、制御人
力Xに対する望ましい制御出力となる教師信号dを読み
出し、制御入力をルール部プリワイヤニューロ100に
与え、教師信号dは重み変更部76及び学習収束判定部
60に与える。そして、学習入力を受けたルール部プリ
ワイヤニューロ100から出力される制御出力Yを重み
変更部76及び学習収束判定部60に取り込み、重み変
更部76にあってはパックプロパゲーション法に従って
重み値の変更を行ない、学習収束判定部60で教師信号
dに対する制御出力Yとの誤差が規定値以下となったと
き学習終了を判定して第1フエーズの学習処理を終了す
る。Next, the process proceeds to 85, where the learning scheduler 52 issues a learning execution command to start the learning process. In this learning process, the control human power X prepared in the learning signal storage section 54 and the teacher signal d, which is a desirable control output for the control human power X, are read out, and the control input is given to the rule section prewire neuro 100, and the teacher signal d is It is given to the weight changing unit 76 and the learning convergence determining unit 60. Then, the control output Y output from the rule unit prewire neuron 100 that has received the learning input is taken into the weight change unit 76 and the learning convergence determination unit 60, and the weight change unit 76 changes the weight value according to the pack propagation method. After making the change, when the error between the control output Y and the teacher signal d becomes less than or equal to a specified value in the learning convergence determining section 60, it is determined that learning has ended, and the learning process of the first phase is ended.
ステップS5の学習実行指令に基づいてフェーズ1の学
習処理が終了すると86でフェーズカウンタiを1つイ
ンクリメントし、S7で学習フェーズの終わりをチエツ
クした後に再びS2に戻り、学習フェーズ2に対応した
後件部メンバシップ関数実現部14のニューロングルー
プ番号Gfをフェーズ・グループ対応テーブル56から
読み出す。When the learning process of phase 1 is completed based on the learning execution command in step S5, the phase counter i is incremented by one in 86, and after checking the end of the learning phase in S7, the process returns to S2 again, and after corresponding to learning phase 2. The neuron group number Gf of the subject membership function realizing unit 14 is read out from the phase/group correspondence table 56.
続いてS3でグループ・結線対応テーブル58からニュ
ーロングループGfに対応する結線グループ番号Cel
を読み出し、S4で結線グループ番号Cefを出力して
後件部メンバシップ関数実現部14の結線に設けた学習
調整器80に学習フラグをセットする。続いてS5で学
習実行指令を出すことにより学習信号を用いてパックプ
ロパゲーション法により後件部メンバシップ関数実現部
14の重み学習を実行する。Next, in S3, the connection group number Cel corresponding to the neuron group Gf is obtained from the group/connection correspondence table 58.
is read out, and in S4, the connection group number Cef is output, and a learning flag is set in the learning adjuster 80 provided on the connection of the consequent part membership function realization unit 14. Subsequently, in S5, a learning execution command is issued to execute weight learning of the consequent membership function realization unit 14 by the pack propagation method using the learning signal.
フェーズ2による後件部メンバシップ関数実現部14の
重み学習か終了すると、S6でフェーズカウンタiを1
つインクリメントし、S7で学習フェーズの終わりを判
定し一連の処理を終了する。When the weight learning of the consequent membership function realization unit 14 in Phase 2 is completed, the phase counter i is set to 1 in S6.
Then, in S7, the end of the learning phase is determined, and the series of processing ends.
[パックプロパゲーション法による学習原理1次に本発
明のパックプロパゲーション法による重み学習原理を階
層型ネットワークと共に説明する。[Principle of learning by pack propagation method 1 Next, the principle of weight learning by the pack propagation method of the present invention will be explained together with the hierarchical network.
第24図は一般的な階層型ニューラルネットワークを示
したもので、ユニットと呼ばれる一種のノードと重みを
もつ内部結合とから構成される。FIG. 24 shows a general hierarchical neural network, which is composed of a type of node called a unit and internal connections with weights.
第24図では入力装置としてのh層、中間層としてのi
層、出力層としてのj層を示している。勿論、中間層と
してのi層は1層であるが、複数の中間層があっても同
じである。各ユニットは第4図に示した構成をもち、ユ
ニットで行なわれる演算は基本ユニット20について示
した前記(1)(2)式となる。パックプロパゲーショ
ン法では階層ネットワークの重み値Wihと閾値θiと
を誤差のフィードバックにより適応的に自動調整して学
習する。前記(1,) (2)式から明らかなように
、重み値W篩と閾値θiとの調節は同時に実行される必
要があるが、この作業は相互に干渉する難しい作業とな
る。そこで、本願出願人にあっては通常のユニット以外
に、入力側のh層に常に出力値が1であるユニットを設
け、この出力値1のユニットからの入力結線に対し閾値
θiを重み値として割り付けることで、閾値θiを重み
値Wihの中に組み込んで閾値θiを重み値として扱う
ことができるパックプロパゲーション法を提案している
(特願昭62−333484号)。In Figure 24, the h layer is the input device, and the i layer is the intermediate layer.
layer, and the j layer as the output layer. Of course, there is only one i-layer as the intermediate layer, but the same is true even if there are a plurality of intermediate layers. Each unit has the configuration shown in FIG. 4, and the calculations performed in the unit are as shown in equations (1) and (2) above for the basic unit 20. In the pack propagation method, the weight value Wih and threshold value θi of the hierarchical network are adaptively and automatically adjusted and learned using error feedback. As is clear from the above equations (1,) and (2), it is necessary to adjust the weight value W and the threshold value θi at the same time, but this work is a difficult work that interferes with each other. Therefore, in addition to the normal unit, the applicant has provided a unit whose output value is always 1 in the h layer on the input side, and uses a threshold value θi as a weight value for the input connection from this unit with an output value of 1. A pack propagation method has been proposed in which the threshold value θi can be treated as a weight value by incorporating it into the weight value Wih by allocating it (Japanese Patent Application No. 62-333484).
このようにすることで、前記(1)(2)式はy、+=
1/ (1+exp(−Xp+) ) (12
)で表わされることとなり、閾値θiは表われてこない
。By doing this, the above equations (1) and (2) become y, +=
1/ (1+exp(-Xp+)) (12
), and the threshold value θi does not appear.
前記(11)(12)式からの展開によって次の(13
)(14)式が得られる。By expanding from equations (11) and (12) above, we get the following (13)
) (14) is obtained.
)(、、=写VDIW+1 (
I3)yp+=1/ (1+exp(xp+) )
(14)但し、
j 21層のユニット番号
W、、:i−j層間の内部結合の重み値x、、:i層の
各ユニットからj層の3番ユニットへの入力の積和
3’p+’p番目パターンの入力信号に対するj層の3
番ユニットからの出力
第22図の重み変更部76では学習用の入カバターンX
が提示されたときに出力層jから出力される出カバター
ンy、、と出カバターン’jp+のとるべき信号である
教師パターンaplを受けると、両者の差分値
(apr−yp+)
を算出し、次に
δp+=]/p+ (1yp+) (apr yp
+) (15)を算出する。続いて、
但し、ε:学習定数
ζ:モーメンタム
t・学習回数
に従ってi層とj層間の重み値の更新量ΔW。)(,,=photo VDIW+1 (
I3) yp+=1/ (1+exp(xp+))
(14) However, j is the unit number W of the 21st layer, , : the weight value x of the internal connection between the i-j layers, , : the product sum 3'p+ of the input from each unit of the i layer to the 3rd unit of the j layer '3 of the j layer for the input signal of the pth pattern
The weight changing section 76 in FIG. 22 outputs the input cover turn X for learning.
When receiving the teacher pattern apl, which is the signal to be taken by the output cover turn y, , which is output from the output layer j when δp+=]/p+ (1yp+) (apr yp
+) Calculate (15). Subsequently, ε: Learning constant ζ: Update amount ΔW of the weight value between the i layer and the j layer according to the momentum t and the number of learning times.
(1)を算出する。ここで、前記(16)式右辺第2項
で前回の更新サイクル時に決定された重み値の更新量に
かかるものを加算するのは、学習の高速化を図るためで
ある。Calculate (1). Here, the reason for adding the weight value update amount determined in the previous update cycle in the second term on the right side of equation (16) is to speed up learning.
続いて、重み値変更部76は前記(15)式で算出した
Δδ□を用いて
δ、、=y、、 (1−yp+)Σδ、、w I l
(+−1) (17)を算出し、次に
に従ってh層とi層の重み値の更新量Δwth(+)を
算出する。Subsequently, the weight value changing unit 76 uses Δδ□ calculated by the above equation (15) to calculate δ,,=y,, (1-yp+)Σδ,, w I l
(+-1) (17), and then calculate the update amount Δwth(+) of the weight values of the h layer and the i layer.
続いて重み変更部76は前記(16)式及び(18)式
で算出した更新量に従って次の更新サイクルのための重
み値を
として決定する。以上の重み値の更新を学習用の入カバ
ターンに対する出カバターンy+++か教師パターンd
piに一致する重み値が得られるように学習処理を繰り
返す。Subsequently, the weight change unit 76 determines the weight value for the next update cycle according to the update amounts calculated by the equations (16) and (18). To update the above weight values, output pattern y+++ or teacher pattern d for input pattern pattern for learning.
The learning process is repeated so that a weight value matching pi is obtained.
一方、第24図の階層ネットワークを構成するユニット
が線形関数ユニットであった場合には、前記(14)式
は
y口+=Xp+ (20)と
表わされる。この線形関数ユニットにおける前記(15
)式及び(17)式は
δp+= d pl y pl
(21)δ0.=写δ、、w、、 (t 1 )
(22)と現わされる。On the other hand, if the units constituting the hierarchical network of FIG. 24 are linear function units, the above equation (14) can be expressed as y=Xp+ (20). The above (15
) and (17) are δp+= d pl y pl
(21) δ0. = photo δ,, w,, (t 1 )
It appears as (22).
[第1実施例の重み学習処理コ
第25図は第5A図に示した本発明のプリワイヤニュー
ロに対し、パックプロパゲーション法による重み学習の
処理フロー図である。[Weight Learning Processing of First Embodiment] FIG. 25 is a processing flow diagram of weight learning using the pack propagation method for the pre-wired neuron of the present invention shown in FIG. 5A.
この学習処理フローにおける各部のパラメータは第26
図に示すように定めている。The parameters of each part in this learning process flow are the 26th
It is defined as shown in the figure.
第26図は第5A図のルール部プリワイヤニューロの階
層構造を概略的に示したもので、図示のように第1層か
ら第6層までの6層構造をもっており、第1層及び第3
層がシグモイド関数ユニットで構成され、残りは線形関
数ユニットで構成されている。本発明の第1実施例にあ
っては、)ニーズ1で前件部メンバシップ関数実現部1
0が重みの学習対象層となり、また次のフェーズ2で後
件部メンバシップ関数実現部14が重みの学習対象とな
り、それ以外のルール部12及び重心計算実現部18の
重みは学習対象から除外されている。FIG. 26 schematically shows the hierarchical structure of the rule section pre-wire neuron in FIG. 5A. As shown, it has a six-layer structure from the first layer to the sixth layer.
The layer is made up of sigmoid function units, and the rest are made up of linear function units. In the first embodiment of the present invention, in need 1, antecedent membership function realization unit 1
0 becomes the weight learning target layer, and in the next phase 2, the consequent part membership function realization unit 14 becomes the weight learning target, and the weights of the other rule unit 12 and centroid calculation realization unit 18 are excluded from the learning target. has been done.
ここで、ルール部プリワイヤニューロによるファジィル
ールの実現で出力されるファジィ推論値、即ち制御出力
値をy6としており、1つのフェーズにおける学習処理
は第6層から第5層、第4層、第3層、第2層、第1層
というように順次行なう。Here, the fuzzy inference value output by the realization of the fuzzy rule by the pre-wired neuron in the rule section, that is, the control output value, is y6, and the learning process in one phase is performed from the 6th layer to the 5th layer, the 4th layer, and the 4th layer. The third layer, the second layer, and the first layer are performed in this order.
勿論、フェーズ2のように後件部メンバシップ関数実現
部14に属する第5層が学習対象層であった場合には第
5層の処理で終了する。Of course, if the fifth layer belonging to the consequent membership function realization unit 14 is the learning target layer as in phase 2, the process ends with the fifth layer.
1つのフェーズにおける階層毎の学習の進行はiカウン
タで示される。即ち、初期状態でiカウンタは1=6に
セットされている。The progress of learning for each layer in one phase is indicated by an i counter. That is, in the initial state, the i counter is set to 1=6.
更に説明を簡単にするため、Wl、l−1とΔW、はマ
トリックスを示し、その大きさ(1層目のニューロン数
)X (i−1層目のニューロン数)となる。更にまた
、δ1とyiはベクトルを示し、大きさはi番目の層の
ニューロン数と同じになる。To further simplify the explanation, Wl, l-1 and ΔW represent a matrix, the size of which is (number of neurons in the first layer) x (number of neurons in the i-1st layer). Furthermore, δ1 and yi represent vectors whose size is the same as the number of neurons in the i-th layer.
この第26図に示す各部のパラメータを前提に第25図
の重み学習フローを本発明の第1実施例について説明す
ると、次のようになる。The weight learning flow shown in FIG. 25 for the first embodiment of the present invention will be explained as follows based on the parameters of each part shown in FIG. 26.
まずSlで学習対象層を設定するカウンタを1をイニシ
ャライズする。具体的には第26図に示したように6層
構造であることがらカウンタiをi=6に初期設定する
。この初期設定により第6層目のユニットが学習対象と
して指定される。First, a counter for setting a learning target layer is initialized to 1 using Sl. Specifically, since the device has a six-layer structure as shown in FIG. 26, the counter i is initially set to i=6. With this initial setting, the unit in the sixth layer is designated as a learning target.
次に32に進み、シグモイド関数ユニットか否か判定す
る。この場合、線形関数ユニットであることから814
に進み、最終段の階層か否か判定し、第6層目は最終段
であることから315に進み、そのとき得られている教
師信号dと制御出力y6を使用して前記(21)式と同
様な式に従つて差分値δ6を求める。Next, the process proceeds to step 32, where it is determined whether the unit is a sigmoid function unit. In this case, since it is a linear function unit, 814
The process proceeds to step 315, where it is determined whether the layer is the final layer or not. Since the sixth layer is the final layer, the process proceeds to step 315, and the above equation (21) is calculated using the teacher signal d and control output y6 obtained at that time. The difference value δ6 is determined according to a formula similar to the above.
次に86に進み、重みを学習するユニットか否か判定す
る。第6層は学習対象から除外されているため、具体的
には結線に設けられた学習調整器80の学習フラグがオ
フとなっているため、S8に進んで重み値更新量ΔW6
5−0としてS9に進み、重み値W65の更新を無効と
する。続いてS12に進んで、カウンタjがフェーズ1
の学習終了層E=1か否か判定し、このときi=6であ
ることから313に進んでカウンタiを1つデクリメン
トしてi=5としてS2に戻って次の第5層の学習に入
る。Next, the process proceeds to 86, where it is determined whether the unit is to learn weights. Since the sixth layer is excluded from the learning target, specifically, the learning flag of the learning adjuster 80 provided in the connection is turned off, so the process proceeds to S8 and the weight value update amount ΔW6
The process proceeds to S9 as 5-0, and the update of the weight value W65 is invalidated. Next, the process advances to S12, where counter j is set to phase 1.
It is determined whether the learning end layer E = 1 or not, and since i = 6 at this time, the process proceeds to 313, decrements the counter i by 1, sets i = 5, and returns to S2 to start learning the next 5th layer. enter.
第5層についても線形関数ユニットであることから82
から814に進むが、最終段の階層でないことから31
6に進み、前記(22)式と同様な式に従って差分値δ
、を算出する。次に86に進んで学習対象となっている
か否か判定し、フェーズ1で第5層は学習対象となって
いないことからS8に進んで、重み値更新量ΔW 54
= OとしてS9の重み更新を無効とする。以下同様
に、第5層の最終ユニットまで同じ処理を繰り返し、第
5層の処理が終わると第4層に進む。第4層も線形関数
ユニットであり、且つフェーズ1の学習対象から除外さ
れているため、第5層と同じ処理を繰り返す。Since the fifth layer is also a linear function unit, 82
Proceeds to 814, but since it is not the final level, it goes to 31
Proceed to step 6, and calculate the difference value δ according to a formula similar to formula (22) above.
, is calculated. Next, the process proceeds to 86 to determine whether or not it is a learning target, and since the fifth layer is not a learning target in phase 1, the process proceeds to S8 to update the weight value update amount ΔW 54
= O to invalidate the weight update in S9. Similarly, the same process is repeated until the final unit of the fifth layer, and when the process of the fifth layer is completed, the process proceeds to the fourth layer. Since the fourth layer is also a linear function unit and is excluded from the phase 1 learning target, the same process as the fifth layer is repeated.
更に第3層の処理に進むと第3層はシグモイド関数ユニ
ットを使用していることから82からS3に進み、最終
段の階層ユニットでないことから85でシグモイド関数
ユニット固有の差分値δ3を前記(17)式と同様の演
算式により求める。Further, processing of the third layer proceeds from 82 to S3 since the third layer uses a sigmoid function unit, and since it is not the final layer unit, the difference value δ3 unique to the sigmoid function unit is calculated from the above ( 17) Calculate using the same arithmetic expression as Equation 17).
この第3層もフェーズ1では学習対象となっていないた
め、S6から88で重み値更新量ΔW320とした後、
S9の重み更新を無効とする。以下、第3層の最終ユニ
ットまで同様な処理を繰り返して第2層の処理に進む。This third layer is also not a learning target in Phase 1, so after setting the weight value update amount ΔW to 320 in S6 to 88,
The weight update in S9 is invalidated. Thereafter, the same process is repeated until the final unit of the third layer, and the process proceeds to the second layer.
第2層はシグモイド関数ユニットであり、且つフェーズ
1で学習対象となっていることから82゜S4を介して
S16で前記(22)式と同様な式に従って差分値δ2
を算出した後、S6から87に進み、重み値更新量ΔW
21を前記(16)(18)式と同様な式に従って算出
し、S9て重み値ΔW21を前記(19)式と同様な式
に従って更新する。以下同様に、第2層の最終ユニット
まで同じ処理を繰り返し、第2層の処理が終了すると第
1層の処理に進む。Since the second layer is a sigmoid function unit and is the learning target in Phase 1, the difference value δ2 is calculated in S16 via 82° S4 according to an equation similar to equation (22) above.
After calculating the weight value update amount ΔW, the process proceeds from S6 to 87.
21 is calculated according to equations similar to equations (16) and (18) above, and in S9, the weight value ΔW21 is updated according to an equation similar to equation (19) above. Similarly, the same process is repeated until the final unit of the second layer, and when the process of the second layer is completed, the process proceeds to the process of the first layer.
第1層はシグモイド関数ユニットであり、フェーズ1の
学習対象となっていることから82から83を経てS5
に進み、シグモイド関数ユニット固有の差分値δ1を算
出し、S6から87に進んで重み値更新量ΔW10を求
め、S9で重み値更新量ΔW、。を加算して重み値W1
0を更新する。以下、第1層の最終ユニットまで同じ処
理を繰り返し、第1層の最終ユニットの処理が終了して
SIOから812に進むと、このときカウンタiはi=
1と終了層E=1に一致していることから、全ての学習
が終了したことを判定してフェーズ1の処理を終了する
。The first layer is a sigmoid function unit, and since it is the learning target of phase 1, it passes from 82 to 83 to S5
The process proceeds to calculate the difference value δ1 specific to the sigmoid function unit, the process proceeds from S6 to 87 to obtain the weight value update amount ΔW10, and the weight value update amount ΔW, in S9. The weight value W1 is obtained by adding
Update 0. Thereafter, the same processing is repeated until the final unit of the first layer, and when the processing of the final unit of the first layer is completed and the process proceeds from SIO to 812, at this time the counter i is i=
1 and the end layer E=1, it is determined that all learning has been completed, and the process of phase 1 is ended.
次にフェーズ2の重み学習処理を説明する。第1実施例
のフェーズ2にあっては、後件部メンバシップ関数実現
部14に属する第5層を学習対象としている。このため
第25図の312における学習終了層EはE=5にセッ
トされる。Next, the weight learning process of phase 2 will be explained. In phase 2 of the first embodiment, the fifth layer belonging to the consequent membership function realization unit 14 is the learning target. Therefore, the learning end layer E at 312 in FIG. 25 is set to E=5.
フェーズ2の重み学習が起動されるとフェーズ1の場合
と同様、第6層からの学習処理が開始され、第6層を終
了して第5層に進むと、第5層は学習対象となっており
、且つ線形関数ユニットであることから816で求めた
差分値δ、に基づきS7で重み値更新量ΔW、4を算出
し、S9で重み値W、4の更新を行なう。以下同様に、
第5層の最終ユニットまで処理を行なうとSIOから8
12に進み、このときE=5にセットされていることか
ら、カウンタi=5と一致することでフェーズ2におけ
る全ての階層の学習が終了したことを判定して一連の処
理を終了する。When weight learning in Phase 2 is activated, the learning process starts from the 6th layer, as in Phase 1, and when the 6th layer is completed and the process proceeds to the 5th layer, the 5th layer becomes the learning target. Since it is a linear function unit, the weight value update amount ΔW,4 is calculated in S7 based on the difference value δ obtained in 816, and the weight value W,4 is updated in S9. Similarly below,
If you process up to the final unit of the 5th layer, it will be 8 from SIO.
The process proceeds to step 12, and since E=5 is set at this time, when the counter i=5 matches, it is determined that the learning of all the layers in phase 2 has been completed, and the series of processing ends.
次に本発明の第2〜第5実施例を説明する。Next, second to fifth embodiments of the present invention will be described.
[第2実施例の学習処理]
第2実施例は第2B図のステップS6に示すように、
■ルール部12
■後件部メンバシップ関数実現部14
の順番に重みを学習する。この重み学習に対応して、最
初に重みを学習するルール部12については、ステップ
S2に示すように、予め持っている知識の導入に基づい
た重み値の初期設定、または乱数を用いてランダムに重
み値を初期設定、或いは両者を併用して重み値を初期設
定する。これに対し重みを学習しない前件部メンバシッ
プ関数実現部10及び2回目に重みを学習する後件部メ
ンバシップ関数14については、ステップSL、S3に
示すように予め持っている知識の導入に基づいて重み値
を初期設定している。[Learning Process of Second Embodiment] In the second embodiment, as shown in step S6 in FIG. 2B, weights are learned in the following order: (1) rule section 12 (2) consequent section membership function realization section 14. Corresponding to this weight learning, the rule unit 12 that first learns the weights initializes the weight values based on the introduction of pre-existing knowledge, or randomly sets the weight values using random numbers, as shown in step S2. The weight values are initialized, or both are used together to initialize the weight values. On the other hand, for the antecedent membership function realization unit 10 that does not learn weights and the consequent membership function 14 that learns weights the second time, as shown in steps SL and S3, pre-existing knowledge is introduced. The weight values are initially set based on
ステップS5のフェーズ・グループ対応表の設定は第2
0図(b)に示すようにフェーズ1でルール部12に属
するニューロングループ番号Gd。The setting of the phase group correspondence table in step S5 is
As shown in FIG. 0 (b), the neuron group number Gd belonging to the rule section 12 in phase 1.
Geを設定し、フェーズ2で後件部メンバシップ関数実
現部14に属するニューロングループ番号Gfを設定し
ている。尚、グループ・結線対応表は第1実施例と同様
、第20図(f)に示すようになる。Ge is set, and in phase 2, the neuron group number Gf belonging to the consequent membership function realization unit 14 is set. Incidentally, the group/connection correspondence table is as shown in FIG. 20(f), similar to the first embodiment.
以上の第2実施例の学習処理の詳細は前述した第1実施
例の説明から直ちに類推することができる。The details of the learning process of the second embodiment can be immediately inferred from the explanation of the first embodiment described above.
この第2実施例によれば、ルール部12の重みの学習後
に後件部メンバシップ関数実現部14の重みを学習させ
ることにより、ルール部12の重み学習の結果に合わせ
た後件部メンバシップ関数実現部14の重み調整が可能
となる。According to this second embodiment, by learning the weights of the consequent membership function realizing unit 14 after learning the weights of the rule unit 12, the consequent membership function is adjusted to match the result of weight learning of the rule unit 12. It becomes possible to adjust the weights of the function realization unit 14.
[第3実施例の学習処理]
本発明の第3実施例にあっては、第2C図のステップS
6に示すように、
■ルール部12
■前件部メンバシップ関数実現部10
■後件部メンバシップ関数実現部14
の順番に重み学習を行なう。この重み学習の順番に対応
して、最初に重みを学習するルール部12についてはス
テップS2に示すように、予め持っている知識の導入に
基づいて初期値を重み設定するか、または乱数を用いて
ランダムに重み値を初期設定するか、或いは両者を併用
して重み値を初期設定する。一方、2回目以降に重みを
学習する前件部メンバシップ関数実現部10及び後件部
メンバシップ関数実現部14についてはステップS1、
S3に示すように、予め持っている知識の導入に基づい
て重み値を初期設定する。[Learning process of third embodiment] In the third embodiment of the present invention, step S in FIG. 2C
As shown in 6, weight learning is performed in the following order: (1) rule unit 12 (2) antecedent membership function realization unit 10 (2) consequent membership function realization unit 14. Corresponding to the order of weight learning, the rule section 12 that learns the weights first sets the weights to initial values based on the introduction of pre-existing knowledge, or uses random numbers, as shown in step S2. The weight values are initially set randomly using the method, or the weight values are initially set using a combination of both methods. On the other hand, for the antecedent membership function realization unit 10 and the consequent membership function realization unit 14 that learn weights from the second time onward, step S1;
As shown in S3, weight values are initialized based on the introduction of knowledge held in advance.
ステップS5で設定するフェーズ・グループ対応表は第
20図(C)に示すように、フェーズ1でルール部12
に属するニューロングループ番号Gd、Geが設定され
、フェーズ2で前件部メンバシップ関数実現部10に属
するニューロングループ番号Gb、Gcが設定され、更
にフェーズ3で後件部メンバシップ関数実現部14に属
するニューロングループ番号Gfが設定される。The phase/group correspondence table set in step S5 is as shown in FIG. 20(C).
Neuron group numbers Gd and Ge belonging to the antecedent membership function realization unit 10 are set in phase 2, and neuron group numbers Gb and Gc belonging to the antecedent membership function realization unit 10 are set in phase 3. The neuron group number Gf to which it belongs is set.
この第3実施例によれば、ルール部12及び前件部メン
バシップ関数実現部10の重みの学習後、後件部メンバ
シップ関数実現部14の重みを学習させることにより、
前件部メンバシップ関数実現部10とルール部12の重
み学習の結果に合わせた後件部メンバシップ関数実現部
14の重み調整がてきる。According to this third embodiment, after learning the weights of the rule unit 12 and the antecedent membership function realization unit 10, the weights of the consequent membership function realization unit 14 are learned, so that
The weights of the consequent membership function realization unit 14 are adjusted in accordance with the weight learning results of the antecedent membership function realization unit 10 and the rule unit 12.
[第4実施例の学習処理]
本発明の第4実施例にあっては、第2D図のステップS
6に示すように、
■前件部メンバシップ関数実現部10
■ルール部12
■後件部メンバシップ関数実現部14
の順番に重みを学習する。この重み学習の順番に対応し
て最初に重みを学習する前件部メンバシップ関数実現部
10につき、ステップS1に示すように予め持っている
知識の導入に基づいて重み値を初期設定するか、または
乱数を用いてランダムに重み値を初期設定するか、或い
は両者を併用して重み値を初期設定する。また2回目以
降に重みを学習するルール部12及び後件部メンバシッ
プ関数実現部14については、ステップS2.S3に示
すように予め持っている知識の導入に基づいて重み値を
初期設定する。更にステップS5のフェーズ・グループ
対応表の設定は第20図(d)に示すようにフェーズ1
で前件部メンバシップ関数実現部10に属するニューロ
ングループGb。[Learning process of the fourth embodiment] In the fourth embodiment of the present invention, step S in FIG.
As shown in 6, the weights are learned in the following order: (1) Antecedent membership function realization unit 10 (2) Rule unit 12 (2) Consequent membership function realization unit 14. For the antecedent membership function realizing unit 10 that learns the weights first in accordance with this weight learning order, the weight values are initialized based on the introduction of pre-existing knowledge as shown in step S1, or Alternatively, the weight values are initialized randomly using random numbers, or the weight values are initialized using a combination of both. Further, regarding the rule section 12 and the consequent membership function realization section 14 that learn the weights from the second time onward, step S2. As shown in S3, the weight values are initialized based on the introduction of knowledge held in advance. Furthermore, the setting of the phase group correspondence table in step S5 is as shown in FIG. 20(d).
and neuron group Gb belonging to the antecedent membership function realization unit 10.
Gcを設定し、フェーズ2でルール部12に属するニュ
ーロングループCyd、Geを設定し、更にフェーズ3
で後件部メンバシップ関数実現部14に属するニューロ
ングループGfを設定する。Gc is set, neuron groups Cyd and Ge belonging to the rule section 12 are set in phase 2, and further phase 3
The neuron group Gf belonging to the consequent membership function realization unit 14 is set.
このような第4実施例の学習処理によれば、前件部メン
バシップ関数実現部10とルール部12の重みの学習後
に後件部メンバシップ関数実現部14の重みを学習させ
ることにより、前件部メンバシップ関数実現部10とル
ール部12の両方の重み学習の結果を合せた後件部メン
バシップ関数実現部14の重み調整ができる。According to the learning process of the fourth embodiment, by learning the weights of the consequent membership function realizing unit 14 after learning the weights of the antecedent membership function realizing unit 10 and the rule unit 12, The weights of the consequent membership function realization section 14 can be adjusted by combining the weight learning results of both the subject membership function realization section 10 and the rule section 12.
[第5実施例の学習処理]
本発明の第5実施例は第2E図のステップS6に示すよ
うに、
■前件部メンバシップ関数実現部10とルール部■後件
部メンバシップ関数実現部14
の順番に重みを学習する。この重み学習の順番に対応し
て最初に重みを学習する前件部メンバシップ関数実現部
10及びルール部12についてステップ31.82に示
すように予め持っている知識の導入に基づいた重み値の
初期設定するか、乱数を用いてランダムに重み値を初期
設定するか、さらには両者を併用して重み値を初期設定
する。−方、2回目の重み学習となる後件部メンバシッ
プ関数実現部14についてはステップS3に示すように
予め持っている知識の導入に基づいて重み値を設定する
。更に、ステップS5のフェーズ・グループ対応表の設
定は第20図(e)に示すように、フェーズ1で前件部
メンバシップ関数実現部10に属するニューロングルー
プGb、Gcとルール部12に属するニューロングルー
プGd、Geを設定し、フェーズ2で後件部メンバシッ
プ関数実現部14に属するニューロングループGfを設
定する。[Learning Process of Fifth Embodiment] In the fifth embodiment of the present invention, as shown in step S6 in FIG. The weights are learned in the order of 14. Corresponding to the order of weight learning, the antecedent membership function realizing unit 10 and the rule unit 12, which learn weights first, calculate weight values based on the introduction of pre-existing knowledge as shown in step 31.82. The weight values may be initialized, or the weight values may be initialized randomly using random numbers, or a combination of both may be used to initialize the weight values. - On the other hand, for the consequent membership function realization unit 14 that performs the second weight learning, weight values are set based on the introduction of knowledge held in advance, as shown in step S3. Furthermore, as shown in FIG. 20(e), the setting of the phase-group correspondence table in step S5 is such that in phase 1, neuron groups Gb and Gc belonging to the antecedent membership function realizing section 10 and neurons belonging to the rule section 12 are set. Groups Gd and Ge are set, and in phase 2, a neuron group Gf belonging to the consequent membership function realization unit 14 is set.
[その他コ
尚、上記の具体的な実施例は第5A図に示したように2
つの制御入力Xn、X2を対象としたファジィルールを
実現するルール部プリワイヤニューロを例にとるもので
あったが、制御入力は1または3以上の適宜の入力数と
しても良いことは勿論である。また上記の実施例にあっ
ては、第6゜7図に示した
y=1/ (1+e−”” ) (23)
となるメンバシップ関数を例にとるものであったが、第
27図に示すように2つのシグモイド関数ユニット94
−1.94−2のユニット出力を減算ユニット96に与
えて同図(b)の関数形状を実現するようにしても良い
。この場合のユニット出力yは
y=1/(1−e−””” ) −1/(1−e−w2
”#2)と表現することができる。[Others] The above specific embodiment is as shown in FIG. 5A.
Although the pre-wired neuron rule unit that realizes fuzzy rules targeting two control inputs Xn and X2 has been taken as an example, it goes without saying that the number of control inputs may be 1 or 3 or more as appropriate. . In addition, in the above embodiment, y=1/ (1+e-"") (23) shown in FIG.
As shown in FIG. 27, two sigmoid function units 94 are used as an example.
The unit output of -1.94-2 may be given to the subtraction unit 96 to realize the function shape shown in FIG. In this case, the unit output y is y=1/(1-e-”””)-1/(1-e-w2
”#2).
[発明の効果]
以上説明してきたように本発明によれば、前件部メンバ
シップ関数実現部とルール部のいずれか一方または両方
の重みを学習した後に後件部メンバシップ関数実現部の
重みを学習させることにより、前件部メンバシップ関数
実現部とルール部のいずれか一方または両方の重み学習
の結果に合せた後件部メンバシップ関数実現部の最適な
重み調整が達成できる。[Effects of the Invention] As described above, according to the present invention, after learning the weights of either or both of the antecedent membership function realization part and the rule part, the weights of the consequent membership function realization part are learned. By learning the following, it is possible to achieve optimal weight adjustment of the consequent membership function realization unit in accordance with the weight learning result of either or both of the antecedent membership function realization unit and the rule unit.
また予め持っている知識の導入に基づいた重み値の初期
設定により重み学習を容易に行なうことができる。In addition, weight learning can be easily performed by initializing the weight values based on the introduction of pre-existing knowledge.
更に乱数を用いた重み値の初期設定又は予め持っている
知識と併用した重み値の初期設定によりニューロンネッ
トワークの機能を最大限に引き出した学習を行なうこと
ができる。Further, by initializing the weight values using random numbers or in combination with pre-existing knowledge, it is possible to perform learning that maximizes the functions of the neuron network.
4、 II!J面の簡単な説明
第1A、IB、IC,ID、IE図は本発明の原理説明
図;
第2A、2B、2C,2D、2E図は本発明の学習動作
フロー図;
第3図は本発明のルール部プリワイヤニューロの実施例
構成図;
第4図は基本ユニット説明図:
第5A図は本発明のルール部プリワイヤニューロの具体
的な実施例構成図;
第5B図は第5A図のニューロングループ及び結線グル
ープの説明図;
第6図は本発明の前件部メンバシップ関数実現部の初期
設定説明図;
第7図は前件部のメンバシップ関数説明図;第8図は本
発明のルール部初期設定説明図;第9図は本発明のルー
ル部ユニット説明図;第10図は第9図のファジィルー
ル上1説明図;第11図は第9図のファジィルール上2
説明図第12図は第9図のファジィルール上3説明図;
第13図は第9図のファジィルール上4説明図;第14
図は第9図のファジィルール上5説明図;第15図は第
9図のファジィルール上6説明図;第16図は第9図の
ファジィルールヒフ説明図;第17図は第9図のファジ
ィルールL8説明図;第18図は本発明の後件部メンバ
シップ関数実現部の初期設定説明図;
第19図は本発明の重心計算実現部の初期設定説明図:
第20図は本発明のフェーズ・グループ対応表及びグル
ープ・結線対応表の設定説明図;第21図は本発明の学
習処理フロー図;第22図は本発明による学習処理の装
置構成図2第23図は第22図の結線毎に設けた学習調
整器構成図;
第24図は一般的な階層ニューラル・ネットワーク説明
図;
第25図は本発明の重み学習処理フロー図;第26図は
第25図の各部のパラメータ説明図;第27図本発明に
用いる他のメンバシップ関数の説明図である。4. II! Brief explanation of J side Figures 1A, IB, IC, ID, and IE are explanatory diagrams of the principle of the present invention; Figures 2A, 2B, 2C, 2D, and 2E are learning operation flow diagrams of the present invention; Figure 3 is the book FIG. 4 is an explanatory diagram of the basic unit; FIG. 5A is a configuration diagram of a specific example of the rule section pre-wire neuron of the present invention; FIG. 5B is FIG. 5A Fig. 6 is an explanatory diagram of the initial settings of the antecedent membership function realization section of the present invention; Fig. 7 is an explanatory diagram of the membership function of the antecedent part; Fig. 9 is an explanatory diagram of the rule section unit of the invention; Fig. 10 is an explanatory diagram of fuzzy rule upper 1 in Fig. 9; Fig. 11 is an illustration of fuzzy rule upper 2 in Fig. 9.
Explanatory diagram Figure 12 is an explanatory diagram of the top 3 fuzzy rules in Figure 9;
Figure 13 is an explanatory diagram of the upper four fuzzy rules in Figure 9;
Figure 15 is an explanatory diagram of Fuzzy Rule Upper 5 of Figure 9; Figure 16 is an explanatory diagram of Fuzzy Rule Upper 6 of Figure 9; Figure 17 is an explanatory diagram of Fuzzy Rule Upper 6 of Figure 9; An explanatory diagram of fuzzy rule L8; FIG. 18 is an explanatory diagram of the initial settings of the consequent part membership function implementation unit of the present invention; FIG. 19 is an explanatory diagram of the initial settings of the center of gravity calculation implementation unit of the invention; An explanatory diagram of the settings of the phase/group correspondence table and the group/connection correspondence table; Fig. 21 is a learning process flow diagram of the present invention; Fig. 22 is a diagram illustrating the device configuration of the learning process according to the present invention; Fig. 23 is Fig. 22 Fig. 24 is an explanatory diagram of a general hierarchical neural network; Fig. 25 is a weight learning process flow diagram of the present invention; Fig. 26 shows the parameters of each part in Fig. 25. Explanatory diagram; FIG. 27 is an explanatory diagram of another membership function used in the present invention.
図中、
10:前件部メンバシップ関数実現部
12、ルール部
14:後件部メンバシラ
16:入力部
18:重心計算実現部
20:基本ユニット
22:乗算部
24:加算部
26:閾値処理部
プ関数実現部
28−L 2g−2,32−1〜32−4.38−1
〜3g−940−140−2+線形関数ユニット
30−1〜3Q−2,34−1〜34−1194−19
4−2 :シグモイド関数ユニット
40:重心決定要素出力装置
42:重心算出装置
50:学習指示ユニット
52:学習スケジューラ
54:学習信号格納部
56:フェーズ・グループ対応テーブル58ニゲループ
・フェーズ対応テーブル60:学習収束判定部
70:学習ユニット
72・学習指示読取部
74:学習フラグ設定部
76二重み変更部
80:学習調整器
82:フラグ保存部
84:重み変更情報読取部
86二重み変更量調整部
88二重み演算部
90:重み保存部
92:重み変更量保存部
96二減算ユニツト
100:ルール部プリワイヤニューロIn the figure, 10: antecedent part membership function realization part 12, rule part 14: consequent part membership function part 16: input part 18: centroid calculation realization part 20: basic unit 22: multiplication part 24: addition part 26: threshold processing part Function realization unit 28-L 2g-2, 32-1 to 32-4.38-1
~3g-940-140-2+linear function unit 30-1~3Q-2, 34-1~34-1194-19
4-2: Sigmoid function unit 40: Center of gravity determining element output device 42: Center of gravity calculation device 50: Learning instruction unit 52: Learning scheduler 54: Learning signal storage unit 56: Phase/group correspondence table 58 Niger loop/phase correspondence table 60: Learning Convergence determination section 70: Learning unit 72/Learning instruction reading section 74: Learning flag setting section 76 Duplex change section 80: Learning adjuster 82: Flag storage section 84: Weight change information reading section 86 Duplex change amount adjustment section 88 Weight calculation section 90: Weight storage section 92: Weight change amount storage section 96 Two subtraction unit 100: Rule section pre-wire neuron
Claims (7)
複数階層でなるルール部(12)、及び後件部メンバシ
ップ関数実現部(14)でなる階層ネットワークを有し
、前記ルール部(12)は前段の前件メンバシップ関数
実現部(10)及び又は後段の後件部メンバシップ関数
実現部(14)との間で全ユニット間を内部結合せずに
制御ルールに従って一部を内部結合して成り、入力され
る制御状態量(X_1,X_2,・・・X_n)に対応
する1又は複数の制御操作量(Y)を出力するルール部
プリワイヤニューロの学習方法に於いて、 前記前件部メンバシップ関数実現部(10)に予め持っ
ている知識に基づき又は乱数を用いて重み値を初期設定
すると共に、前記ルール部(12)及び後件部メンバシ
ップ関数実現部(14)に予め持っている知識に基づい
て重み値を初期設定する第1過程と; 学習データを使用して前記前件部メンバシップ関数実現
部(10)の重みを学習させる第2過程と;学習データ
を使用して前記後件部メンバシップ関数実現部(14)
の重みを学習させる第3過程と;を備えたことを特徴と
するルール部プリワイヤニューロの学習方法。(1) It has a hierarchical network consisting of an antecedent part membership function realization part (10), a rule part (12) consisting of one or more layers, and a consequent part membership function realization part (14), and the rule part (12) does not internally connect all units with the antecedent membership function realization unit (10) in the previous stage and/or the consequent membership function realization unit (14) in the subsequent stage, but only some parts according to the control rule. In a learning method of a rule section pre-wired neuro that is internally coupled and outputs one or more control operation quantities (Y) corresponding to input control state quantities (X_1, X_2,...X_n), The antecedent membership function realization unit (10) initializes weight values based on knowledge held in advance or using random numbers, and the rule unit (12) and the consequent membership function realization unit (14) ); a second process of learning the weights of the antecedent membership function realizing unit (10) using learning data; and learning. The consequent membership function realization unit (14) using data
A learning method for a rule section pre-wire neuro, comprising: a third step of learning the weights of;
複数階層でなるルール部(12)、及び後件部メンバシ
ップ関数実現部(14)でなる階層ネットワークを有し
、前記ルール部(12)は前段の前件メンバシップ関数
実現部(10)及び又は後段の後件部メンバシップ関数
実現部(14)との間で全ユニット間を内部結合せずに
制御ルールに従って一部を内部結合して成り、入力され
る制御状態量(X_1,X_2,・・・X_n)に対応
する1又は複数の制御操作量(Y)を出力するルール部
プリワイヤニューロの学習方法に於いて、 前記ルール部(12)に予め持っている知識に基づき又
は乱数を用いて重み値を初期設定すると共に、前記前件
部メンバシップ関数実現部(10)及び後件部メンバシ
ップ関数実現部(14)に予め持っている知識に基づい
て重み値を初期設定する第1過程と;学習データを使用
して前記ルール部(12)の重みを学習させる第2過程
と; 学習データを使用して前記後件部メンバシップ関数実現
部(14)の重みを学習させる第3過程と;を備えたこ
とを特徴とするルール部プリワイヤニューロの学習方法
。(2) It has a hierarchical network consisting of an antecedent membership function realization unit (10), a rule unit (12) having one or more layers, and a consequent membership function realization unit (14), and the rule unit (12) does not internally connect all units with the antecedent membership function realization unit (10) in the previous stage and/or the consequent membership function realization unit (14) in the subsequent stage, but only some parts according to the control rule. In a learning method of a rule section pre-wired neuro that is internally coupled and outputs one or more control operation quantities (Y) corresponding to input control state quantities (X_1, X_2,...X_n), The rule section (12) initializes the weight values based on knowledge held in advance or using random numbers, and the antecedent membership function realization section (10) and the consequent membership function realization section (14) ); a second step of learning the weights of the rule section (12) using the learning data; and a second step of learning the weights of the rule section (12) using the learning data; A method for learning a rule part prewire neuro, comprising: a third step of learning the weights of a consequent part membership function realizing part (14);
複数階層でなるルール部(12)、及び後件部メンバシ
ップ関数実現部(14)でなる階層ネットワークを有し
、前記ルール部(12)は前段の前件メンバシップ関数
実現部(10)及び又は後段の後件部メンバシップ関数
実現部(14)との間で全ユニット間を内部結合せずに
制御ルールに従って一部を内部結合して成り、入力され
る制御状態量(X_1,X_2,・・・X_n)に対応
する1又は複数の制御操作量(Y)を出力するルール部
プリワイヤニューロの学習方法に於いて、 前記ルール部(12)に予め持っている知識に基づき又
は乱数を用いて重み値を初期設定すると共に、前記前件
部メンバシップ関数実現部(10)及び後件部メンバシ
ップ関数実現部(14)に予め持っている知識に基づい
て重み値を初期設定する第1過程と;学習データを使用
して前記ルール部(12)の重みを学習させる第2過程
と; 学習データを使用して前記前件部メンバシップ関数実現
部(10)の重みを学習させる第3過程と;学習データ
を使用して前記後件部メンバシップ関数実現部(14)
の重みを学習させる第4過程と;を備えたことを特徴と
するルール部プリワイヤニューロの学習方法。(3) It has a hierarchical network consisting of an antecedent part membership function realization part (10), a rule part (12) consisting of one or more layers, and a consequent part membership function realization part (14), and the rule part (12) does not internally connect all units with the antecedent membership function realization unit (10) in the previous stage and/or the consequent membership function realization unit (14) in the subsequent stage, but only some parts according to the control rule. In a learning method of a rule section pre-wired neuro that is internally coupled and outputs one or more control operation quantities (Y) corresponding to input control state quantities (X_1, X_2,...X_n), The rule section (12) initializes the weight values based on knowledge held in advance or using random numbers, and the antecedent membership function realization section (10) and the consequent membership function realization section (14) ); a second step of learning the weights of the rule section (12) using the learning data; and a second step of learning the weights of the rule section (12) using the learning data; a third step of learning the weights of the antecedent membership function realization unit (10); and the consequent membership function realization unit (14) using the learning data.
A learning method for a rule section prewire neuro, comprising: a fourth step of learning weights of;
複数階層でなるルール部(12)、及び後件部メンバシ
ップ関数実現部(14)でなる階層ネットワークを有し
、前記ルール部(12)は前段の前件メンバシップ関数
実現部(10)及び又は後段の後件部メンバシップ関数
実現部(14)との間で全ユニット間を内部結合せずに
制御ルールに従って一部を内部結合して成り、入力され
る制御状態量(X_1,x_2,・・・X_n)に対応
する1又は複数の制御操作量(Y)を出力するルール部
プリワイヤニューロの学習方法に於いて、 前記前件部メンバシップ関数実現部(10)に予め持っ
ている知識に基づき又は乱数を用いて重み値を初期設定
すると共に、前記ルール部(12)及び後件部メンバシ
ップ関数実現部(14)に予め持っている知識に基づい
て重み値を初期設定する第1過程と; 学習データを使用して前記前件部メンバシップ関数実現
部(10)の重みを学習させる第2過程と;学習データ
を使用して前記ルール部(12)の重みを学習させる第
3過程と; 学習データを使用して前記後件部メンバシップ関数実現
部(14)の重みを学習させる第4過程と;を備えたこ
とを特徴とするルール部プリワイヤニューロの学習方法
。(4) It has a hierarchical network consisting of an antecedent membership function realization unit (10), a rule unit (12) having one or more layers, and a consequent membership function realization unit (14), and the rule unit (12) does not internally connect all units with the antecedent membership function realization unit (10) in the previous stage and/or the consequent membership function realization unit (14) in the subsequent stage, but only some parts according to the control rule. In a learning method of a rule section pre-wired neuro that is internally coupled and outputs one or more control operation quantities (Y) corresponding to input control state quantities (X_1, x_2,...X_n), The antecedent membership function realization unit (10) initializes weight values based on knowledge held in advance or using random numbers, and the rule unit (12) and the consequent membership function realization unit (14) ); a second process of learning the weights of the antecedent membership function realizing unit (10) using learning data; and learning. a third step of learning the weights of the rule section (12) using data; a fourth step of learning the weights of the consequent membership function realization section (14) using the learning data; A learning method for the rule section pre-wired neuro.
複数階層でなるルール部(12)、及び後件部メンバシ
ップ関数実現部(14)でなる階層ネットワークを有し
、前記ルール部(12)は前段の前件メンバシップ関数
実現部(10)及び又は後段の後件部メンバシップ関数
実現部(14)との間で全ユニット間を内部結合せずに
制御ルールに従って一部を内部結合して成り、入力され
る制御状態量(X_1,X_2,・・・X_n)に対応
する1又は複数の制御操作量(Y)を出力するルール部
プリワイヤニューロの学習方法に於いて、 前記前件部メンバシップ関数実現部(10)及びルール
部(12)に予め持っている知識に基づき又は乱数を用
いて重み値を初期設定すると共に、前記後件部メンバシ
ップ関数実現部(14)に予め持っている知識に基づい
て重み値を初期設定する第1過程と; 学習データを使用して前記前件部メンバシップ関数実現
部(10)及びルール部(12)の重みを同時に学習さ
せる第2過程と; 学習データを使用して前記後件部メンバシップ関数実現
部(14)の重みを学習させる第3過程と;を備えたこ
とを特徴とするルール部プリワイヤニューロの学習方法
。(5) It has a hierarchical network consisting of an antecedent part membership function realization part (10), a rule part (12) consisting of one or more layers, and a consequent part membership function realization part (14), and the rule part (12) does not internally connect all units with the antecedent membership function realization unit (10) in the previous stage and/or the consequent membership function realization unit (14) in the subsequent stage, but only some parts according to the control rule. In a learning method of a rule section pre-wired neuro that is internally coupled and outputs one or more control operation quantities (Y) corresponding to input control state quantities (X_1, X_2,...X_n), The antecedent membership function realization unit (10) and the rule unit (12) initially set weight values based on knowledge held in advance or using random numbers, and the consequent membership function realization unit (14) ); a first step of initializing weight values based on knowledge previously held in ); simultaneously learning the weights of the antecedent membership function realization unit (10) and the rule unit (12) using learning data; a second step of learning the weights of the consequent membership function realizing section (14) using learning data; .
る重み初期値の設定は、予め持っている知識で設定可能
な重みは該知識で初期設定し、その他は乱数を用いて初
期設定することを特徴とする請求項1乃至5記載のルー
ル部プリワイヤニューロの学習方法。(6) In setting the initial weight values in the first process of learning the weights, weights that can be set based on prior knowledge are initialized using this knowledge, and other weights are initialized using random numbers. A learning method for a rule section pre-wired neuron according to any one of claims 1 to 5.
の学習開始時に、前記前件部メンバシップ関数実現部(
10)、ルール部(12)及び後件部メンバシップ関数
実現部(14)の内、学習対象となっている部分の結線
毎に設けられた学習フラグをオンすると共に、学習対象
となっていない部分の結線毎に設けられた学習フラグを
オフし、オン状態にある学習フラグを有する結線の重み
値のみを学習処理により最適化することを特徴とする請
求項1乃至5記載のルール部プリワイヤニューロの学習
方法。(7) At the start of learning of each process performed after the initial setting of the weight values of the first process, the antecedent membership function realization unit (
10) Turn on the learning flag provided for each connection in the part that is the learning target in the rule part (12) and the consequent part membership function realization part (14), and check the connections that are not the learning target. 6. The rule section pre-wire according to claim 1, wherein a learning flag provided for each connection in the part is turned off, and only weight values of connections having learning flags in an on state are optimized through learning processing. How to learn neuro.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2124707A JPH0424736A (en) | 1990-05-15 | 1990-05-15 | Learning method for prewired neuro of rule part |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2124707A JPH0424736A (en) | 1990-05-15 | 1990-05-15 | Learning method for prewired neuro of rule part |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0424736A true JPH0424736A (en) | 1992-01-28 |
Family
ID=14892110
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2124707A Pending JPH0424736A (en) | 1990-05-15 | 1990-05-15 | Learning method for prewired neuro of rule part |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0424736A (en) |
-
1990
- 1990-05-15 JP JP2124707A patent/JPH0424736A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jang et al. | Neuro-fuzzy modeling and control | |
Gritz et al. | Genetic programming for articulated figure motion | |
WO1991014226A1 (en) | Neuro-fuzzy fusion data processing system | |
Takagi et al. | Neural networks and genetic algorithm approaches to auto-design of fuzzy systems | |
CN117518907A (en) | Control method, device, equipment and storage medium of intelligent agent | |
JPH0424736A (en) | Learning method for prewired neuro of rule part | |
CN109117946A (en) | Neural computing handles model | |
JPH0424742A (en) | Learning method for prewired neuro of rule part | |
JPH0424740A (en) | Learning method for prewired neuro of rule part | |
JPH0424741A (en) | Learning method for prewired neuro of rule part | |
JPH0424739A (en) | Learning method for prewired neuro of rule part | |
JPH0424744A (en) | Learning method for prewire neuro of rule part | |
JPH0424738A (en) | Learning method for prewired neuro of rule part | |
JPH0424743A (en) | Learning method for prewire neuro of rule part | |
JP2501932B2 (en) | Center of gravity determining element output device by neural network | |
JPH0424737A (en) | Learning method for prewired neuro of rule part | |
JPH0464134A (en) | Learning method for neural unit with fully coupled rule part | |
Reggia et al. | A connectionist approach to diagnostic problem solving using causal networks | |
JPH0464135A (en) | Learning method for neural unit with fully coupled rule part | |
Sun et al. | The crowd cooperation approach for formation maintenance and collision avoidance using multi-agent deep reinforcement learning | |
Pai | Fuzzy Backpropagation Networks | |
Attaran | The coming age of fuzzy logic | |
JPH0464136A (en) | Learning method for neural unit with fully coupled rule part | |
JPH0464132A (en) | Learning method for neural unit with fully coupled rule part | |
JPH0464133A (en) | Learning method for neural unit with fully coupled rule part |