JPH0424743A - Learning method for prewire neuro of rule part - Google Patents

Learning method for prewire neuro of rule part

Info

Publication number
JPH0424743A
JPH0424743A JP2124708A JP12470890A JPH0424743A JP H0424743 A JPH0424743 A JP H0424743A JP 2124708 A JP2124708 A JP 2124708A JP 12470890 A JP12470890 A JP 12470890A JP H0424743 A JPH0424743 A JP H0424743A
Authority
JP
Japan
Prior art keywords
membership function
learning
rule
unit
function realization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2124708A
Other languages
Japanese (ja)
Inventor
Akira Kawamura
旭 川村
Kazuo Asakawa
浅川 和雄
Nobuo Watabe
信雄 渡部
Ryusuke Masuoka
竜介 益岡
Yuri Oowada
大和田 有理
Shigenori Matsuoka
松岡 成典
Hiroyuki Okada
浩之 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Fuji Facom Corp
Original Assignee
Fujitsu Ltd
Fuji Facom Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, Fuji Facom Corp filed Critical Fujitsu Ltd
Priority to JP2124708A priority Critical patent/JPH0424743A/en
Publication of JPH0424743A publication Critical patent/JPH0424743A/en
Pending legal-status Critical Current

Links

Landscapes

  • Devices For Executing Special Programs (AREA)
  • Feedback Control In General (AREA)

Abstract

PURPOSE:To execute the readjustment of a whole rule part prewire neuro which fits the learning result of weighing by learning the whole rule part prewire neuro after learning the weight of at least one part of an antecedent membership function realization part, rule part, and a consequent membership function realization part. CONSTITUTION:A weight initial value with preliminarily held knowledge intro duced are set for the antecedent membership function realization part 10, a rule part 12 and the consequent membership function realization part 14, and it is constituted so that the weight of the consequent membership function realization part 14 is finally learned after at least one of the weights of the antecedent membership function realization part 10, the rule part 12 and the consequent membership function realization part 14 is learned. Thus, the readjust ment of the weight of the whole rule part prewire neuro which fits the learning result of the weight of at least one of the membership function realization part 10, rule part 12 and the consequent membership function realization part 14 learned in the previous step.

Description

【発明の詳細な説明】 [概要] 前件部メンバシップ関数実現部、ルール部及び後件部メ
ンバシップ関数実現部で成るファジィ制御ルールを実現
する階層ネットワーク構造に従って入力に対応する制御
出力を生ずるルール部プリワイヤニューロの学習方法に
関し、 対象システムに適合した制御を行うための学習を効率良
く行なうことを目的とし、 前件部メンバシップ関数実現部、ルール部及び後件部メ
ンバシップ関数実現部の各々に、予め持っている知識を
導入した重み初期値を設定し、まず前件部メンバシップ
関数実現部、ルール部及び後件部メンバシップ関数実現
部の少なくとも1つの重みを学習した後、最終的に後件
部メンバシップ関数実現部の重みを学習するように構成
する。
[Detailed Description of the Invention] [Summary] A control output corresponding to an input is generated according to a hierarchical network structure that realizes a fuzzy control rule, which is composed of an antecedent membership function implementation unit, a rule unit, and a consequent membership function implementation unit. Regarding the learning method of the rule part pre-wired neuro, we have developed an antecedent membership function realization part, a rule part and a consequent part membership function realization part, with the aim of efficiently learning to perform control suitable for the target system. After setting an initial weight value that introduces the knowledge held in advance for each of , first learning the weight of at least one of the antecedent part membership function realization part, the rule part, and the consequent part membership function realization part, The system is configured to finally learn the weights of the consequent membership function realization unit.

尚、最初に重みを学習する部分に対する重み値の初期設
定は、乱数を利用して行っても良し、予め持っている知
識と乱数の併用でも良い。
Incidentally, the initial setting of the weight values for the part whose weights are to be learned first may be performed using random numbers, or may be performed using a combination of knowledge held in advance and random numbers.

「産業上の利用分野コ 本発明は、ファジィ制御とニューラルネットワークを融
合させたルール部プリワイヤニューロの学習方法に関す
る。
The present invention relates to a learning method for a pre-wired neuron in the rule section that combines fuzzy control and a neural network.

ニューロを用いた情報処理にあっては、対象とするシス
テムの入カバターンと、その入カバターンに対する望ま
しい出カバターンとの組でなる学習データを階層型二−
ラルネットワークに提示して学習させ適応的な処理を行
わせる。この学習処理には特にパックプロパゲーション
法と呼ばれる処理方式が、その実用性の高さから注目さ
れている。
In information processing using neurons, learning data consisting of a set of input patterns of the target system and desired output patterns for that input pattern is used in a hierarchical format.
It is presented to the physical network to learn and perform adaptive processing. In particular, a processing method called pack propagation method is attracting attention due to its high practicality in this learning process.

一方、ファジィ理論は、1960年に2adehにより
提案され、温度が「低い」とか「高い」といった人間が
行っている曖昧さに基づく思考や判断の過程をモデル化
する理論である。このファジィ理論では曖昧さを現わす
ためにメンバシップ関数を導入したファジィ集合論を数
学的基礎としている。
On the other hand, fuzzy theory was proposed by 2adeh in 1960, and is a theory that models the process of thinking and judgment based on ambiguity that humans make, such as whether the temperature is "low" or "high." This fuzzy theory is mathematically based on fuzzy set theory, which introduces membership functions to represent ambiguity.

ファジィ理論の応用としては1974年にMaqmda
niがスチームエンジンの制御に用いたのを最初に、各
種のファジィ制御が行われている。
As an application of fuzzy theory, in 1974 Maqmda
Various types of fuzzy control have been used since ni was first used to control steam engines.

このファジィ制御を実行するシステムは不確定なものを
扱うものであることから、制御アルゴリズムの調整や変
更等に対して適応的に対応できるような構成にしていく
必要がある。
Since the system that performs this fuzzy control handles uncertain things, it is necessary to have a configuration that can adaptively respond to adjustments and changes in the control algorithm.

[従来の技術] 一般に、ファジィ制御システムを構築するには、以下の
ような手続きを取る。
[Prior Art] Generally, the following procedure is taken to construct a fuzzy control system.

■熟練操作員の持つ「もし温度が高ければ、火を小さく
する」等の曖昧な制御規則を得る。
■Obtain ambiguous control rules such as ``If the temperature is high, reduce the fire'' held by experienced operators.

■制御規則の中の言葉(命題)の意味をメンバシップ関
数という形で定量化し、制御規則をrlF−THEN〜
」 型のルール表現で記述する。
■ Quantify the meaning of the words (propositions) in the control rules in the form of membership functions, and convert the control rules into rlF-THEN~
” Described using a type rule expression.

■シミュレーションや現地テストによる検査を行う。■Conduct inspections through simulations and on-site tests.

■検査結果を評価し、メンバシップ関数や規則の改良を
行う。
■Evaluate inspection results and improve membership functions and rules.

更に詳細に説明すると、ファジィ制御ルールは、例えば
、 [目1、 is big and !2 is sma
ll thenT+ is bigJ と記述される。ここでIF部は前件部と呼ばれ、温度等
の制御状態量(制御入力)についての条件を記述する部
分である。またTHEN部は後件部と呼ばれ、操作端等
の制御操作量(制御出力)についての条件を記述する部
分である。
To explain in more detail, the fuzzy control rule is, for example, [item 1, is big and! 2 is sma
It is written as ll thenT+ is bigJ. Here, the IF section is called an antecedent section, and is a section that describes conditions regarding control state quantities (control inputs) such as temperature. Further, the THEN section is called a consequent section, and is a section that describes the conditions regarding the control operation amount (control output) of the operating terminal, etc.

ファジィ制御では、対象システムの制御論理として用意
される複数のファジィ制御ルールを管理すると共に、各
ファジィ制御ルール中に記述される「大きい」とか「小
さい」とかいうような曖昧な言語表現の意味をメンバシ
ップ関数として定量化して管理する。
Fuzzy control manages multiple fuzzy control rules prepared as the control logic of the target system, and also manages the meaning of ambiguous linguistic expressions such as "large" or "small" written in each fuzzy control rule. Quantify and manage it as a ship function.

完成したファジィ制御システムの制御手順は次のように
なる。
The control procedure of the completed fuzzy control system is as follows.

■制御対象から温度等の制御状態量が入力されると、設
定している前件部のメンバシップ関数に従って真理値を
算出する。
■When a controlled state quantity such as temperature is input from the controlled object, the truth value is calculated according to the membership function of the antecedent part that has been set.

■次に、最小値を選択する等の前件部演算に従って、各
ファジィ制御ルールにおける後件部に対しての適用値を
決定する処理を実行する。例えば、r If is b
igJ  の真理値;0.8[12is smxllJ
の真理値=0.5である場合には、最小値を選択する前
件部演算に従って、真理値=0.5をそのファジィ制御
ルールの後件部に対しての適用値として出力するように
処理する。
(2) Next, in accordance with the antecedent computation such as selecting the minimum value, a process is executed to determine the value to be applied to the consequent in each fuzzy control rule. For example, r If is b
Truth value of igJ; 0.8[12is smxllJ
When the truth value of = 0.5, the truth value = 0.5 is output as the applied value to the consequent part of the fuzzy control rule according to the antecedent part operation that selects the minimum value. Process.

■続いて、同一の制御操作量となる後件部のメンバーシ
ップ関数に対する前件部からの入力値(適用値)から出
力適用値を決定する処理を実行する。
(2) Next, a process is executed to determine an output application value from the input value (applied value) from the antecedent part to the membership function of the consequent part, which has the same amount of control operation.

例えば、2つのファジィ制御ルールにより、r y+ 
is blgJの適用値=0.5「y1+s bigJ
の適用値=0.6が得られた場合、最大値を選択する後
件部演算に従って、適用値=0.6を選択決定する。
For example, with two fuzzy control rules, r y+
Application value of is blgJ = 0.5 "y1+s bigJ
When the applied value=0.6 is obtained, the applied value=0.6 is selected and determined according to the consequent operation that selects the maximum value.

■続いて、決定された適用値に従って制御操作量のメン
バーシップ関数を縮小(又は拡大)すると共に、同一の
制御操作量についてのメンバーシップ関数の関数部の図
形の重心を求める等の処理を行ってファジィ推論′貞で
ある制御操作量を算出して出力する。
■Subsequently, the membership function of the control operation amount is reduced (or expanded) according to the determined applied value, and the center of gravity of the figure of the function part of the membership function for the same control operation amount is calculated. Then, fuzzy inference is used to calculate and output the control operation amount.

ところで、ファジィ制御ルールは、熟練操作員の持つ知
識に従って生成されることを予定しており、最初から最
適制御を実現できるファジィ制御ルールを確立すること
は困難である。従って、生成したファジィ制御ルールを
シミュレーションや現地テストにより評価しながら試行
錯誤的に改良していくという手順をとらざるを得ない。
By the way, fuzzy control rules are planned to be generated according to the knowledge possessed by a skilled operator, and it is difficult to establish fuzzy control rules that can realize optimal control from the beginning. Therefore, it is necessary to improve the generated fuzzy control rules through trial and error while evaluating them through simulations and field tests.

そこで本願発明者等にあっては、ニューロの適用により
ファジィ制御ルールを実現する階層ネットワーク構造、
即ちルール部プリワイヤニューロを使用した適応型のフ
ァジィ制御システムを提案している(特願平2−602
5’6号の[階層ネットワーク構成データ処理装置及び
データ処理システム」参照)。即ち、ルール部プリワイ
ヤニューロは、前件部メンバシップ関数実現部、ルール
部及び後件部メンバシップ関数で成るファジィ制御ルー
ルを実現する階層ネットワーク構成をもつ。
Therefore, the inventors of the present application developed a hierarchical network structure that realizes fuzzy control rules by applying neurology.
That is, we have proposed an adaptive fuzzy control system using prewired neuro in the rule section (Patent Application No. 2-602).
5'6, "Hierarchical Network Configuration Data Processing Device and Data Processing System"). That is, the rule part prewire neuro has a hierarchical network configuration that realizes a fuzzy control rule consisting of an antecedent part membership function realization part, a rule part, and a consequent part membership function.

このルール部プリワイヤニューロによるファジィ制御ル
ールの自動抽出を考えると、以下のような手続きを取れ
ばよい。
Considering the automatic extraction of fuzzy control rules by the pre-wired neuron of the rule section, the following procedure may be taken.

■ルール部プリワイヤニューロのメンバシップ関数を設
定する。
■Set the membership function of the rule section prewire neuro.

■ルール部プリワイヤニューロに、対象システムの入カ
バターンとその入カバターンに対する望ましい出カバタ
ーンの組とを提示して学習させる。
■The rule section prewire neuro is presented with the input pattern of the target system and a set of desirable output patterns for that input pattern, and is made to learn.

■ルール部の結線の重みを解析することにより対象シス
テムについての最適ファジィ制御ルールを抽出する。
■Extract the optimal fuzzy control rule for the target system by analyzing the weights of connections in the rule section.

[発明が解決しようとする課題] しかしながら、ルール部プリワイヤニューロについてフ
ァジィ制御ルールを抽出させるために行われる学習は、
前件部メンバシップ関数部、ルール部及び後件部メンバ
シップ関数実現部の重みを含め、どのようにして学習を
行わせるかの学習方法が決っておらず、ロール部プリワ
イヤニューロの性能を最大限に引き出すことのできる効
率の良い学習法の構築が必要となっている。
[Problems to be Solved by the Invention] However, the learning performed for extracting fuzzy control rules for the rule section pre-wired neuron is
The learning method for learning, including the weights of the antecedent membership function part, rule part, and consequent part membership function realization part, has not been determined, and the performance of the roll part prewire neuron has not yet been determined. There is a need to develop efficient learning methods that can bring out the best in students.

本発明は、このような状況に鑑みてなされたもので、対
象システムに適合した制御をおこなうための学習を効率
良く行なうことのできるルール部プリワイヤニューロの
学習方法を提供することを目的とする。
The present invention has been made in view of the above situation, and an object of the present invention is to provide a learning method for a rule section pre-wired neuro that can efficiently perform learning for controlling a target system. .

[課題を解決するための手段] 第1図は本発明の原理説明図である。[Means to solve the problem] FIG. 1 is a diagram explaining the principle of the present invention.

まず本発明は、前件部メンバシップ関数実現部10.1
又は複数階層でなるルール部12及び後件部メンバシッ
プ関数実現部14でなるファジィ制御ルールを実現する
階層ネットワーク構造を有し、ルール部12は前段の前
件メンバシップ関数実現部10及び又は後段の後件部メ
ンバシップ関数実現部14との間で全ユニット間を内部
結合せずに制御ルールに従って一部を内部結合して成り
、入力される制御状態量(X+ 、X2 、  ・・・
Xo)に対応する1又は複数の制御操作量(Y)を出力
するルール部プリワイヤニューロ+00を対象とする。
First, the present invention provides antecedent membership function realization unit 10.1
Or, it has a hierarchical network structure that realizes a fuzzy control rule consisting of a multi-layered rule section 12 and a consequent membership function realization section 14, where the rule section 12 is an antecedent membership function realization section 10 in the preceding stage and/or a subsequent stage. The consequent part membership function realization unit 14 does not internally connect all the units, but internally connects some of them according to the control rule, and input control state quantities (X+, X2, . . .
The target is the rule section prewire neuro+00 that outputs one or more control operation amounts (Y) corresponding to Xo).

このようなルール部プリワイヤニューロ100の学習方
法として本発明にあっては、次の10通りの学習方法で
構成される。
In the present invention, the learning method of the rule section pre-wired neuron 100 is comprised of the following 10 learning methods.

■請求項1; [第1過程]前件部メンバシップ関数実現部10に予め
持っている知識(図中は「先験的知識」として示す)に
基づき又は乱数を用いて重み値を初期設定すると共に、
ルール部12及び後件部メンバシップ関数実現部14に
予め持っている知識に基づいて重み値を初期設定する; [第2過程]学習データを使用して前件部メンバシップ
関数実現部10の重みを学習させる;[第3過程コ学習
データを使用して前件部メンバシップ関数実現部10、
ルール部12及び後件部メンバシップ関数実現部14の
全体の重みを学習させる; ように構成する。
■Claim 1; [First step] Initial setting of weight values based on knowledge that the antecedent membership function realization unit 10 has in advance (shown as "prior knowledge" in the figure) or using random numbers. At the same time,
Initialize weight values based on knowledge held in advance in the rule unit 12 and consequent membership function realization unit 14; [Second process] Initialize weight values in the antecedent membership function realization unit 10 using learning data. Learn the weights; [Third process: Antecedent membership function realization unit 10 using learning data;
The overall weights of the rule section 12 and the consequent membership function realization section 14 are learned.

■請求項2 [第1過程コルール部12に予め持っている知識に基づ
き又は乱数を用いて重み値を初期設定すると共に、前件
部メンバシップ関数実現部10及び後件部メンバシップ
関数実現部14に予め持っている知識に基づいて重み値
を初期設定する;[第2過程]学習データを使用してル
ール部12の重みを学習させる; [第3過程]学習データを使用して前件部メンバシップ
関数実現部10、ルール部12及び後件部メンバシップ
関数実現部14の全体の重みを学習させる; ように構成する。
■Claim 2 [The first process corrule unit 12 initializes the weight values based on knowledge held in advance or using random numbers, and the antecedent membership function realization unit 10 and the consequent membership function realization unit Initialize the weight values based on knowledge held in advance in Step 14; [Second process] Learning the weights of the rule section 12 using the learning data; [Third process] Setting the antecedent using the learning data The overall weights of the part membership function realization part 10, the rule part 12, and the consequent part membership function realization part 14 are learned.

■請求項3 [第1過程コルール部12に予め持っている知識に基づ
き又は乱数を用いて重み値を初期設定すると共に、前件
部メンバシップ関数実現部10及び後件部メンバシップ
関数実現部14に予め持っている知識に基づいて重み値
を初期設定する;[第2過程コ学習データを使用してル
ール部12の重みを学習させる; [第3過程コ学習データを使用して前件部メンバシップ
関数実現部10の重みを学習させると;[第4過程コ学
習データを使用して前件部メンバシップ関数実現部10
、ルール部12及び後件部メンバシップ関数実現部14
の全体の重みを学習させる: ように構成する。
■Claim 3 [The weight values are initialized based on the knowledge held in advance in the first process corrule unit 12 or using random numbers, and the antecedent membership function realization unit 10 and the consequent membership function realization unit Initialize the weight values based on knowledge held in advance in step 14; [Second process learning data to learn the weights of the rule section 12; Third process learning data to set the antecedent. When the weights of the part membership function realization part 10 are learned;
, rule part 12 and consequent part membership function realization part 14
Learn the overall weight of: Configure as follows.

■請求項4 [第1過程]前件部メンバシップ関数実現部10に予め
持っている知識に基づき又は乱数を用いて重み値を初期
設定すると共に、ルール部12及び後件部メンバシップ
関数実現部14に予め持っている知識に基づいて重み値
を初期設定する・[第2過程]学習データを使用して前
件部メンバシップ関数実現部10の重みを学習させる;
[第3過程コ学習データを使用してルール部12の重み
を学習させる; [第4過程]学習データを使用して前件部メンバシップ
関数実現部10、ルール部12及び後件部メンバシップ
関数実現部14の全体の重みを学習させる; ように構成する。
■Claim 4 [First step] Initial setting of weight values based on knowledge held in advance in the antecedent membership function realizing unit 10 or using random numbers, and realizing the rule unit 12 and the consequent membership function. Initialize weight values based on knowledge held in advance in unit 14. [Second process] Learning the weights of antecedent membership function realization unit 10 using learning data;
[Third step: Learning the weights of the rule section 12 using the learning data; [Fourth step] Using the learning data, learn the antecedent section membership function realization section 10, the rule section 12, and the consequent section membership. The entire weight of the function realization unit 14 is learned; it is configured as follows.

■請求項5 [第1過程]前件部メンバシップ関数実現部10及びル
ール部12に予め持っている知識に基づき又は乱数を用
いて重み値を初期設定すると共に、後件部メンバシップ
関数実現部14に予め持っている知識に基づいて重の値
を初期設定する;[第2過程]学習データを使用して前
記前件部メンバシップ関数実現部10及びルール部12
のの重みを同時に学習させる; [第3過程]学習データを使用して前件部メンバシップ
関数実現部10、ルール部12及び後件部メンバシップ
関数実現部14の全体の重みを学習させる; ように構成する。
■Claim 5 [First step] Initializing weight values based on knowledge held in advance in the antecedent membership function realizing unit 10 and the rule unit 12 or using random numbers, and realizing the consequent membership function. Initialize weight values based on knowledge held in advance in section 14; [Second process] Using learning data, the antecedent membership function realization section 10 and rule section 12
[Third process] Learning the overall weights of the antecedent membership function realizing unit 10, the rule unit 12, and the consequent membership function realizing unit 14 using the learning data; Configure it as follows.

■請求項6; [第1過程コ前件部メンバシップ関数実現部10に予め
持っている知識に基づき又は乱数を用いて重み値を初期
設定すると共に、ルール部12及び後件部メンバシップ
関数実現部14に予め持っている知識に基づいて重み値
を初期設定する;[第2過程]学習データを使用して前
件部メンバシップ関数実現部10の重みを学習させる;
[第3過程コ学習データを使用して後件部メンバシップ
関数実現部14の重みを学習させる;[第4過程]学習
データを使用して前件部メンバシップ関数実現部10、
ルール部12及び後件部メンバシップ関数実現部14の
全体の重みを学習させる; ように構成する。
■Claim 6; [The first step is to initialize the weight values based on the knowledge held in advance in the antecedent membership function realizing unit 10 or using random numbers, and also to set the weight values in the rule unit 12 and the consequent membership function. Initialize the weight values based on the knowledge that the realization unit 14 has in advance; [Second process] Learning the weights of the antecedent membership function realization unit 10 using the learning data;
[Third step: Use the learning data to learn the weights of the consequent membership function realization unit 14; [Fourth process] Use the learning data to learn the weights of the antecedent membership function realization unit 10;
The overall weights of the rule section 12 and the consequent membership function realization section 14 are learned.

■請求項7 [第1過程]ルール部12に予め持っている知識に基づ
き又は乱数を用いて重み値を初期設定すると共に、前件
部メンバシップ関数実現部10及び後件部メンバシップ
関数実現部14に予め持っている知識に基づいて重み値
を初期設定する;[第2過程]学習データを使用してル
ール部12の重みを学習させる; [第3過程コ学習データを使用して後件部メンバシップ
関数実現部14の重みを学習させる[第4過程コ学習デ
ータを使用して前件部メンバシップ関数実現部10.ル
ール部12及び後件部メンバシップ関数実現部14の全
体の重みを学習させる: ように構成する。
■Claim 7 [First step] Initial setting of weight values based on knowledge previously held in the rule unit 12 or using random numbers, and realization of the antecedent membership function realization unit 10 and the consequent membership function. Initialize the weight values based on the knowledge that the section 14 has in advance; [Second step] Learning the weights of the rule section 12 using the learning data; [Third step] After using the learning data. Learning the weights of the subject membership function realization unit 14 [Fourth step] Using the learning data, the antecedent membership function realization unit 10. The overall weights of the rule unit 12 and the consequent membership function realization unit 14 are learned: The configuration is as follows.

■請求項8 U第1過程]ルール部12に予め持っている知識に基づ
き又は乱数を用いて重み値を初期設定すると共に、前件
部メンバシップ関数実現部10及び後件部メンバシップ
関数実現部14に予め持っている知識に基づいて重み値
を実現部10の重みを学習させる; [第3過程]学習データを使用してルール部12の重み
を学習させる; [第4過程]学習データを使用して後件部メンバシップ
関数実現部14の重みを学習させる;[第5過程] 学習データを使用して前記前件部メンバシップ関数実現
部10、ルール部12及び後件部メンバシップ関数実現
部14の全体の重みを学習させる■請求項9 [第1過程コ前件部メンバシップ関数実現部10及びル
ール部12に予め持っている知識に基づき又は乱数を用
いて重み値を初期設定すると共に、後件部メンバシップ
関数実現部14に予め持っている知識に基づいて重み値
を初期設定する。
■Claim 8 U first step] Initial setting of weight values based on knowledge held in advance in the rule unit 12 or using random numbers, and realizing the antecedent membership function realization unit 10 and the consequent membership function. Learning the weights of the weight value realization unit 10 based on the knowledge that the unit 14 has in advance; [Third process] Learning the weights of the rule unit 12 using learning data; [Fourth process] Learning data learning the weights of the consequent membership function realization unit 14 using the learning data; [Claim 9] Learning the overall weight of the function realizing unit 14 [Claim 9] [First step antecedent membership function realizing unit 10 and rule unit 12 to initialize the weight values based on knowledge held in advance or using random numbers] At the same time, the weight values are initialized based on the knowledge that the consequent membership function realization unit 14 has in advance.

「第2過程]学習データを使用して前記前件部メンバシ
ップ関数実現部10及びルール部12のの重みを同時に
学習させる; [第3過程コ学習データを使用してルール部12の重み
を学習させる; [第4過程]学習データを使用して後件部メンバシップ
関数実現部14の重みを学習させる;[第5過程コ学習
データを使用して前件部メンバシップ関数実現部10、
ルール部12及び後件部メンバシップ関数実現部14の
全体の重みを学習させる; ように構成する。
[Second process] The weights of the antecedent membership function realization unit 10 and the rule unit 12 are simultaneously learned using the learning data; [Third process: The weights of the rule unit 12 are learned using the learning data. [Fourth process] Learning the weights of the consequent membership function realizing unit 14 using the learning data; [Fifth process) Learning the weights of the consequent membership function realizing unit 10 using the learning data;
The overall weights of the rule section 12 and the consequent membership function realization section 14 are learned.

■請求項1.0 [第1過程]前件部メンバシップ関数実現部10及びル
ール部12に予め持っている知識に基づき又は乱数を用
いて重み値を初期設定すると共に、後件部メンバシップ
関数実現部14に予め持っている知識に基づいて重み値
を初期設定する;[第2過程]学習データを使用して前
記前件部メンバシップ関数実現部10及びルール部12
のの重みを同時に学習させる; [第3過程コ学習データを使用して後件部メンバシップ
関数実現部14の重みを学習させる;[第4過程]学習
データを使用して前件部メンバシップ関数実現部10、
ルール部12及び後件部メンバシップ関数実現部14の
全体の重みを学習させる; ように構成する。
■Claim 1.0 [First step] The weight values are initialized based on the knowledge held in advance in the antecedent membership function realization unit 10 and the rule unit 12 or using random numbers, and the consequent membership Initialize weight values based on knowledge held in advance in the function realizing unit 14; [Second process] The antecedent membership function realizing unit 10 and the rule unit 12 using learning data
Simultaneously learn the weights of the consequent membership function realization unit 14 using the learning data; [4th process] learn the antecedent membership using the learning data; Function realization unit 10,
The overall weights of the rule section 12 and the consequent membership function realization section 14 are learned.

以上の■〜0の学習方法に於いて、最初に重みを学習す
る部分の第1過程における重み初期値の設定は、予め持
っている知識で設定可能な重みは該知識で初期設定し、
その他は乱数を用いて初期設定してもよい。更に第1過
程の重み値の初期設定を行った後の各過程の学習開始時
に、前件部メンバシップ関数実現部10、ルール部12
及び後件部メンバシップ関数実現部14の内、学習対象
となっている部分の結線毎に設けられた学習フラグをオ
ンすると共に、学習対象となっていない部分の結線毎に
設けられた学習フラグをオフし、オン状態にある学習フ
ラグを有する結線の重み値のみを学習処理により最適化
する。
In the above learning method (① to 0), the initial weight values in the first process of learning the weights are set by initializing the weights that can be set based on the knowledge held in advance,
Others may be initialized using random numbers. Further, at the start of learning of each process after initial setting of the weight values of the first process, the antecedent membership function realization unit 10 and the rule unit 12
and the consequent membership function realization unit 14, turns on the learning flag provided for each connection in the part that is the learning target, and turns on the learning flag provided for each connection in the part that is not the learning target. is turned off, and only the weight values of connections with learning flags in the on state are optimized through learning processing.

[作用〕 このような構成を備えた本発明のルール部プリワイヤニ
ューロの学習方法によれば次の作用が得られる。
[Operations] According to the learning method of the rule section pre-wired neuron of the present invention having such a configuration, the following operations can be obtained.

まず、ルール部プリワイヤニューロの前件部メンバシッ
プ関数実現部、ルール部及び後件部メンバシップ関数実
現部の内、最初に重みを学習する部分については予め持
っている知識に基づいた重み値の初期設定又は乱数を用
いた重み値の初期設定を行ない、2回目以降に重みを学
習する部分には予め持っている知識に基づいた重み値の
初期設定を行なう。
First, among the antecedent membership function realization part of the rule part pre-wired neuron, the rule part and the consequent part membership function realization part, the part that learns the weights first is based on the weight value based on the knowledge held in advance. or initial setting of weight values using random numbers, and initial setting of weight values based on knowledge held in advance is performed for parts where weights are learned from the second time onwards.

続いて、学習処理を起動し、学習用の入カバターンをル
ール部プリワイヤニューロに提示し、ルール部プリワイ
ヤニューロからの出カバターンかが、入カバターンに対
し望ましい出カバターンとなる学習比カバターン(教師
信号)に略一致するように初期設定した重み値を修正す
る例えばパックプロパゲーション法による重みの学習を
行う。
Next, the learning process is started, the input cover turn for learning is presented to the rule section pre-wire neuron, and the output cover turn from the rule section pre-wire neuro is a learning ratio cover turn (the teacher The weights are learned by, for example, the pack propagation method, in which the initially set weight values are corrected so as to substantially match the signal).

この重み学習は、最終的にプリワイヤニューロ全体の重
みを学習するものであり、最終段階の重み学習に先立ち
次の■〜0の重み学習が前段階で行われる。
This weight learning is to ultimately learn the weight of the entire pre-wired neuron, and prior to the final stage weight learning, the following weight learning from 1 to 0 is performed in the previous stage.

■前件部メンバシップ関数実現部のみ行う;■ルール部
のみ行う; ■ルール部→前件部メンバシップ関数実現部の順番に行
なう; ■前件メンバシップ関数実現部→ルール部の順番に行う
; ■前件部とルール部を同時に行う; ■前件部メンバシップ関数実現部−後件部メンバシップ
関数実現部の順番に行う; ■ルール部→後件部メンバシップ関数実現部の順番に行
う; ■ルール部−前件部メンバシップ関数実現部−後件部メ
ンバシップ関数実現部の順番に行う;■前件部メンバシ
ップ関数実現部−ルール部−後件部メンバシップ関数実
現部の順番に行う;[相]前件部メンバシップ関数実現
部及びルール部を同時に行い→次に後件部メンバシップ
関数実現部を行う; このように前件部メンバシップ関数実現部、ルール部及
び後件部メンバシップ関数実現部の少なくとも1つの部
分の重みを学習した後に、最終的にルール部プリワイヤ
ニューロ全体を学習させることで、前段階で学習された
前件部メンバシップ関数実現部、ルール部及び後件部メ
ンバシップ関数実現部の少なくとも1つの重みの学習結
果に合わせたルール部プリワイヤニューロ全体の重みの
再度調整ができる。
■Perform only the antecedent membership function realization part;■Perform only the rule part; ■Carry out in the order of rule part → antecedent membership function realization part; ■Carry out in the order of antecedent membership function realization part → rule part ; ■ Perform the antecedent part and the rule part at the same time; ■ Perform the antecedent part membership function realization part - the consequent part membership function realization part in the order; ■ The rule part → the consequent part membership function realization part in the order Execute; ■Rule part - Antecedent part membership function realization part - Consequent part Membership function realization part in order; ■Antecedent part membership function realization part - Rule part - Consequent part membership function realization part Perform in order; [phase] Perform the antecedent membership function realization part and the rule part at the same time → then perform the consequent membership function realization part; In this way, the antecedent membership function realization part, the rule part, and After learning the weight of at least one part of the consequent part membership function realization part, the whole rule part pre-wire neuron is finally learned, so that the antecedent part membership function realization part learned in the previous stage, The weight of the entire rule section prewire neuron can be readjusted in accordance with the learning result of at least one weight of the rule section and the consequent section membership function realization section.

また予め持っている知識を導入した重みの初期設定によ
り、学習が容易にてき学習効率を高めることができる。
In addition, the initial setting of weights that incorporates pre-existing knowledge facilitates learning and improves learning efficiency.

更に、乱数を利用した重みの初期設定により、ニューロ
による学習機能を最大限に引き出すことができる。
Furthermore, by initializing the weights using random numbers, it is possible to maximize the neural learning function.

[実施例コ 第2A図〜第2J図は本発明によるルール部プリワイヤ
ニューロの学習方法の第1実施例から第10実施例の各
処理手順を示した学習動作フロー図である。この第2A
〜2J図の手順による学習方法の対象となるルール部プ
リワイヤニューロは例えば第3図に示す前件部メンバシ
ップ関数実現部10、ルール部12及び後件部メンバシ
ップ関数実現部14(重心計算実現部18を含む)で成
るファジィ制御ルールを実現するための階層ネットワー
ク構造を有する。
[Embodiment 2] Figs. 2A to 2J are learning operation flowcharts showing each processing procedure of the first to tenth embodiments of the learning method of the rule section pre-wire neuro according to the present invention. This second A
The rule section pre-wired neuron that is the target of the learning method according to the procedure shown in FIG. It has a hierarchical network structure for realizing fuzzy control rules, including a realization unit 18).

ここでルール部プリワイヤニューロとは、ルール部12
が前段の前件メンバシップ関数実現部10及び又は後段
の後件部メンバシップ関数実現部14との間で全ユニッ
ト間を内部結合せずに制御ルールに従って一部を内部結
合したネットワーク構造をもち、階層ユニット間の全て
を内部結合したルール部全結合ニューロに対比される。
Here, the rule section pre-wire neuro means the rule section 12.
has a network structure in which all units are not internally connected with the antecedent membership function realizing unit 10 in the previous stage and/or the consequent membership function realizing unit 14 in the subsequent stage, but some are internally connected according to the control rule. , is compared to a rule-part fully connected neuron that internally connects everything between hierarchical units.

第2A〜21図に示した第1〜第1o実施例の学習処理
にあっては、次のステップ81〜S6から成る処理を行
なう。
In the learning process of the first to 1oth embodiments shown in FIGS. 2A to 21, the following steps 81 to S6 are performed.

[ステップSL] 前件部メンバシップ関数実現部1oの重みCab。[Step SL] Weight Cab of the antecedent membership function realization unit 1o.

Cbtを、与えられたメンバシップ関数を実現するよう
に初期設定する。尚、Cab、  Cbcは後述するよ
うに重みを初期設定する結線の結線グループ番号である
Initialize Cbt to implement the given membership function. Note that Cab and Cbc are connection group numbers of connections whose weights are initially set, as will be described later.

[ステップS2] ルール部12の重みCcd、  Cdeを、与えられた
ファジィルールを実現するように初期設定する。
[Step S2] Initialize the weights Ccd and Cde of the rule section 12 so as to realize the given fuzzy rule.

[ステップS3] 後件部メンバシップ関数実現部14の重みCelを、与
えられたメンバシップ関数を実現スるように初期設定す
る。
[Step S3] The weight Cel of the consequent membership function realization unit 14 is initialized so as to realize the given membership function.

[ステップS4] 重心計算実現部18の重みCfgを、重心計算を実現す
るように初期設定する。
[Step S4] The weight Cfg of the center of gravity calculation implementation unit 18 is initialized to realize center of gravity calculation.

[ステップS5コ 学習処理を行なうフェーズ毎のニューロングループを示
すフェーズ・グループ対応表及び各二ニーロングループ
に属する結線グループを示すグループ・結線対応表の設
定を行なう。
[Step S5] A phase/group correspondence table indicating the neuron groups for each phase in which the learning process is performed and a group/connection correspondence table indicating the connection groups belonging to each neuron group are set.

[ステップS6コ 学習スケジューラを起動してパックプロパゲーション法
により学習処理を行なう。
[Step S6] Start the learning scheduler and perform learning processing using the pack propagation method.

以上のステップ81〜S6から成る学習処理において、
ステップ81〜S3の重み値の初期設定は、各実施例毎
に次のようにしている。まずステップS6の学習スケジ
ューラの起動により最初に重み学習を行なう部分、即ち
フェーズ1で重みを学習する部分については予め持)て
いる知識の導入に基づいた重み値の初期設定、または乱
数を用いたランダムな重み値の初期設定を行なう。一方
、2回目以降(第2フエーズ以降)で重みを学習する部
分については予め持っている知識の導入に基づく重み値
の初期設定のみを行なう。
In the learning process consisting of the above steps 81 to S6,
The initial setting of the weight values in steps 81 to S3 is performed as follows for each embodiment. First, by starting the learning scheduler in step S6, for the part where weight learning is first performed, that is, the part where weights are learned in phase 1, weight values are initialized based on the introduction of pre-existing knowledge, or random numbers are used. Initialize random weight values. On the other hand, for the part where the weights are learned from the second time onwards (second phase and onward), only the initial setting of the weight values is performed based on the introduction of knowledge held in advance.

ステップS4の重心計算実現部18に対する重み値の初
期設定は全ての実施例について同じである。
The initial setting of weight values for the center of gravity calculation implementation unit 18 in step S4 is the same for all embodiments.

またステップ5におけるフェーズ・グループ対応表の設
定は、各実施例におけるステップs6の学習フェーズの
変更に従って固有のフェーズ・グループ対応表が設定さ
れる。一方、グループ・結線対応表の設定は全ての実施
例について共通に設定される。
Further, regarding the setting of the phase-group correspondence table in step 5, a unique phase-group correspondence table is set according to the change of the learning phase in step s6 in each embodiment. On the other hand, the settings of the group/connection correspondence table are set in common for all embodiments.

更にステップS6の重み学習の実行にあっては、全ての
実施例において重み学習の最終段階、即ち最後のフェー
ズでニューロン全体の重み学習、即ち前件部メンバシッ
プ関数実現部1o1ルール部12及び後件部メンバシッ
プ関数実現部14の全体の重みを学習する点で共通して
いる。この最終フェーズで行なうニューロ全体の重み学
習に対し、前段の重み学習については各実施例固有の重
み学習を行なうようにしている。
Furthermore, in executing the weight learning in step S6, in the final stage of weight learning, that is, in the last phase, weight learning of the entire neuron is performed, that is, the antecedent membership function realization unit 1o1 rule unit 12 and the post They are common in that they learn the overall weight of the subject membership function realization unit 14. In contrast to the weight learning of the entire neuron performed in this final phase, the weight learning in the previous stage is performed in a manner unique to each embodiment.

以下、第2A図の第1実施例の学習動作フローを例にと
ってステップS1〜S6のそれぞれに分けて本発明の学
習方法を詳細に説明する。
Hereinafter, the learning method of the present invention will be explained in detail by taking the learning operation flow of the first embodiment shown in FIG. 2A as an example and dividing it into steps S1 to S6.

[ルール部プリワイヤニューロの構成コ本発明の対象と
なるルール部プリワイヤニューロは、例えば第3図に示
すファジィ制御ルールを実現可能な階層ネットワーク構
造を有する。
[Configuration of Rule Section Prewire Neuron] The rule section prewire neuron to which the present invention is applied has a hierarchical network structure capable of realizing the fuzzy control rules shown in FIG. 3, for example.

第3図において、各部に示したノードは1つの基本ユニ
ットを示しており、基本ユニットは黒丸で示すシグモイ
ド関数ユニットと、白丸で示す線形関数ユニットの2種
が使用されている。
In FIG. 3, each node shown in each part represents one basic unit, and two types of basic units are used: a sigmoid function unit shown by a black circle, and a linear function unit shown by a white circle.

第4図は第3図の基本ユニットの構成を取り出して示す
FIG. 4 shows the configuration of the basic unit shown in FIG. 3.

第4図において、基本ユニット20は多大力1出力系を
構成しており、複数の入力に対し各々の内部結合の重み
値を乗算する乗算部22と、乗算部22の全乗算結果を
加算する加算部24と、加算部24の出力に閾値処理を
施す閾値処理部26とで構成される。
In FIG. 4, the basic unit 20 constitutes a multi-power single output system, and includes a multiplication section 22 that multiplies a plurality of inputs by the weight value of each internal connection, and a multiplication section 22 that adds all the multiplication results of the multiplication section 22. It is composed of an adding section 24 and a threshold processing section 26 that performs threshold processing on the output of the adding section 24.

ここで前段層をh層、後段層をi層とすると乗算部22
と加算部24は下記の(1)式の演算を実行し、また閾
値処理部26では下記の(2)式の演算を実行する。
Here, if the first layer is the h layer and the second layer is the i layer, the multiplier 22
The addition unit 24 executes the calculation of equation (1) below, and the threshold processing unit 26 executes the calculation of equation (2) below.

x1、=ΣVphW+h            (1
)y 1、== 1 / (1+ e−CxpI−θ”
 )      (2)但し、 h :h層のユニット番号 i :i層のユニット番号 p :入力信号のパターン番号 θl :i層の1番ユニットの閾値 W1、:h−i層間の内部結合の重み値x1、:h層の
各ユニットからi層の1番ユニットへの入力の積和 Vph:I)番目パターンの入力信号に対するh層のh
番ユニットからの出力 y□zp番目パターンの入力信号に対するj層の1番ユ
ニットからの出力 ここで前記(2)式はシグモイド関数として知られてお
り、第3図に示した黒丸の基本ユニットの閾値処理とな
る。
x1, = ΣVphW+h (1
)y 1, == 1 / (1+ e-CxpI-θ”
) (2) However, h: unit number of h layer i: unit number of i layer p: input signal pattern number θl: threshold value W1 of the first unit of i layer,: weight value of internal connection between h-i layer x1, : Sum of products of inputs from each unit of h layer to the 1st unit of i layer Vph: h of h layer for input signal of I)th pattern
Output from unit No. y This is threshold processing.

これに対し閾値処理部26に V p 1= X p となる線形関数を設定したものが第3図における白丸の
線形関数ユニットとなる。但し、前件部メンバシップ関
数実現部10の最初のユニットである入力部は必ずしも
線形関数ユニットでなくて良い。この第4図の基本ユニ
ットのハードウェアは特願昭63−216865号の「
ネットワーク構成データ処理装置」に示される。
On the other hand, a linear function unit that satisfies V p 1 = X p is set in the threshold processing unit 26, and becomes a linear function unit indicated by a white circle in FIG. However, the input section, which is the first unit of the antecedent membership function realization section 10, does not necessarily have to be a linear function unit. The hardware of the basic unit shown in Fig. 4 is described in Japanese Patent Application No. 63-216865.
"Network Configuration Data Processing Device".

再び第3図を参照してルール部プリワイヤニューロの各
部の構成を説明する。
Referring again to FIG. 3, the configuration of each part of the rule section pre-wire neuro will be explained.

まず前件部メンバシップ関数実現部10は、各入力変数
X1、X2.  ・・・Xnを入力とし、入力変数X、
〜Xnのメンバシップ関数のグレード値を出力する。図
では簡単のため各メンバシップ関数は1変数関数として
いるが、多変数関数であってもよい。つまり変数X1と
X2を入力としてX、&X2  (SA) というメンバシップ関数であっても良い。
First, the antecedent membership function realization unit 10 processes each input variable X1, X2 . ...Xn is input, input variable X,
Output the grade value of the membership function of ~Xn. In the figure, each membership function is a one-variable function for simplicity, but it may be a multi-variable function. In other words, it may be a membership function of X, &X2 (SA) with variables X1 and X2 as inputs.

ルール部12は前件部ルール部12−1と後件部ルール
部12−2で構成される。前件部ルー・ル部12−1は
、入力変数x1〜Xnのメンバシップ関数X、(SA)
 〜Xn (LA)のグレード値を入力として、各ルー
ルのグレード値を出力する。
The rule section 12 includes an antecedent section rule section 12-1 and a consequent section rule section 12-2. The antecedent part rule part 12-1 is a membership function X, (SA) of input variables x1 to Xn.
The grade value of ~Xn (LA) is input, and the grade value of each rule is output.

また後件部ルール部12−2は、ルールのグレード値L
H8−1〜LH8−nを入力として出力変数のメンバシ
ップ関数y (SA)〜y (LA)のグレード値を出
力する。
Further, the consequent part rule part 12-2 contains the grade value L of the rule.
H8-1 to LH8-n are input, and grade values of membership functions y (SA) to y (LA) of output variables are output.

更に後件部メンバシップ関数実現部14(重心計算実現
部16を含む)は、出力変数のメンバシップ関数y (
SA)〜y (LA)のグレード値を入力して、出力変
数Yの値を出力する。
Further, the consequent membership function realization unit 14 (including the centroid calculation realization unit 16) calculates the membership function y (
Input the grade values of SA) to y (LA) and output the value of the output variable Y.

ここで、前件部ルール部12−1と後件部ルール部12
−2を合わせたルール部12は、入力も出力もメンバシ
ップ関数のグレード値であるので、これをカスケード結
合することができ、多段推論が可能である。
Here, the antecedent part rule part 12-1 and the consequent part rule part 12
Since both the input and output of the rule unit 12 including -2 are the grade values of the membership function, these can be cascaded and multi-stage inference is possible.

また、各モジュール10.12−1.12−2゜14間
を結ぶニューロンは共用できる。例えば前件部メンバシ
ップ関数実現部10の出力ニューロンと前件部ルール部
12−1の入力ニューロンは実際には同じものでよい。
Further, the neurons connecting each module 10.12-1.12-2.14 can be shared. For example, the output neuron of the antecedent membership function implementation unit 10 and the input neuron of the antecedent rule unit 12-1 may actually be the same.

更に第3図では各ユニットを1つのニューロとして説明
しているが、ユニットの機能が特定できているものにつ
いてはニューロとせずにユニット機能を実現するゲート
回路、演算器等としても良い。
Further, in FIG. 3, each unit is described as one neuron, but if the function of the unit can be specified, it may be used as a gate circuit, an arithmetic unit, etc. that realizes the unit function instead of a neuron.

第5A図は本発明のルール部プリワイヤニューロの具体
的実施例を示したもので、入力X1、X2の2つを与え
て制御出力Yを得る場合を例にとっており、この第5A
図を参照して各部の構成を詳細に説明すると次のように
なる。
FIG. 5A shows a specific embodiment of the rule section pre-wired neuron of the present invention, taking as an example a case where two inputs, X1 and X2, are given to obtain a control output Y.
The configuration of each part will be explained in detail with reference to the drawings as follows.

入力部16は分離ユニット28−1.28−2で構成さ
れ、入力X1、X2を2つに分けて前件部メンバシップ
関数実現部10に与える。前件部メンバシップ関数実現
部10は4つのシグモイド関数ユニット30−1〜30
−4及び同じ(4つの線形関数ユニット32−1〜32
−4で構成される。
The input section 16 is composed of separation units 28-1 and 28-2, which divides the inputs X1 and X2 into two and supplies them to the antecedent membership function realization section 10. The antecedent membership function realization unit 10 includes four sigmoid function units 30-1 to 30.
-4 and the same (four linear function units 32-1 to 32
-4.

ルール部12は例えば8つのファジィルールを実現する
シグモイド関数ユニット34−1〜34−8を備え、前
件部メンバシップ関数実現部10からは各ファジィルー
ルし1〜L8の記述に従った結線が行なわれている。シ
グモイド関数ユニット34−1〜34−8の出力はファ
ジィルールに従って後件部演算を行なう2つの線形関数
ユニッ)36−1.36−2にファジィルールに従って
結線されている。
The rule section 12 includes, for example, sigmoid function units 34-1 to 34-8 that realize eight fuzzy rules, and the antecedent membership function realization section 10 connects each fuzzy rule according to the descriptions 1 to L8. It is being done. The outputs of the sigmoid function units 34-1 to 34-8 are connected according to fuzzy rules to two linear function units 36-1 and 36-2 which perform consequent operations according to fuzzy rules.

後件部メンバシップ関数実現部14は例えば9つの線形
関数ユニット38−1〜38−9で構成されており、ル
ール部12から出力される2つのユニット出力値(グレ
ード値)に基づいてメンバシップ関数を縮小(または拡
大)すると共に縮小(または拡大)した2つのメンバシ
ップ関数の関数和を算出する。
The consequent membership function realization unit 14 is composed of, for example, nine linear function units 38-1 to 38-9, and determines membership based on two unit output values (grade values) output from the rule unit 12. The function is reduced (or enlarged) and the function sum of the two reduced (or enlarged) membership functions is calculated.

更に重心計算実現部18は重心決定要素出力装置40と
重心算出装置42で構成される。重心決定要素出力装置
40の線形関数ユニッ)40−1゜40−2は、後件部
メンバシップ関数実現部14からのユニット出力の重付
は総和を演算して2つの重心算出要素Y1、Y2を求め
、最終的に重心算出装置42で2つの重心算出要素Y1
、Y2から重心を算出してファジィ推論値としての制御
出力Yを生ずる。
Furthermore, the center of gravity calculation implementation unit 18 is composed of a center of gravity determining element output device 40 and a center of gravity calculation device 42. The linear function units 40-1 and 40-2 of the center-of-gravity determining element output device 40 calculate the weight of the unit output from the consequent membership function realization unit 14 by calculating the sum and calculating the two center-of-gravity calculation elements Y1 and Y2. Finally, the center of gravity calculation device 42 calculates the two center of gravity calculation elements Y1.
, Y2, and generates a control output Y as a fuzzy inference value.

第5B図は第5A図のルール部プリワイヤニューロにつ
いて本発明による学習方法を実現するためのニューロン
グループと結線グループを示す。
FIG. 5B shows neuron groups and connection groups for realizing the learning method according to the present invention for the rule section pre-wire neuron of FIG. 5A.

第5B図において、ニューロングル・−プはGa−Gg
の7つであるが、この内、入力部のニューロングループ
Gaと重心計算実現部18のニューロングループGgの
2つについては単なる分離及び加算合成を行なうにすぎ
ないことから、パックプロパゲーション法による重みの
学習対象からは除いている。従ってパックプロパゲーシ
ョン法による重みの学習対象に入るニューロングループ
はGb、Gc、Gd、Ge及びGfの5つとなる。
In Figure 5B, the neuron group is Ga-Gg.
However, two of these, the neuron group Ga in the input section and the neuron group Gg in the center of gravity calculation implementation section 18, are simply separated and combined, so the weights are calculated using the pack propagation method. are excluded from the study subjects. Therefore, there are five neuron groups that are subject to weight learning by the pack propagation method: Gb, Gc, Gd, Ge, and Gf.

一方、各二ニーロングループの入力結線を示す結線グル
ープはCab−ClHの6つであり、学習対象となるニ
ューロングループの前段に位置する入力結線の重み値を
パックプロパゲーション法により学習する。
On the other hand, there are six connection groups, Cab-ClH, representing the input connections of each two-neelon group, and the weight values of the input connections located in the previous stage of the neuron group to be learned are learned by the pack propagation method.

この第5A、5B図に示した構造のルール部ブリワイヤ
ニューロを対象とした第2図の学習動作フローにつき、
まず各部に対する重み値の初期設定を説明すると次のよ
うになる。
Regarding the learning operation flow in Figure 2, which targets the rule section Briwire neuron with the structure shown in Figures 5A and 5B,
First, the initial setting of weight values for each part will be explained as follows.

[前件部メンバシップ関数実現部の初期設定]この前件
部メンバシップ関数実現部10に対する重み値の初期設
定は結線グループCab及びCbcに含まれる各結線の
重みを、与えられたメンバシップ関数を実現するように
初期設定する。
[Initial setting of the antecedent membership function realizing unit] The initial setting of the weight value for the antecedent membership function realizing unit 10 is to set the weight of each connection included in the connection groups Cab and Cbc to the given membership function. Initial settings are made to achieve this.

第6図は第5A図の前件部メンバシップ関数実現部10
における制御人力x1側を取り出して示す。 第6図に
おいて、シグモイド関数ユニット30−1.30−2よ
り出力される出力値yは’! = 1/ (1+ e−
””−”)       (3]で表わされる。
FIG. 6 shows the antecedent membership function realization unit 10 of FIG. 5A.
The control human power x1 side in is extracted and shown. In FIG. 6, the output value y output from the sigmoid function unit 30-1.30-2 is '! = 1/ (1+ e-
""-") (3).

本発明の前件部メンバシップ関数実現部10に対する重
み値の初期設定にあっては、予め持っている知識に基づ
き、例えばシグモイド関数ユニット30−1の入力結線
の重み値Wとして、W=−20 を設定し、且つシグモイド関数ユニット30−1に閾値
θとして、 θ=−10 を設定する。
In the initial setting of the weight value for the antecedent membership function realizing unit 10 of the present invention, based on the knowledge that is held in advance, for example, as the weight value W of the input connection of the sigmoid function unit 30-1, W=- 20 is set, and θ=-10 is set as the threshold value θ in the sigmoid function unit 30-1.

またもう1つのシグモイド関数ユニット3〇−2の入力
結線の重み値Wとして、 W=20 を設定し、同時にシグモイド関数ユニット302に閾値
θとして、 θ=10 を設定する。尚、線形関数ユニッ)32−1. 32−
2の入力結線の重み値は重み初期値=1を設定している
Further, the weight value W of the input connection of the other sigmoid function unit 30-2 is set to W=20, and at the same time, the threshold value θ of the sigmoid function unit 302 is set to θ=10. In addition, linear function unit) 32-1. 32-
The weight value of the input connection No. 2 is set to the initial weight value=1.

このようにシグモイド関数ユニット30−1に、W〈0
   θ〈0 となる重み値及び閾値を初期設定した場合には、第7図
の特性曲線44に示す制御出力X、に対するユニット出
力値x、(SS)、即ち制御人力Xが大きくなるとユニ
ット出力値X、(SS)が小さくなるという関数形状の
メンバシップ関数の真理値算出機能を設定することがで
きる。
In this way, in the sigmoid function unit 30-1, W〈0
When the weight value and threshold value are initially set such that θ<0, the unit output value x, (SS) for the control output X shown in the characteristic curve 44 in FIG. 7, that is, the unit output value It is possible to set a truth value calculation function for a membership function having a function shape such that X and (SS) become small.

またシグモイド関数ユニット30−2に、W〉0 、 
 θ〉0 となる重み値及び閾値を初期設定することで第7図の特
性曲線46に示す制御人力X1に対するユニット出力値
Xl  (LA) 、即ち制御人力Xか大きい程ユニッ
ト出力値X、(LA)が大きくなるという関数形状のメ
ンバシップ関数の真理値を算出する機能が実現できる。
Furthermore, in the sigmoid function unit 30-2, W〉0,
By initially setting the weight value and threshold value such that θ〉0, the unit output value Xl (LA) for the control human power X1 shown in the characteristic curve 46 in FIG. ) can be realized to calculate the truth value of a membership function with a function shape in which the function becomes large.

この第6図に示すシグモイド関数ユニット30−1.3
0−2に対する重み値及び閾値の初期設定は、前件部メ
ンバシップ関数実現部10における残りのシグモイド関
数ユニット30−3.30−4側についても所望の前件
部メンバシップ関数を実現するように予め持っている知
識に基づいて初期設定する。
Sigmoid function unit 30-1.3 shown in FIG.
The initial setting of the weight value and threshold for 0-2 is such that the desired antecedent membership function is also realized for the remaining sigmoid function units 30-3 and 30-4 in the antecedent membership function realization unit 10. Initial settings are made based on prior knowledge.

[ルール部の初期設定] 第5A図のルール部12に対する重み値の初期設定は、
第5B図に示す結線グループCcd及びCdeに属する
各結線の重み値を、与えられたファジィルールを実現す
るように予め持っている知識を導入して初期設定する。
[Initial Setting of Rule Section] The initial setting of the weight value for the rule section 12 in FIG. 5A is as follows.
The weight values of the connections belonging to the connection groups Ccd and Cde shown in FIG. 5B are initialized by introducing knowledge held in advance so as to realize a given fuzzy rule.

第8図はルール部12に対する重み値の初期設定の具体
例をファジィルールと共に示した説明図である。
FIG. 8 is an explanatory diagram showing a specific example of initial setting of weight values for the rule section 12 together with fuzzy rules.

第8図において、8つのシグモイド関数ユニット34−
1〜34−8は、右側に取り出して示すファジィルール
し1〜L8のそれぞれに対応している。シグモイド関数
ユニット34−1〜34−8のそれぞれに対しては前段
に位置する前件部メンバシップ関数実現部10の線形関
数ユニット32−1〜32−4からファジィルールし1
〜L8に従った入力結線が行なわれている。また8つの
シグモイド関数ユニット34−1〜34−8に続いて設
けられた2つの線形関数ユニット36−1゜36−2に
対してもファジィルールし1〜L8の後件部(T HE
 N)に従った結線が行なわれている。
In FIG. 8, eight sigmoid function units 34-
1 to 34-8 correspond to fuzzy rules 1 to L8 shown on the right side, respectively. For each of the sigmoid function units 34-1 to 34-8, fuzzy rules are calculated from the linear function units 32-1 to 32-4 of the antecedent membership function realization section 10 located at the previous stage.
Input connections are made in accordance with ~L8. Furthermore, fuzzy rules are applied to the two linear function units 36-1 and 36-2 provided following the eight sigmoid function units 34-1 to 34-8, and the consequent parts of 1 to L8 (T HE
Connections are made in accordance with N).

ここて第8図のルール部12におけるシグモイド関数ユ
ニット31−1〜34−8の入力結線に初期設定する重
み値とユニット自体に設定する閾値に基づ(ファジィ論
理演算の関数形状を説明すると次のようになる。
Here, based on the weight values initially set to the input connections of the sigmoid function units 31-1 to 34-8 in the rule section 12 of FIG. become that way.

第9図はルール部12の1つのシグモイド関数ユニット
34を示したもので、前段に位置する前件部メンバシッ
プ関数実現部10より真理値X1゜X2が入力し、積和
演算及び閾値処理により出力値yを生ずる。
FIG. 9 shows one sigmoid function unit 34 of the rule section 12, in which truth values produces an output value y.

第9図のシグモイド関数ユニット34より出力される出
力値yは、 5=Wx1・X1+Wxl−X2−θ   (4)y=
1/ (1+e−s)          (5)とし
て算出される。この前記(5)式で与えられるユニット
出力値yは、入力結線の重み値Wア、。
The output value y output from the sigmoid function unit 34 in FIG. 9 is as follows: 5=Wx1・X1+Wxl−X2−θ (4)y=
It is calculated as 1/(1+e-s) (5). The unit output value y given by the above equation (5) is the weight value Wa of the input connection.

Wx7及び閾値θを任意に設定することで適宜の関敵影
状を実現することができる。
By arbitrarily setting Wx7 and the threshold value θ, an appropriate relationship shadow shape can be realized.

具体的には第8図のシグモイド関数ユニット34−1〜
34−8の入力結線に示す数値が重み初期値として設定
され、またシグモイド関数ユニット34−1〜34−8
の下側に示す数値が閾値θを示す。
Specifically, the sigmoid function units 34-1 to 34-1 in FIG.
The numerical value shown in the input connection of 34-8 is set as the initial weight value, and the sigmoid function units 34-1 to 34-8
The numerical value shown below indicates the threshold value θ.

例えばファジィルールL1を実現するシグモイド関数ユ
ニット34−1にあっては、 が設定されており、これら初期値の設定によりファジィ
ルールL1を実現するシグモイド関数ユニッ)34−1
は第10図の三次元座標で示される関数形状の閾値処理
を行なうことになる。
For example, in the sigmoid function unit 34-1 that realizes the fuzzy rule L1, the following is set, and by setting these initial values, the sigmoid function unit 34-1 that realizes the fuzzy rule L1
will perform threshold processing of the function shape shown by the three-dimensional coordinates in FIG.

以下、同様にシグモイド関数ユニット34−2〜34−
8の各ファジィルールし2〜L8に対する重み値及び閾
値の初期設定により第11〜17図に示す関数形状を得
ることができる。
Hereinafter, similarly, sigmoid function units 34-2 to 34-
By initializing the weight values and threshold values for each of the 8 fuzzy rules 2 to L8, the function shapes shown in FIGS. 11 to 17 can be obtained.

尚、第8図の出力段に設けられた線形関数ユニット36
−1.36−2に対する結線の重み値は1に初期設定さ
れており、また閾値処理については線形関数であり、θ
=0が設定される。
Note that the linear function unit 36 provided at the output stage in FIG.
The weight value of the connection for -1.36-2 is initially set to 1, and the threshold processing is a linear function, and θ
=0 is set.

[後件部メンバシップ関数実現部の初期設定]第5A図
の後件部メンバシップ関数実現部14に対する重み値の
初期設定は、第5B図の結線グループCefに属する結
線の重み値を予め持っている知識に基づき、与えられた
メンバシップ関数を実現するように初期設定する。
[Initial Setting of Consequent Part Membership Function Realization Unit] Initial setting of weight values for the consequent part membership function realization unit 14 in FIG. 5A is as follows: Initial setting of weight values for the consequent part membership function realization unit 14 shown in FIG. Initial settings are made to realize the given membership function based on the knowledge of the given membership function.

第18図は後件部メンバシップ関数実現部14に対する
重み値の初期設定を具体的に示した説明図である。
FIG. 18 is an explanatory diagram specifically showing the initial setting of weight values for the consequent membership function realization unit 14.

第18図において、後件部メンバシップ関数実現部14
に設けられた9つの線形関数ユニット38−1〜38−
9に対しては、前段のルール部12の線形関数ユニット
36−1.36−2より図示のように結線入力が行なわ
れている。この9つのユニットは、38−1〜38−9
の順番に制御出力yの練直線上の0〜1の範囲の点に等
間隔に対応している。
In FIG. 18, the consequent membership function realization unit 14
Nine linear function units 38-1 to 38- provided in
9, a connection input is performed from the linear function unit 36-1, 36-2 of the rule section 12 at the previous stage as shown in the figure. These nine units are 38-1 to 38-9
correspond to points in the range of 0 to 1 on the training line of the control output y at equal intervals.

この線形関数ユニット38−1〜38−9に対する入力
結線の重み値の初期設定は、ルール部12のユニット3
6−1からの出力y(SS)の結線の重み値については
、右側に示す横軸を制御出力Y1縦軸をユニット出力値
としたグラフの特性曲線46に従ってユニット38−1
側からユニット38−9側に重み値、 1、 1. 1. Q、75.0.5. Q、25. 
0. 0. 0を初期設定する。
The initial setting of the weight values of the input connections for the linear function units 38-1 to 38-9 is performed by the unit 3 of the rule section 12.
Regarding the weight value of the connection of the output y (SS) from the unit 38-1, the weight value of the connection of the output y (SS) from the unit 38-1 is determined according to the characteristic curve 46 shown on the right side of the graph in which the horizontal axis is the control output Y1 and the vertical axis is the unit output value.
Weight values from the side to the unit 38-9 side, 1, 1. 1. Q, 75.0.5. Q, 25.
0. 0. Initialize 0.

またルール部12のユニット出力y (LA)からの入
力結線の重み値については、特性曲線48に従ってユニ
ット38−1側からユニット38−9側に向けて重み値
、 0、  O,0,0,25,0,5、0,75,1,1
,]。
Further, regarding the weight values of the input connections from the unit output y (LA) of the rule section 12, the weight values are as follows from the unit 38-1 side to the unit 38-9 side according to the characteristic curve 48: 0, O, 0, 0, 25,0,5,0,75,1,1
, ].

を初期設定する。Initialize.

更に線形関数ユニッ)38−1〜38−9の閾値θはθ
=0に設定する。
Furthermore, the threshold value θ of linear function unit) 38-1 to 38-9 is θ
= 0.

このような後件部メンバシップ関数実現部14における
重み値の初期設定により、ルール部12の線形関数ユニ
ット36−1.36−2から出力されたユニット出力値
y(SS)及びy (LA)は、重み初期値の乗算によ
り縮小された後に加算され、次の重心計算実現部18に
出力される。
Due to the initial setting of the weight values in the consequent membership function realization unit 14, the unit output values y (SS) and y (LA) output from the linear function unit 36-1.36-2 of the rule unit 12 are are reduced by multiplication by initial weight values, added, and output to the next center-of-gravity calculation implementation unit 18.

尚、第18図にあっては、ユニット出力を縮小するよう
に1以下の重み値を初期設定しているが、1以上の重み
値を設定して拡大することも有り得る。
In FIG. 18, a weight value of 1 or less is initially set so as to reduce the unit output, but it is also possible to set a weight value of 1 or more to enlarge it.

[重心計算実現部の初期設定] 第5A図の重心計算実現部18に対する重み値の初期設
定は、第5B図の結線グループC1gに対し重心計算を
実現するように初期設定する。
[Initial Setting of Center of Gravity Calculation Implementation Unit] The weight values for the center of gravity calculation implementation unit 18 in FIG. 5A are initialized so as to realize center of gravity calculation for the connection group C1g in FIG. 5B.

第19図は重心計算実現部18の重心決定要素出力装置
40に対して行なわれる重心計算を実現するための重み
値の初期設定の具体例を示す。
FIG. 19 shows a specific example of initial setting of weight values for realizing the center of gravity calculation performed on the center of gravity determining element output device 40 of the center of gravity calculation implementation unit 18.

重心決定要素出力装置40に設けられた2つの線形関数
ユニット40−1.40−2に対しては、前段の後件部
メンバシップ関数実現部14に設けられた9つの線形関
数ユニット38−1〜389のそれぞれが結線される。
For the two linear function units 40-1 and 40-2 provided in the centroid determining element output device 40, the nine linear function units 38-1 provided in the consequent membership function realization unit 14 of the preceding stage ~389 are connected.

そして、この入力結線に対し図示のように重心計算に使
用する2つの重心導出値Y1、Y2を算出するための重
み値が設定される。
Then, as shown in the figure, weight values for calculating two gravity center derived values Y1 and Y2 used in the gravity center calculation are set for this input connection.

ファジィ制御にあっては一般的に次式に従って同一制御
出力位置についての縮小されたメンバシップ関数の関数
和で成る図形の重心を求めることでファジィ推論値であ
る制御出力Yを算出する方法を採用する。
In fuzzy control, a method is generally adopted in which the control output Y, which is a fuzzy inference value, is calculated by finding the center of gravity of a figure consisting of the sum of functions of reduced membership functions for the same control output position according to the following formula: do.

Y= f grade(y)ydy / f grad
e(y)dy    (6)この(6)式を実現するた
め、後件部メンバシップ関数実現部14の線形関数ユニ
ット38−1〜38−9から線形関数ユニット40−1
に対する結線の重み値として、制御出力Yの最小値Y=
0を起点に最大値Y=1まで等間隔をもって0から増加
する重み値を割り付ける。一方、線形関数ユニット40
−2の入力結線に対しては、制御出力Yの最大値Y=1
を起点に最小値Y=0までの間に0から上記と同じ等間
隔をもって、例えば0から−1に減少する重み値を割り
付ける。
Y= f grade(y)ydy/f grade
e(y)dy (6) In order to realize this formula (6), the linear function unit 40-1 is converted from the linear function units 38-1 to 38-9 of the consequent membership function realization unit 14.
As the connection weight value for the connection, the minimum value Y of the control output Y =
Starting from 0, weight values are assigned that increase from 0 at equal intervals up to the maximum value Y=1. On the other hand, the linear function unit 40
-2 input connection, maximum value of control output Y = 1
From 0 to the minimum value Y=0, weight values that decrease from 0 to -1, for example, are assigned at the same equal intervals as above.

このような線形関数ユニット40−1.40−2に対す
る入力結線の重み付けにより、前段の線形関数ユニット
38−1〜38−9のユニット出力値を01〜C9とす
ると、線形関数ユニット40−1は、 Y 1 = I C1+0.875 C2+ 0.75
C3十〇、625 C4+0.5 C,+0.375 
C6+0.25C7+0.125 Cs + OC9(
7)を出力し、また線形関数ユニット40−2は、Y1
=OC+  0.125 C20,25C30、375
Ca  O,5C20,625Cb−0,75Cフ −
0.875C,+IC4(8)を出力する。
By weighting the input connections to the linear function unit 40-1, 40-2, if the unit output values of the preceding stage linear function units 38-1 to 38-9 are 01 to C9, the linear function unit 40-1 becomes , Y 1 = I C1+0.875 C2+ 0.75
C3 〇, 625 C4+0.5 C, +0.375
C6+0.25C7+0.125 Cs+OC9(
7), and the linear function unit 40-2 outputs Y1
=OC+ 0.125 C20,25C30,375
Ca O,5C20,625Cb-0,75C fu -
Outputs 0.875C, +IC4 (8).

線形関数ユニッ)40−1.40−2から出力される重
心導出値Y1、Y2は重心算出装置42に与えられ、 Y=Y2 / (Y2−Yl)       (9)を
使用して重心、即ちファジィ推論値である制御出力Yが
算出される。
The centroid derived values Y1 and Y2 output from the linear function unit) 40-1. A control output Y, which is an inferred value, is calculated.

前記(9)式に前記(7)式及び(8)式を代入すると
、前記(9)式のYは、前記(6)式のYと一致するこ
とがわかる。
By substituting the above equations (7) and (8) into the above equation (9), it can be seen that Y in the above equation (9) matches Y in the above equation (6).

以上の処理で第2図のステップ81〜S4に示したルー
ル部プリワイヤニューロに対する重み値の初期設定が終
了し、ステップS5に進む。
With the above processing, the initial setting of the weight value for the rule section prewire neuron shown in steps 81 to S4 in FIG. 2 is completed, and the process proceeds to step S5.

[学習スケジュールの設定] 第2A図のステップS5にあっては、初期設定の終了に
続いてルール部プリワイヤニューロに重み学習を行なわ
せるための学習計画、即ち学習スケジュールの設定を行
なう。この学習スケジュールは第20図(a)に示すよ
うにフェーズ・グループ対応表の設定と同図(b)に示
すグループ・結線対応表の設定の2つを行なう。
[Setting of learning schedule] In step S5 of FIG. 2A, following the completion of the initial settings, a learning plan, ie, a learning schedule, for causing the rule section pre-wire neuro to perform weight learning is set. This learning schedule involves setting up a phase/group correspondence table as shown in FIG. 20(a) and setting a group/connection correspondence table as shown in FIG. 20(b).

まずフェーズ・グループ対応表は、学習フェーズの進行
に対し、各フェーズで学習対象となるニューロングルー
プを指定する。本発明の第1実施例にあっては、重み値
の初期設定後に前件部メンバシップ関数実現部10とニ
ューロ全体の学習を順番に行なうことから、フェーズ1
の学習対象グループとして前件部メンバシップ関数実現
部1゜に属する第5A図のニューロングループGb、G
Cの2つを設定し、フェーズ2ではニューロ全体の重み
を学習することから第5図のニューロングループGb、
Gc、Gd、Ge、Gfの5つを設定する。
First, the phase-group correspondence table specifies the neuron groups to be learned in each phase as the learning phase progresses. In the first embodiment of the present invention, since the antecedent membership function realization unit 10 and the entire neuron are trained in order after initial setting of the weight values, phase 1
The neuron groups Gb and G in FIG. 5A belonging to the antecedent membership function realization unit 1° are the learning target groups
C, and in phase 2, the weights of the entire neuron are learned, resulting in neuron groups Gb and Gb in Figure 5.
Set five values: Gc, Gd, Ge, and Gf.

一方、グループ・結線対応表はルール部プリワイヤニュ
ーロにおける各二ニーロングループGa〜Ggと、入力
結線グループCab−Cfgの対応関係を第20図(k
)に示すように設定する。
On the other hand, the group/connection correspondence table shows the correspondence between each of the two knee long groups Ga to Gg in the rule section prewire neuron and the input connection groups Cab to Cfg in Figure 20 (k
).

このようなフェーズ−グループ対応表及びグループ・結
線対応表の設定が終了すると第2A図のステップS6に
進んで学習スケジューラを起動し実際にルール部プリワ
イヤニューロに学習データを与えてパックプロパゲーシ
ョン法により重みの学習を実行する。
When the setting of the phase-group correspondence table and the group-connection correspondence table is completed, the process proceeds to step S6 in FIG. 2A, starts the learning scheduler, and actually gives the learning data to the rule section prewire neuro to perform the pack propagation method. Execute weight learning by

[学習スケジューラの処理と構成] 第21図は本発明のルール部プリワイヤニューロの学習
処理フロー図を示す。この処理フロー図は例えば第22
図に示す装置構成により実現することができる まず、学習処理のための装置構成を説明すると、第22
図において、ルール部プリワイヤニューロ100に対し
ては学習指示ユニット50と学習ユニット70が設けら
れる。
[Processing and Configuration of Learning Scheduler] FIG. 21 shows a flowchart of the learning process of the rule section pre-wire neuro of the present invention. This processing flow diagram is, for example, the 22nd
First, the device configuration for learning processing that can be realized by the device configuration shown in the figure will be explained.
In the figure, a learning instruction unit 50 and a learning unit 70 are provided for the rule section pre-wired neuron 100.

学習指示ユニット50は学習スケジューラ52を有し、
学習スケジューラ52に対しては制御入力とその制御入
力に対する望ましい制御出力との対でなる学習信号を格
納した学習信号格納部54、第20図に示したフェーズ
・グループ対応表を格納したフェーズ・グループ対応テ
ープ56、及びグループ・結線対応表を格納したグルー
プ・結線対応テーブル58、更に学習収束判定部60が
設けられる。
The learning instruction unit 50 has a learning scheduler 52,
For the learning scheduler 52, there is a learning signal storage unit 54 that stores learning signals consisting of pairs of control inputs and desired control outputs for the control inputs, and a phase group storage unit 54 that stores the phase group correspondence table shown in FIG. A correspondence tape 56, a group/connection correspondence table 58 storing a group/connection correspondence table, and a learning convergence determination section 60 are provided.

一方、学習ユニット70には学習指示読取部72、学習
フラグ設定部74及びパックプロパゲーション法により
重み値を変更する重み変更部76が設けられる。
On the other hand, the learning unit 70 is provided with a learning instruction reading section 72, a learning flag setting section 74, and a weight changing section 76 that changes weight values using the pack propagation method.

更に、第22図における装置構成の特徴は、ルール部プ
リワイヤニューロ100における各ユニットを結ぶ結線
に学習調整器80が設けられている点である。
Furthermore, a feature of the device configuration in FIG. 22 is that a learning adjuster 80 is provided in the connection connecting each unit in the rule section prewire neuron 100.

学習調整器80は第23図に示す構成を有する。The learning adjuster 80 has the configuration shown in FIG.

尚、学習調整器80と共に重み変更部76を示している
Note that the weight change unit 76 is shown together with the learning adjuster 80.

学習調整器80にはフラグ保存部82、重み変更情報読
取部84及び重み変更量調整部86が設けられる。
The learning adjuster 80 is provided with a flag storage section 82 , a weight change information reading section 84 , and a weight change amount adjustment section 86 .

一方、重み変更部76にはパックプロパゲーション法に
よる重み演算を実行する重み演算部88、重み保存部9
0及び重み変更量保存部92が設けられる。
On the other hand, the weight change unit 76 includes a weight calculation unit 88 that performs weight calculation based on the pack propagation method, and a weight storage unit 9.
0 and a weight change amount storage section 92 are provided.

このように、ルール部プリワイヤニューロ100の結線
毎に学習調整器80を設けることで、学習指示ユニット
50の学習スケジューラ52によりルール部プリワイヤ
ニューロ100に対し結線の重み値を変更するか否かを
決定する学習フラグを設定することができ、学習フラグ
が有効、即ちフラグオンとなっている結線に対してのみ
重みの学習を行なうことが可能となる。
In this way, by providing the learning adjuster 80 for each connection of the rule section pre-wire neuro 100, it is possible to determine whether or not the learning scheduler 52 of the learning instruction unit 50 changes the weight value of the connection for the rule section pre-wire neuro 100. It is possible to set a learning flag that determines the weight, and it is possible to perform weight learning only for connections for which the learning flag is valid, that is, the flag is turned on.

また、学習調整器80に対するフラグセットは、第2図
に示したようなファジィルールを実現可能なネットワー
ク構造をもたない一般的な階層ネットワークに対し、フ
ァジィルールを実行可能な前件部メンバシップ関数実現
部、ルール部及び後件部メンバシップ関数実現部で成る
階層ネットワーク構造を特定する際にも使用される。
Furthermore, the flag set for the learning coordinator 80 sets the antecedent membership that can execute fuzzy rules for a general hierarchical network that does not have a network structure that can implement fuzzy rules as shown in FIG. It is also used when specifying a hierarchical network structure consisting of a function realization section, a rule section, and a consequent membership function realization section.

ファジィルールに適合した階層ネットワークを構成した
状態でパックプロパゲーション方により実際に学習させ
る際の重み値の調整は次のように行なわれる。
When a hierarchical network conforming to fuzzy rules is configured, the weight values are adjusted as follows when actually learning is performed by the pack propagation method.

第23図において、学習調整器80の重み変更情報読取
部84が重み変更部76の重み変更量保存部92に対し
重み演算部88より重みの変更量が書き込まれているか
否かを監視している。重み変更情報読取部84で重みの
変更があったことを検知すると、その旨を重み変更量調
整部86に伝える。重み変更量調整部86はフラグ保存
部82の学習フラグを調べ、学習フラグがオンであれば
何もしない。即ち、重み変更量保存部92への書込みを
有効とする。一方、学習フラグがオフであれば、重み変
更量調整部86は重み変更部76の重み変更量保存部9
2にゼロを設定し、重み変更を無効とする。この学習ス
ケジューラのハードウェアは特願昭63−227825
号の「ネットワーク構成データ処理装置の学習方式」に
示される。
In FIG. 23, the weight change information reading unit 84 of the learning adjuster 80 monitors whether the weight change amount has been written by the weight calculation unit 88 to the weight change amount storage unit 92 of the weight change unit 76. There is. When the weight change information reading unit 84 detects that the weight has changed, it notifies the weight change amount adjustment unit 86 of the fact. The weight change amount adjustment unit 86 checks the learning flag in the flag storage unit 82, and does nothing if the learning flag is on. That is, writing to the weight change amount storage section 92 is made valid. On the other hand, if the learning flag is off, the weight change amount adjustment section 86 changes the weight change amount storage section 9 of the weight change section 76.
2 is set to zero to disable the weight change. The hardware of this learning scheduler is disclosed in Japanese Patent Application No. 63-227825.
``Learning method for network configuration data processing device'' in the issue.

[学習スケジューラの処理内容コ 次に第21図の学習処理フローを参照して第22.23
図の装置構成に従った本発明の第1実施例におけるルー
ル部プリワイヤニューロの学習処理をフェーズ1とフェ
ーズ・2に分けて説明する。
[Processing details of the learning scheduler] Next, refer to the learning process flow in Figure 21 and see Section 22.23.
The learning process of the rule section pre-wired neuron in the first embodiment of the present invention according to the device configuration shown in the figure will be explained by dividing it into phase 1 and phase 2.

■フェーズ1 まず学習指示ユニット50の学習スケジューラが起動さ
れると、ステップSl(以下、「ステップ」は省略)で
学習フェーズの進行を示すフェーズカウンタiをi=l
にセットしてS2に進み、フェーズ・グループ対応テー
ブル56を参照して学習フェーズi=1に対応するニュ
ーロングル−プ番号Gb、Gcを読出す。
■Phase 1 First, when the learning scheduler of the learning instruction unit 50 is started, in step Sl (hereinafter, "step" is omitted), the phase counter i indicating the progress of the learning phase is set as i=l.
, and the process proceeds to S2, where the neuron group numbers Gb and Gc corresponding to the learning phase i=1 are read out with reference to the phase/group correspondence table 56.

続いてS3に進んでニューロングループ番号Gb、Gc
に対応した結線グループ番号Cab、  Cbcをグル
ープ・結線対応テーブル58を参照して読出す。続いて
S4に進み結線グループ番号C11b。
Next, proceed to S3 and enter neuron group numbers Gb and Gc.
The connection group numbers Cab and Cbc corresponding to the group and connection correspondence table 58 are read out. Next, the process advances to S4 and the connection group number C11b is entered.

Cbcを出力して結線グループ番号Cab、  Cbc
に属する結線に設けられた学習調整器80の学習フラグ
をオンする。
Output Cbc and connect group number Cab, Cbc
The learning flag of the learning adjuster 80 provided in the connection belonging to the connection is turned on.

具体的には学習指示ユニット50の学習スケジューラ5
2から学習ユニット70の学習指示読取部72に結線グ
ループ番号Cab、  Cbcを出力して読み取らせる
。学習指示読取部72からの読取結果を受けた学習フラ
グ設定部74は結線グループ番号Cab、  Cbcに
属する結線に設けられている学習調整器80のフラグ保
存部82に対しフラグオンを指令して学習フラグをセッ
トする。
Specifically, the learning scheduler 5 of the learning instruction unit 50
2, the connection group numbers Cab and Cbc are output to the learning instruction reading section 72 of the learning unit 70 and read. The learning flag setting unit 74 that receives the read result from the learning instruction reading unit 72 instructs the flag storage unit 82 of the learning adjuster 80 provided in the connections belonging to the connection group numbers Cab and Cbc to turn on the flag, and sets the learning flag. Set.

続いてS5に進んで学習スケジューラ52は学習実行指
令を出して学習処理を開始させる。この学習処理は学習
信号格納部54に準備されている制御人力Xと制御人力
Xに対する望ましい制御出力となる教師信号dを読み出
し、制御入力をルール部プリワイヤニューロ100に与
え、教師信号は重み変更部76及び学習収束判定部60
に与える。そして学習入力を受けたルール部プリワイヤ
ニューロ100からの制御出力Yを重み変更部76及び
学習収束判定部60に取り込み、重み変更部76にあっ
てはパックプロパゲーション法に従って重み値の変更を
行ない、学習収束判定部60は教師信号dに対する制御
出力Yの誤差が規定値以下となったとき、フェーズ1の
学習終了を判定する。
Next, the process proceeds to S5, where the learning scheduler 52 issues a learning execution command to start the learning process. In this learning process, the control human power X prepared in the learning signal storage section 54 and the teacher signal d that is a desired control output for the control human power X are read out, the control input is given to the rule section prewire neuro 100, and the teacher signal is weighted. unit 76 and learning convergence determination unit 60
give to Then, the control output Y from the rule unit prewire neuron 100 that receives the learning input is taken into the weight change unit 76 and the learning convergence determination unit 60, and the weight change unit 76 changes the weight value according to the pack propagation method. The learning convergence determination unit 60 determines the end of phase 1 learning when the error of the control output Y with respect to the teacher signal d becomes equal to or less than a specified value.

S5の学習実行指令に基づくフェーズ1の学習処理が終
了すると、S6でフェーズカウンタiを1つインクリメ
ントし、S7で学習フェーズの終りをチエツクする。本
発明の学習処理にあっては、フェーズ2で終了すること
から再びS2に戻って次のフェーズ2の学習処理に入る
When the phase 1 learning process based on the learning execution command in S5 is completed, the phase counter i is incremented by one in S6, and the end of the learning phase is checked in S7. In the learning process of the present invention, since it ends at phase 2, the process returns to S2 and enters the next phase 2 learning process.

■フェーズ2 フェーズ2の学習処理にあっては、まずS2でフェーズ
・グループ対応テーブル56を参照してニューロングル
ープ番号cb〜Cfの5つを読出す。次に83でグルー
プ・結線対応テーブル58を参照してニューロングルー
プGb−Gfに対応する結線グループ番号Cab−Ce
fを読出し、ステップS4で結線グループ番号Cab−
Cefを出力して結線に設けられた学習フラグをセット
する。
(2) Phase 2 In the phase 2 learning process, first in S2, the phase/group correspondence table 56 is referred to and five neuron group numbers cb to Cf are read out. Next, in step 83, the group/connection correspondence table 58 is referred to and the connection group number Cab-Ce corresponding to the neuron group Gb-Gf is determined.
f is read and the connection group number Cab- is read in step S4.
Cef is output and the learning flag provided in the connection is set.

続いて学習信号を与えることでフェーズ2の重み学習を
パックプロパゲーション法により実行し、これによりニ
ューロ全体の重み学習が終了すると、S6でフェーズカ
ウンタiを1つインクリメントし、S7で学習フェーズ
の終りをチエツクして一連の処理を終了する。
Next, weight learning in phase 2 is performed by the pack propagation method by giving a learning signal, and when weight learning for the entire neuron is completed, the phase counter i is incremented by 1 in S6, and the learning phase ends in S7. Check and complete the series of processing.

[パックプロパゲーション法による学習原理1次に本発
明のパックプロパゲーション法による重み学習原理を階
層型ネットワークと共に説明する。
[Principle of learning by pack propagation method 1 Next, the principle of weight learning by the pack propagation method of the present invention will be explained together with the hierarchical network.

第24図は一般的な階層型ニューラルネットワークを示
したもので、ユニットと呼ばれる一種のノードと重みを
もつ内部結合とから構成される。
FIG. 24 shows a general hierarchical neural network, which is composed of a type of node called a unit and internal connections with weights.

第24図では入力装置としてのh層、中間層としてのi
層、出力層としてのj層を示している。勿論、中間層と
してのi層は1層であるが、複数の中間層があっても同
じである。各ユニットは第4図に示した構成をもち、ユ
ニットで行なわれる演算は基本ユニット20について示
した前記(1)(2)式となる。パックプロパゲーショ
ン法では階層ネットワークの重み値Wihと閾値θiと
を誤差のフィードバックにより適応的に自動調整して学
習する。前記(1)(2)式から明らかなように、重み
値Wihと閾値θiとの調節は同時に実行される必要が
あるが、この作業は相互に干渉する難しい作業となる。
In Figure 24, the h layer is the input device, and the i layer is the intermediate layer.
layer, and the j layer as the output layer. Of course, there is only one i-layer as the intermediate layer, but the same is true even if there are a plurality of intermediate layers. Each unit has the configuration shown in FIG. 4, and the calculations performed in the unit are as shown in equations (1) and (2) above for the basic unit 20. In the pack propagation method, the weight value Wih and threshold value θi of the hierarchical network are adaptively and automatically adjusted and learned using error feedback. As is clear from equations (1) and (2) above, it is necessary to adjust the weight value Wih and the threshold value θi at the same time, but this work is a difficult work that interferes with each other.

そこで、本願出願人にあっては通常のユニット以外に、
入力側のh層に常に出力値が1であるユニットを設け、
この出力値1のユニットからの入力結線に対し閾値θi
を重み値として割り付けることで、閾値θiを重み値W
 i hの中に組み込んで閾値θiを重み値として扱う
ことができるパックプロパゲーション法を提案している
(特願昭62−333484号)。
Therefore, in addition to the normal unit, the applicant of this application has
A unit whose output value is always 1 is provided in the h layer on the input side,
Threshold value θi for input connection from this unit with output value 1
By assigning as a weight value, the threshold θi becomes the weight value W
A pack propagation method has been proposed in which the threshold value θi can be treated as a weight value by incorporating it into i h (Japanese Patent Application No. 62-333484).

このようにすることで、前記(1)(2)式はx p、
=ΣythW1h           (II)71
、= 1/ (1+cxp(−X1、) )     
(12)で表わされることとなり、閾値θiは表われて
こない。
By doing this, the above equations (1) and (2) become x p,
=ΣythW1h (II)71
, = 1/ (1+cxp(-X1,) )
(12), and the threshold value θi does not appear.

前記(11)(12)式からの展開によって次の(13
)(14)式が得られる。
By expanding from equations (11) and (12) above, we get the following (13)
) (14) is obtained.

Xp+=写3’p+W1+           (1
3)71、= 1/ (1+exp(xp+) )  
  (14)但し、 j :j層のユニット番号 Wl、:i−j層間の内部結合の重み値X1、+を層の
各ユニットからj層の1番ユニットへの入力の積和 y1、=p番目パターンの入力信号に対するj層の1番
ユニットからの出力 第22図の重み変更部76では学習用の入カバターンX
が提示されたときに出力層jから出力される出カバター
ンy、Iと出カバターンVatのとるべき信号である教
師パターンaplを受けると、両者の差分値 (apt−y、υ を算出し、次に δp+=Vp+ (I  Vp+) を算出する。続いて、 (d pi  y t+)    (15)(I6) 但し、ε:学習定数 ζ:モーメンタム t:学習回数 に従ってi層とj層間の重み値の更新量ΔW。
Xp+=Photo3'p+W1+ (1
3) 71, = 1/ (1+exp(xp+))
(14) However, j : unit number Wl of layer j, : weight value X1 of the internal connection between i-j layers, + is the product sum y1 of inputs from each unit of the layer to the 1st unit of layer j, = p Output from the first unit of the j layer for the input signal of the th pattern The weight change unit 76 in FIG.
When receiving the teacher pattern apl, which is the signal that should be taken by the output cover turns y and I output from the output layer j and the output cover turn Vat when Calculate δp+=Vp+ (I Vp+). Then, (d pi y t+) (15) (I6) where ε: Learning constant ζ: Momentum t: The weight value between the i layer and the j layer according to the number of learning times. Update amount ΔW.

(1)を算出する。ここで、前記(16)式右辺第2項
で前回の更新サイクル時に決定された重み値の更新量に
かかるものを加算するのは、学習の高速化を図るためで
ある。
Calculate (1). Here, the reason for adding the weight value update amount determined in the previous update cycle in the second term on the right side of equation (16) is to speed up learning.

続いて、重み値変更部76は前記(15)式で算出した
Δδ、lを用いて δ1、= y pl (I  V pi)Σδp +W
 + + (+−1)   (17)を算出し、次に に従ってh層とi層の重み値の更新量Δw1h(+)を
算出する。
Subsequently, the weight value changing unit 76 uses Δδ,l calculated by the above equation (15) to calculate δ1,=y pl (I V pi)Σδp +W
+ + (+-1) (17) is calculated, and then the update amount Δw1h(+) of the weight values of the h layer and the i layer is calculated.

続いて重み変更部76は前記(16)式及び(18)式
で算出した更新量に従って次の更新サイクルのための重
み値を として決定する。以上の重み値の更新を学習用の入カバ
ターンに対する出カバターンVp+が教師パターンap
lに一致する重み値が得られるように学習処理を繰り返
す。
Subsequently, the weight change unit 76 determines the weight value for the next update cycle according to the update amounts calculated by the equations (16) and (18). To update the above weight values, the output pattern Vp+ for the input pattern pattern for learning is the teacher pattern ap.
The learning process is repeated so that a weight value matching l is obtained.

一方、第24図の階層ネットワークを構成するユニット
が線形関数ユニットであった場合には、前記(14)式
は ’J pi =  X jl            
                (20)と表わされ
る。この線形関数ユニットにおける前記(15)式及び
(17)式は δ−+= a pl  ”j pi         
  (21)δ、1=ΣδplWII (t   1 
)        (22)と現わされる。
On the other hand, when the units constituting the hierarchical network in FIG. 24 are linear function units, the above equation (14) becomes 'J pi = X jl
(20). The above equations (15) and (17) in this linear function unit are δ−+= a pl ”j pi
(21) δ, 1=ΣδplWII (t 1
) (22).

[第1実施例の重み学習処理] 第25図は第5A図に示した本発明のルール部プリワイ
ヤニューロに対しパックプロパゲーション法により行な
う重み学習の処理フロー図である。
[Weight Learning Process of First Embodiment] FIG. 25 is a process flow diagram of weight learning performed by the pack propagation method for the rule section pre-wired neuron of the present invention shown in FIG. 5A.

この学習処理フローにおける各部のパラメータは第26
図に示すように定めている。
The parameters of each part in this learning process flow are the 26th
It is defined as shown in the figure.

第26図は第5A図のルール部プリワイヤニューロの階
層構造を概略的に示したもので、図示のように第1層か
ら第6層までの6層構造をもっており、第1層及び第3
層がシグモイド関数ユニットで構成され、残りは線形関
数ユニットで構成されている。またパックプロパゲーシ
ョン法による重みの学習対象となるのは第1層から第5
層までであり、最終段の重心計算実現部18の第6層は
重み学習の対象から除外される。
FIG. 26 schematically shows the hierarchical structure of the rule section pre-wire neuron in FIG. 5A. As shown, it has a six-layer structure from the first layer to the sixth layer.
The layer is made up of sigmoid function units, and the rest are made up of linear function units. Also, the weights to be learned using the pack propagation method are from the first layer to the fifth layer.
The sixth layer of the center of gravity calculation implementation unit 18 at the final stage is excluded from the weight learning target.

ここでルール部プリワイヤニューロによるファジィルー
ルの実現で出力されるファジィ推論値、即ち制御出力値
をy6としており、1つのフェーズにおける学習処理は
第6層から第5層、第4層、第3層、第2層、第1層と
いうように順次行なう。
Here, the fuzzy inference value output by the realization of the fuzzy rule by the pre-wired neuron in the rule section, that is, the control output value, is y6, and the learning process in one phase is performed from the 6th layer to the 5th layer, the 4th layer, and the 3rd layer. Layer, second layer, first layer, and so on.

この階層毎の学習の進行はiカウンタで示される。The progress of learning for each layer is indicated by an i counter.

即ち、初期状態でiカウンタはi=6にセットされてい
る。
That is, the i counter is set to i=6 in the initial state.

更に説明を簡単にするため、Wl、l−1とΔWWlは
マトリックスを示し、その大きさ(i層目のニューロン
数) X (i−1層目のニューロン数)となる。更に
また、δiとyiはベクトルを示し、大きさはi番目の
層のニューロン数と同じになる。
To further simplify the explanation, Wl, l-1 and ΔWWl represent a matrix whose size is (number of neurons in the i-th layer) x (number of neurons in the i-1th layer). Furthermore, δi and yi represent vectors whose size is the same as the number of neurons in the i-th layer.

この第26図に示す各部のパラメータを前提に第25図
において本発明の第1実施例による重み学習処理を説明
すると次のようになる。
The weight learning process according to the first embodiment of the present invention will be explained in FIG. 25 based on the parameters of each part shown in FIG. 26 as follows.

本発明の第1実施例にあってはフェーズ1で前件部メン
バシップ関数実現部10に属する第1層及び第2層の重
みを学習し、次の第27エーズでニューロ全体、即ち第
1層〜第5層の全ての重みを学習する。
In the first embodiment of the present invention, the weights of the first layer and the second layer belonging to the antecedent membership function realization unit 10 are learned in phase 1, and the weights of the entire neuron, that is, the first All weights of layers 5 to 5 are learned.

まずフェーズ1の学習処理は、Slで学習対象層を設定
するカウンタiをi=6に初期設定する。
First, in the phase 1 learning process, a counter i for setting a learning target layer is initially set to i=6 in Sl.

この初期設定により第6層目のユニットが学習対象とし
て指定される。
With this initial setting, the unit in the sixth layer is designated as a learning target.

次に82に進みシグモイド関数ユニットか否か判定し第
6層は線形関数ユニットであることから814に進む。
Next, the process proceeds to 82 to determine whether or not it is a sigmoid function unit, and since the sixth layer is a linear function unit, the process proceeds to 814.

S14では最終段の階層か否か判定し、第6層目は最終
段であることから315に進み、その時得られている教
師信号dと制御出力yを使用して前記(21)式と同様
な式に従って差分値δ6を求める。
In S14, it is determined whether or not the layer is the final stage, and since the sixth layer is the final stage, the process proceeds to 315, and uses the teacher signal d and control output y obtained at that time to perform the same process as in equation (21) above. The difference value δ6 is determined according to the following formula.

次に86に進んで重みを学習するユニットか否か判定す
る。この時、第6層は学習対象から除外されているため
、具体的には結線に設けられた学習調整器80の学習フ
ラグがオフとなっているため、S8に進んで重み更新量
ΔW65=0としてS9に進み重み値W65の更新は行
なわない。続いてS12に進んでカウンタiがフェーズ
1の学習処理最終層を示すE=1に達したか否か判定し
、この時、i=6であることから813に進んでカウン
タiを1つデクリメントしてi=5としてS2に戻って
次の第5層の学習に入る。
Next, the process proceeds to 86, where it is determined whether the unit is to learn weights. At this time, since the sixth layer is excluded from the learning target, specifically, the learning flag of the learning adjuster 80 provided in the connection is off, so the process proceeds to S8 and the weight update amount ΔW65=0 As a result, the process advances to S9 and the weight value W65 is not updated. Next, the process proceeds to S12, and it is determined whether the counter i has reached E=1, which indicates the final layer of the learning process in phase 1. At this time, since i=6, the process proceeds to 813, and the counter i is decremented by one. Then, the process returns to S2 with i=5 and starts learning the next fifth layer.

第5層についても線形関数ユニットであることから82
から314に進むが、最終段の階層でないことからS1
6に進み、前記(22)式と同様な式に従って差分値δ
、を算出する。次に86に進んで学習対象となっている
か否か判定し、フェーズ1において第5層は学習対象か
ら除外されているため、S8で重み更新量ΔW、4=0
としてS9の重み値W、4の更新を無効とする。以下同
様に第5層の最終ユニットまで処理を繰り返し、第5層
の処理が終了すると第4層に進む。
Since the fifth layer is also a linear function unit, 82
Proceeds to 314, but since it is not the final layer, S1
Proceed to step 6, and calculate the difference value δ according to a formula similar to formula (22) above.
, is calculated. Next, the process proceeds to 86 to determine whether or not it is a learning target, and since the fifth layer was excluded from the learning target in phase 1, the weight update amount ΔW, 4=0
As such, the update of the weight value W, 4 in S9 is invalidated. The process is repeated in the same manner up to the final unit of the fifth layer, and when the process of the fifth layer is completed, the process proceeds to the fourth layer.

第4層も線形関数ユニットであり、且つフェーズ1では
学習対象から除外されているため第5層と同じ処理を繰
り返す。更に第3層の処理に進むと第3層はシグモイド
関数ユニットであることから82からS3に進み、最終
段ではないことから85でシグモイド関数ユニット固有
の差分値6つを前記(17)式と同様の式に従って求め
る。第3層も学習対象となっていないことから86から
88に進んで重み値更新量ΔW3□=0としてS9の重
み値W3□の更新を無効化する。
The fourth layer is also a linear function unit and is excluded from the learning target in phase 1, so the same process as the fifth layer is repeated. Further, processing of the third layer proceeds from 82 to S3 since the third layer is a sigmoid function unit, and since it is not the final stage, six difference values unique to the sigmoid function unit are calculated using the above equation (17) at 85. Calculate according to the same formula. Since the third layer is also not a learning target, the process proceeds from 86 to 88 and sets the weight value update amount ΔW3□=0 to invalidate the update of the weight value W3□ in S9.

第3層の処理が終了すると第2層の処理に進み、第2層
は線形関数ユニットであることから82から314を経
由してS16で差分値δ2を求め、第2層は前件部メン
バシップ関数実現部10に属してフェーズ1の学習対象
となっていることからS6から87に進んで前記(16
) (18)式と同様な式に従って重み値更新量ΔW2
.を算出し、S19で前記(19)式と同様な式に従っ
て重み値W2.を更新する。以下同様に第2層の最終ユ
ニットまで処理を繰り返し第1層の処理に移る。
When the third layer processing is completed, the process proceeds to the second layer, and since the second layer is a linear function unit, the difference value δ2 is obtained in S16 via 82 to 314, and the second layer is antecedent part member. Since it belongs to the ship function realization unit 10 and is the learning target of phase 1, the process proceeds from S6 to 87 and the above (16
) Weight value update amount ΔW2 according to a formula similar to formula (18)
.. is calculated, and in step S19, the weight value W2. Update. Thereafter, the process is repeated in the same manner up to the final unit of the second layer, and the process moves on to the first layer.

第1層はシグモイド関数ユニットで且つ最終段階層でな
いことから82より83を経由してS5に進み、差分値
δ1を算出した後、S6から87に進んで重み値更新量
ΔW1oを求め、S9で重み値W1oを更新する。以下
、第1層目の最終ユニットまで同様の処理を繰り返し、
第1層目の最終ユニットの処理を終了すると810から
312に進み、この時iカウンタはフェーズ1の最終階
層E;1に一致していることから、フェーズ1の学習処
理の終了を判定して一連の処理を終了する。
Since the first layer is a sigmoid function unit and is not the final stage layer, the process proceeds from 82 to S5 via 83, and after calculating the difference value δ1, the process proceeds from S6 to 87 to calculate the weight value update amount ΔW1o, and in S9 Update the weight value W1o. The same process is repeated until the final unit of the first layer.
When the processing of the final unit of the first layer is completed, the process proceeds from 810 to 312, and since the i counter at this time matches the final layer E;1 of phase 1, it is determined that the learning process of phase 1 has ended. Finish the series of processing.

次にニューロ全体の重みを学習するフェーズ2にあって
は、第6層の処理は差分値δ6を算出するだけで重み値
W6.の更新は行なわれないが、第5層の処理に進むと
重み値ΔW54の算出が有効に行なわれて重み値W、4
の更新が行なわれる。以下同様に残りの第4層、第3層
、第2層、第1層の順番に順次重みの学習処理を実行し
、第1層目の最終ユニットの処理と終了を判別すると一
連の学習処理を終了する。
Next, in phase 2 in which the weights of the entire neuron are learned, the processing in the sixth layer only calculates the difference value δ6, and the weight value W6. is not updated, but when proceeding to the fifth layer processing, the weight value ΔW54 is effectively calculated and the weight value W,4
will be updated. Similarly, weight learning processing is performed in the order of the remaining 4th layer, 3rd layer, 2nd layer, and 1st layer, and when it is determined whether the final unit of the 1st layer has been processed or terminated, a series of learning processing is performed. end.

[第2実施例の学習処理] 本発明の第2実施例の重み学習は第2B図のステップS
6に示すように、 ■ルール部12 ■ニューロ全体 として行なう。この重み学習の順番に対応してステップ
S2に示すように、ルール部12に対する重み値の初期
設定は、予め持っている知識の導入に基づいた重み値の
初期設定または乱数を用いたランダムな重み値の初期設
定、更には両者を併用した重み値の初期設定を行なう。
[Learning process of second embodiment] Weight learning of the second embodiment of the present invention is performed in step S in FIG. 2B.
As shown in 6, ①Rule part 12 ②The neuron as a whole is performed. As shown in step S2 corresponding to the order of weight learning, the initial setting of the weight values for the rule unit 12 is the initial setting of the weight values based on the introduction of knowledge held in advance or the random weight values using random numbers. Initial setting of values and further initial setting of weight values using both are performed.

これに対し2回目以降のフェーズ2で重み学習を行なう
前件部メンバシップ関数実現部10及び後件部メンバシ
ップ関数実現部14については、ステップSL、S3に
示すように予め持っている知識を導入した重み値の初期
設定のみを行なっている。
On the other hand, the antecedent membership function realization unit 10 and the consequent membership function realization unit 14 that perform weight learning in Phase 2 from the second time onwards use the knowledge they have in advance as shown in steps SL and S3. Only the initial setting of the introduced weight values is performed.

また、ステップS5のフェーズ・グループ対応表の設定
は、第20図(b)に示すようにフェーズ1でルール部
12に属するニューロングループ番号Gd、Geを設定
し、フェーズ2でニューロ全体のグループ番号Gb−G
fの5つを設定している。
Furthermore, in the setting of the phase-group correspondence table in step S5, as shown in FIG. Gb-G
Five f are set.

この第2実施例の重み学習にあっては、ルール部12の
重みを学習した後にルール部プリワイヤニューロ全体を
学習させることにより、ルール部の重み学習の結果に合
わせたルール部プリワイヤニューロ全体の重みの再調節
を行なうことができる。
In the weight learning of this second embodiment, by learning the entire rule section pre-wire neuron after learning the weight of the rule section 12, the entire rule section pre-wire neuron is adjusted to match the result of the weight learning of the rule section. The weights can be readjusted.

[第3実施例の学習処理] 本発明の第3実施例は第2C図のステップS6に示すよ
うに、 ■ルール部12 ■前件部メンバシップ関数実現部10 ■ニューロ全体 となる順番で重みを学習する。この重みの学習の順番に
対応して最初に重みを学習するルール部12については
、ステップS2に示すように予め持っている知識の導入
に基づいた重み値の初期設定または乱数を用いたランダ
ムな重み値の初期設定更には両者を併用した重み値の初
期設定を行なう。
[Learning Process of Third Embodiment] In the third embodiment of the present invention, as shown in step S6 in FIG. Learn. The rule section 12 that learns the weights first in accordance with the order of learning the weights is configured to initialize the weight values based on the introduction of pre-existing knowledge or to perform random settings using random numbers, as shown in step S2. Initial setting of weight values and initial setting of weight values using both are performed.

これに対し2回目以降に重みを学習する前件部メンバシ
ップ関数実現部10及び後件部メンバシップ関数実現部
14についてはステップSL、  S3に示すように、
予め持っている知識の導入に基づいた重み値の初期設定
のみを行なう。
On the other hand, for the antecedent membership function realization unit 10 and the consequent membership function realization unit 14 that learn the weights from the second time onwards, as shown in steps SL and S3,
Only the initial setting of weight values is performed based on the introduction of knowledge held in advance.

また、ステップS5のフェーズ・グループ対応表の設定
は、第20図(c)に示すようにフェーズ1でルール部
12に属するニューロングループ番号Gd、Geを設定
し、フェーズ2で前件部メンバシップ関数実現部10に
属するニューロングループ番号Gb、Gcを設定し、更
にフェーズ3でニューロ全体としてのグループ番号Gb
−Gfの5つの設定を行なう。
In addition, in the setting of the phase-group correspondence table in step S5, as shown in FIG. The neuron group numbers Gb and Gc belonging to the function realization unit 10 are set, and in phase 3, the group number Gb for the entire neuron is set.
- Perform five settings for Gf.

この本発明の第3実施例によれば、ルール部12と前件
部メンバシップ関数実現部10の重みを学習した後にル
ール部プリワイヤニューロ全体を学習させることにより
、ルール部12及び前件部メンバシップ関数実現部10
の重みの学習結果に合わせたルール部プリワイヤニュー
ロ全体の重みの再調整を行なうことができる。
According to the third embodiment of the present invention, after learning the weights of the rule section 12 and the antecedent section membership function realization section 10, the entire rule section prewire neuron is trained. Membership function realization unit 10
It is possible to readjust the weights of the entire rule section pre-wire neuron according to the learning results of the weights.

[第4実施例の学習処理コ 本発明の第4実施例にあっては、第2D図のステップS
6に示すように、 ■前件部メンバシップ関数実現部10 ■ルール部12 ■ニューロ全体 となる順番で重みを学習する。この重み学習の順番に対
応して、最初に重みを学習する前件部メンバシップ関数
実現部10については、ステップS1に示すように予め
持っている知識の導入に基づいた重み値の初期設定また
は乱数を用いたランダムな重み値の初期設定、更には両
者を併用した重み値の初期設定を行なう。これに対し2
回目以降に重みを学習するルール部12及び後件部メン
バシップ関数実現部14についてはステップS2に示す
ように、予め持っている知識の導入に基づいた重み値の
初期設定のみを行なう。
[Learning Process of Fourth Embodiment] In the fourth embodiment of the present invention, step S in FIG.
As shown in 6, the weights are learned in the following order: (1) Antecedent membership function realization unit 10 (2) Rule unit 12 (2) Weights are learned in the order of the entire neuron. Corresponding to the order of weight learning, the antecedent membership function realizing unit 10 that learns the weights first sets the weight values based on the introduction of pre-existing knowledge as shown in step S1, or Initial setting of random weight values using random numbers and further initial setting of weight values using both are performed. On the other hand, 2
For the rule section 12 and the consequent membership function realization section 14 that learn the weights from the time onwards, only the initial setting of the weight values is performed based on the introduction of knowledge held in advance, as shown in step S2.

また、ステップS5のフェーズ・グループ対応表の設定
は第20図(d)に示すようにフェーズ1で前件部メン
バシップ関数実現部10に属するニューロングループ番
号Gb、Gcを設定し、フェーズ2でルール部12に属
するニューロングループ番号Gd、Geを設定し、更に
フェーズ3でニューロ全体としてのニューロングループ
番号Gb−Gfの5つを設定している。
In addition, the setting of the phase-group correspondence table in step S5 is as shown in FIG. Neuron group numbers Gd and Ge belonging to the rule section 12 are set, and further, in phase 3, five neuron group numbers Gb to Gf for the entire neuron are set.

この本発明の第4実施例によれば、前件部メンバシップ
関数実現部10とルール部12の重みを学習した後にル
ール部プリワイヤニューロ全体を学習させることにより
、前件部メンバシップ関数実現部10とルール部12の
重みの学習結果に合わせたルール部プリワイヤニューロ
全体の重みの再調整を行なうことができる。
According to the fourth embodiment of the present invention, after learning the weights of the antecedent membership function realizing unit 10 and the rule unit 12, the entire rule unit prewire neuron is trained, thereby realizing the antecedent membership function. The weights of the entire rule section pre-wire neuron can be readjusted in accordance with the learning results of the weights of the rule section 10 and the rule section 12.

[第5実施例の学習処理コ 本発明の第5実施例にあっては、第2E図のステップS
6に示すように、 ■前件部メンバシップ関数実現部1oとルール部■ニュ
ーロ全体 となる順番で重みを学習する。この学習の順番に対応し
て最初に前件部メンバシップ関数実現部10とルール部
12の重みを同時に調整することがら、ステップSl、
S2に示すように前件部メシバシップ関数実現部10と
ルール部12については予め持っている知識の導入に基
づいた重み値の初期設定または乱数を用いたランダムな
重み値の初期設定、更には両者を併用した重み値の初期
設定を行なう。これに対し2回目の重み学習となる後件
部メシバシップ関数実現部14については、S3に示す
ように、予め持っている知識の導入に基づいた重み値の
初期設定のみを行なう。
[Learning Process of Fifth Embodiment] In the fifth embodiment of the present invention, step S in FIG.
As shown in 6, the weights are learned in the following order: (1) the membership function realization part 1o of the antecedent part, and (2) the whole neuron. Corresponding to the order of this learning, the weights of the antecedent membership function realization unit 10 and the rule unit 12 are simultaneously adjusted;
As shown in S2, for the antecedent meshibaship function realization unit 10 and the rule unit 12, the initial setting of weight values based on the introduction of prior knowledge or the initial setting of random weight values using random numbers, or both. Initialize the weight values using . On the other hand, for the consequent messibaship function realizing unit 14 that performs the second weight learning, as shown in S3, only the initial setting of the weight values is performed based on the introduction of knowledge that it has in advance.

また、ステップS5のフェーズ・グループ対応表の設定
は第20図(e)に示すように、フェーズ1で前件部メ
ンバシップ関数実現部10及びルール部12に属するニ
ューロングループ番号Gb。
Further, the setting of the phase-group correspondence table in step S5 is as shown in FIG.

Gc、Gd、Geの4つを設定し、フェーズ2でニュー
ロ全体としてのニューロングループ番号Gb−Gfの5
つを設定する。
Gc, Gd, and Ge are set, and in phase 2, the neuron group number Gb-Gf for the entire neuron is set to 5.
Set one.

この本発明の第5実施例によれば、前件部メンバシップ
関数実現部10とルール部12の重みを同時に学習した
後、ルール部プリワイヤニューロ全体を学習させること
により、前件部メンバシップ関数実現部10とルール部
12の重みの同時学習による結果に合わせたルール部プ
リワイヤニューロ全体の重みの再調整を行なうことがで
きる。
According to the fifth embodiment of the present invention, after learning the weights of the antecedent membership function realization unit 10 and the rule unit 12 at the same time, the antecedent membership function is learned by learning the entire rule unit prewire neuron. The weights of the entire rule section pre-wire neuron can be readjusted in accordance with the result of simultaneous learning of the weights of the function realization section 10 and the rule section 12.

[第6実施例の学習処理] 本発明の第6実施例にあっては、第2F図のステップS
6に示すように、 ■前件部メンバシップ関数実現部1゜ ■後件部メンバシップ関数実現部14 ■ニューロ全体 となる順番で重みを学習する。この学習の順番に対応し
て最初に重みを学習する前件部メンバシップ関数実現部
10については、ステップs1に示すように予め持って
いる知識の導入に基づく重み値の初期設定または乱数を
用いたランダムな重み値の初期設定、更には両者を併用
した重み値の初期設定を行なう。これに対し2回目以降
の重み学習となるルール部12及び後件部メンバシップ
関数実現部14については、ステップ82.33に示す
ように予め持っている知識の導入に基づいた重み値の初
期設定のみを行なう。
[Learning process of the sixth embodiment] In the sixth embodiment of the present invention, step S in FIG.
As shown in FIG. 6, 1. Antecedent membership function realization section 1.2 Consequent membership function realization section 14. 2. Weights are learned in the order of the entire neuron. The antecedent membership function realization unit 10, which learns the weights first in accordance with this learning order, uses initial setting of weight values based on the introduction of pre-existing knowledge or random numbers as shown in step s1. Initial setting of random weight values is performed, and initial setting of weight values using both of them is performed. On the other hand, for the rule part 12 and the consequent part membership function realization part 14 that undergo weight learning from the second time onward, the initial setting of the weight value is based on the introduction of the knowledge that they have in advance, as shown in step 82.33. Only do the following.

また、ステップS5のフェーズ・グループ対応表の設定
は第20図(f)に示すように、フェ−ズ1で前件部メ
ンバシップ関数実現部1oに属するニューロングループ
番号Gb、Gcを設定し、フェーズ2で後件部メンバシ
ップ関数実現部14に属するニューロングループ番号G
fを設定し、更にフェーズ3でニューロ全体としてのニ
ューロングループ番号Gb−Gfの5つを設定する。
Further, the setting of the phase-group correspondence table in step S5 is as shown in FIG. In phase 2, the neuron group number G belonging to the consequent membership function realization unit 14
f is set, and further, in phase 3, five neuron group numbers Gb-Gf for the entire neuron are set.

このような本発明の第6実施例によれば、前件部メンバ
シップ関数実現部10と後件部メンバシップ関数実現部
14の重みを順次学習した後、ルール部プリワイヤニュ
ーロ全体を学習させることにより、前件部メンバシップ
関数実現部10と後件部メンバシップ関数実現部14の
重みの学習結果に合わせたルール部プリワイヤニューロ
全体の重みの再調整を行なうことができる。
According to the sixth embodiment of the present invention, after learning the weights of the antecedent membership function realizing unit 10 and the consequent membership function realizing unit 14 in sequence, the entire rule unit prewire neuron is trained. As a result, the weights of the entire rule section prewire neuron can be readjusted in accordance with the learning results of the weights of the antecedent membership function realization section 10 and the consequent membership function realization section 14.

[第7実施例の学習処理コ 本発明の第7実施例にあっては、第2G図のステップS
6に示すように、 ■ルール部12 ■後件部メンバシップ関数実現部14 ■ニューロ全体 となる順番で重みを学習する。この学習の順番に対応し
て重みを最初に学習するルール部12については、ステ
ップS2に示すように予め持っている知識の導入に基づ
いた重み値の初期設定または乱数を用いたランダムな重
み値の初期設定、更には両者を併用した重み値の初期設
定を行なう。これに対し2回目以降の重み学習となる前
件部メンバシップ関数実現部10及び後件部メンバシッ
プ関数実現部14については、ステップSL、  S3
に示すように予め持っている知識の導入に基づいた重み
値の初期設定のみを行なう。
[Learning Process of Seventh Embodiment] In the seventh embodiment of the present invention, step S in FIG.
As shown in 6, 1) the rule section 12 2) the consequent membership function realization section 14 2) learns the weights in the order of the entire neuron. As for the rule unit 12 that learns weights first in accordance with this learning order, as shown in step S2, initial setting of weight values based on the introduction of pre-existing knowledge or random weight values using random numbers is performed. Initial setting of weight values is performed using both of them. On the other hand, for the antecedent membership function realization unit 10 and the consequent membership function realization unit 14 that perform weight learning from the second time onwards, steps SL and S3 are performed.
As shown in Figure 2, only the initial setting of the weight values is performed based on the introduction of knowledge that is previously held.

また、ステップS5のフェーズ・グループ対応表の設定
は第20図(g)に示すように、フェーズ1でルール部
12に属するニューロングループ番号Gd、Geを設定
し、フェーズ2で後件部メンバシップ関数実現部14に
属するニューロングループ番号Gfを設定し、更にフェ
ーズ3でニューロ全体としてのニューロングループ番号
Gb〜Gfの5つを設定する。
In addition, as shown in FIG. 20(g), the setting of the phase-group correspondence table in step S5 is as follows: In phase 1, neuron group numbers Gd and Ge belonging to the rule part 12 are set, and in phase 2, the consequent part membership is set. A neuron group number Gf belonging to the function realization unit 14 is set, and further, in phase 3, five neuron group numbers Gb to Gf for the entire neuron are set.

このような本発明の第7実施例によれば、ルール部12
と後件部メンバシップ関数実現部14の重みを順次学習
させた後、ルール部プリワイヤニューロ全体を学習させ
ることにより、ルール部12と後件部メンバシップ関数
実現部14の重み学習の結果に合わせたルール部プリワ
イヤニューロ全体の重みの再調整を行なうことができる
According to the seventh embodiment of the present invention, the rule section 12
After sequentially learning the weights of the consequent membership function realizing unit 14, and learning the entire rule unit prewire neuron, the result of weight learning of the rule unit 12 and the consequent membership function realizing unit 14 is It is possible to readjust the weight of the entire combined rule section prewire neuron.

[第8実施例の学習処理] 本発明の第8実施例にあっては、第2H図のステップS
6に示すように、 ■ルール部12 ■前件部メンバシップ関数実現部10 ■後件部メンバシップ関数実現部14 ■ニューロ全体 となる順番で重みを学習する。この学習の順番に対応し
て最初に重みを学習するルール部12については、ステ
ップS2に示すように、予め持っている知識の導入に基
づいた重み値の初期設定または乱数を用いたランダムな
重み値の初期設定、更には両者を併用した重み値の初期
設定を行なう。
[Learning process of the eighth embodiment] In the eighth embodiment of the present invention, step S in Fig. 2H
As shown in 6, 1) the rule unit 12 2) the antecedent membership function implementation unit 10 2) the consequent membership function implementation unit 14 2) learns the weights in the order of the entire neuron. As for the rule unit 12 that learns weights first in accordance with this learning order, as shown in step S2, initial setting of weight values based on the introduction of pre-existing knowledge or random weighting using random numbers is performed. Initial setting of values and further initial setting of weight values using both are performed.

これに対し2回目以降に重みを学習する前件部メンバシ
ップ関数実現部10及び後件部メンバシップ関数実現部
14についてはステップSl、  S3に示すように、
予め持っている知識の導入に基づいた重み値の初期設定
のみを行なう。
On the other hand, for the antecedent membership function realization unit 10 and the consequent membership function realization unit 14 that learn the weights from the second time onwards, as shown in steps Sl and S3,
Only the initial setting of weight values is performed based on the introduction of knowledge held in advance.

また、ステップS5のフェーズ・グループ対応表の設定
は第20図(h)に示すように、フェーズ1でルール部
12に属するニューロングループ番号Gd、Geを設定
し、フェーズ2で前件部メンバシップ関数実現部10に
属するニューロングループ番号Gb、Gcを設定し、フ
ェーズ3で後件部メンバシップ関数実現部14に属する
ニューロングループ番号Gfを設定し、最後のフェーズ
4でニューロ全体としてのニューロングループ番号Gb
−Gfの5つを設定する。
In addition, as shown in FIG. 20(h), the setting of the phase-group correspondence table in step S5 is as follows: In phase 1, neuron group numbers Gd and Ge belonging to the rule part 12 are set, and in phase 2, the antecedent part membership is set. The neuron group numbers Gb and Gc belonging to the function realization unit 10 are set, the neuron group number Gf belonging to the consequent membership function realization unit 14 is set in phase 3, and the neuron group number for the entire neuron is set in phase 4. Gb
- Set five Gf.

この本発明の第8実施例によれば、ルール部12、前件
部メンバシップ関数実現部10及び後件部メンバシップ
関数実現部14の順番に重みの学習を行なった後、ルー
ル部プリワイヤニューロ全体の重みを学習させることに
より、前件部メンバシップ関数実現部10、ルール部1
2及び後件部メンバシップ関数実現部14の重みの学習
結果に合わせたルール部プリワイヤニューロ全体の重み
の再調整を行なうことができる。
According to the eighth embodiment of the present invention, after learning the weights in the order of the rule section 12, the antecedent membership function realization section 10, and the consequent membership function realization section 14, the rule section pre-wires By learning the weights of the entire neuron, the antecedent membership function realization unit 10 and the rule unit 1
The weights of the entire rule section pre-wire neuron can be readjusted in accordance with the learning results of the weights of 2 and the consequent membership function realization section 14.

[第9実施例の学習処理] 本発明の第9実施例にあっては、第21図のステップS
6に示すように、 ■前件部メンバシップ関数実現部10 ■ルール部12 ■後件部メンバシップ関数実現部14 ■ニューロ全体 となる順番で重みを学習する。この学習順番に対応して
最初に重みを学習する前件部メンバシップ関数実現部1
0については、ステップS1に示すように、予め持って
いる知識の導入に基づいた重み値の初期設定または乱数
を用いたランダムな重み値の初期設定、更には両者を併
用した重み値の初期設定を行なう。これに対し2回目以
降の重み学習となるルール部12及び後件部メンバシッ
プ関数実現部14については、ステップS2.S3に示
すように、予め持っている知識の導入に基づいた重み値
の初期設定のみを行なう。
[Learning process of the ninth embodiment] In the ninth embodiment of the present invention, step S in FIG.
6, the antecedent membership function realizing unit 10 ■ the rule unit 12 ■ the consequent membership function realizing unit 14 ■ learns the weights in the order of the entire neuron. Antecedent membership function realization unit 1 learns the weights first in accordance with this learning order.
For 0, as shown in step S1, the initial setting of the weight value is based on the introduction of prior knowledge, the initial setting of the random weight value using random numbers, or the initial setting of the weight value using a combination of both. Do this. On the other hand, regarding the rule section 12 and the consequent section membership function realization section 14 that undergo weight learning from the second time onward, step S2. As shown in S3, only the initial setting of weight values based on the introduction of knowledge held in advance is performed.

また、ステップS4のフェーズ・グループ対応表の設定
は第20図(i)に示すように、フェーズ1で前件部メ
ンバシップ関数実現部10に属するニューロングループ
番号Gb、Gcを設定し、フェーズ2でルール部12に
属するニューロングループ番号Gd、Geを設定し、フ
ェーズ3で後件部メンバシップ関数実現部14に属する
ニューロングループ番号Gfを設定し、更に最後のフェ
ーズ4でニューロ全体となるニューロングループ番号G
b−Gfの5つを設定する。
In addition, the setting of the phase-group correspondence table in step S4 is as shown in FIG. In phase 3, the neuron group numbers Gd and Ge belonging to the rule section 12 are set, and in phase 3, the neuron group number Gf belonging to the consequent membership function realization section 14 is set, and in the final phase 4, the neuron group that becomes the entire neuron is set. Number G
Set five b-Gf.

このような第9実施例にあっては、前件部メンバシップ
関数実現部10、ルール部12及び後件部メンバシップ
関数実現部14の重みを順次学習した後、ルール部プリ
ワイヤニューロ全体の重みを学習させることにより、前
件部メンバシップ関数実現部10、ルール部12及び後
件部メンバシップ関数実現部14の重みの学習結果に合
わせたルール部プリワイヤニューロ全体の重みの再調整
を行なうことができる。
In the ninth embodiment, after sequentially learning the weights of the antecedent membership function realizing unit 10, the rule unit 12, and the consequent membership function realizing unit 14, the entire rule unit prewire neuron is learned. By learning the weights, the weights of the entire rule section prewire neuron can be readjusted in accordance with the learning results of the weights of the antecedent membership function realization section 10, the rule section 12, and the consequent membership function realization section 14. can be done.

[第10実施例の学習処理] 本発明の第10実施例にあっては、第2J図のステップ
S6に示すように、 ■前件部メンバシップ関数実現部10とルール部■後件
部メンバシップ関数実現部14 ■ニューロ全体 となる順番で重みを学習する。この順番に対応して最初
に重みを学習する前件部メンバシップ関数実現部10と
ルール部12については、ステップSL、S2に示すよ
うに、予め持っている知識の導入に基づいた重み値の初
期設定または乱数を用いたランダムな重み値の初期設定
、更には両者を併用した重み値の初期設定を行なう。こ
れに対し2回目以降の重み学習となる後件部メンバシッ
プ関数実現部14については、ステップS3に示すよう
に予め持っている知識の導入に基づいた重み値の初期設
定のみを行なう。
[Learning Process of 10th Embodiment] In the 10th embodiment of the present invention, as shown in step S6 of FIG. Ship function realization unit 14 ■Learns weights in the order of the entire neuron. Corresponding to this order, the antecedent membership function realization unit 10 and the rule unit 12, which learn the weights first, calculate the weight values based on the introduction of knowledge they have in advance, as shown in steps SL and S2. Initial settings, initial settings of random weight values using random numbers, and initial settings of weight values using a combination of both are performed. On the other hand, for the consequent membership function realization unit 14 that performs weight learning from the second time onward, only the initial setting of the weight values is performed based on the introduction of knowledge held in advance, as shown in step S3.

また、ステップS5のフェーズ・グループ対応表の設定
は第20図(j)に示すように、フェーズ1で前件部メ
ンバシ・7プ関数実現部10及びルール部に属するニュ
ーロングループ番号Gb、 Gc、Gd、Geの4つを
設定し、フェーズ2で後件部メンバシップ関数実現部1
4に属するニューロングループ番号Gfを設定し、最後
のフェーズ3でニューロ全体に対応したニューロングル
ープ番号Gb−Gfの5つを設定する。
Further, as shown in FIG. 20(j), the setting of the phase/group correspondence table in step S5 is such that in phase 1, neuron group numbers Gb, Gc, Gd and Ge are set, and in phase 2, consequent membership function realization part 1
4 is set, and in the final phase 3, five neuron group numbers Gb-Gf corresponding to the entire neuron are set.

このような本発明の第10実施例にあっては、前件部メ
ンバシップ関数実現部10とルール部12の重みを同時
に学習し、その後に後件部メンバシップ関数実現部14
の重みを学習してから最終的にルール部プリワイヤニュ
ーロ全体の重みを学習させることにより、前件部メンバ
シップ関数実現部10、ルール部12及び後件部メンバ
シップ関数実現部14の重みの学習結果に合わせたルー
ル部プリワイヤニューロ全体の重みの再調整を行なうこ
とができる。
In the tenth embodiment of the present invention, the weights of the antecedent membership function realizing unit 10 and the rule unit 12 are learned simultaneously, and then the weights of the consequent membership function realizing unit 14 are learned simultaneously.
The weights of the antecedent membership function realizing unit 10, the rule unit 12, and the consequent membership function realizing unit 14 can be changed by learning the weights of the antecedent membership function realizing unit 10, the rule unit 12, and the consequent membership function realizing unit 14 by finally learning the weights of the entire rule unit prewire neuron. It is possible to readjust the weights of the entire rule section pre-wired neuron according to the learning results.

[その他] 尚、上記の実施例は第5A図に示したように、2つの制
御人力X1.X2を対象としたファジィルールを実現す
るルール部プリワイヤニューロを例にとるものであった
が、制御入力は1または3以上の適宜の入力数としても
よい。
[Others] In the above embodiment, as shown in FIG. 5A, two control human forces X1. Although the rule section pre-wired neuro that implements fuzzy rules targeting X2 has been taken as an example, the number of control inputs may be one or three or more as appropriate.

また、上記の実施例にあっては、第6.7図に示したメ
ンバシップ関数を例にとるものであったが、第28図に
示すように2つのシグモイド関数ユニット94−1.9
4−2のユニット出力を減算ユニット96に与えて、同
図(b)の関数形状を実現するようにしてもよい。この
場合のユニット出力yは 3’=1/(1−e−町!+#1 )  l/(1、−
W2X−02)と表現することができる。
Further, in the above embodiment, the membership function shown in FIG. 6.7 was taken as an example, but as shown in FIG. 28, two sigmoid function units 94-1.9
The unit output of 4-2 may be applied to the subtraction unit 96 to realize the function shape shown in FIG. 4(b). In this case, the unit output y is 3'=1/(1-e-cho!+#1) l/(1,-
W2X-02).

[発明の効果] 以上説明してきたように本発明によれば、前件部メンバ
シップ関数実現部、ルール部及び後件部メンバシップ関
数実現部の少なくとも1つの部分の重みを学習した後、
ルール部プリワイヤニューロ全体を学習させることによ
り、前件部メンバシップ関数実現部、ルール部及び後件
部メンバシップ関数実現部の少なくとも1つの部分の重
みの学習結果に合わせたルール部プリワイヤニューロ全
体の重みの再調整を行なうことができる。
[Effects of the Invention] As described above, according to the present invention, after learning the weights of at least one of the antecedent membership function realization part, the rule part, and the consequent membership function realization part,
By learning the entire rule part pre-wired neuron, the rule part pre-wired neuron is adapted to the learning result of the weight of at least one part of the antecedent membership function realization part, the rule part, and the consequent part membership function realization part. The overall weights can be readjusted.

また、予め持っている知識の導入に基づいて重み値を初
期設定することで重み学習を容易に行なうことができる
In addition, weight learning can be easily performed by initially setting weight values based on the introduction of knowledge held in advance.

更に、乱数を用いてランダムに重み値を初期設定または
予め持っている知識と乱数を併用した重み値の初期設定
とすることでニューロンネットワークの性能を最大限に
引き出すことができる。
Furthermore, the performance of the neuron network can be maximized by randomly initializing weight values using random numbers or by using a combination of pre-existing knowledge and random numbers.

【図面の簡単な説明】[Brief explanation of the drawing]

第1A、 IB、 IC,ID、 IE、 IF、 I
G。 IH,I1、IJ図は本発明の原理説明図;第2A、 
2B、 2C,2D、 2E、 2F、 2G。 2H,21,2J図は本発明の第1乃至第10実施例を
示した学習動作フロー図; 第3図は本発明のルール部プリワイヤニューロの実施例
構成図; 第4図は基本ユニット説明図; 第5A図は本発明のルール部プリワイヤニューロの具体
的な実施例構成図; 第5B図は第5A図のニューロングループ及び結線グル
ープの説明図; 第6図は本発明の前件部メンバシップ関数実現部の初期
設定説明図; 第7図は前件部のメンバシップ関数説明図;第8図は本
発明のルール部初期設定説明図;第9図は本発明のルー
ル部ユニット説明図;第10図は第9図のファジィルー
ルL1説明図;第11図は第9図のファジィルールL2
説明図;第12図は第9図のファジィルールL3説明図
;第13図は第9図のファジィルールL4説明図;第1
4図は第9図のファジィルールL5説明図;第15図は
第9図のファジィルールL6説明図;第16図は第9図
のファジィルールL7説明図;第17図は第9図のファ
ジィルールL8説明図;第18図は本発明の後件部メン
バシップ関数実現部の初期設定説明図; 第19図は本発明の重心計算実現部の初期設定説明図; 第20図は本発明のフェーズ・グループ対応表及びグル
ープ・結線対応表の設定説明図;第21図は本発明の学
習処理フロー図;第22図は本発明による学習処理の装
置構成図第23図は第22図の結線毎に設けた学習調整
機構成因; 第24図は一般的な階層ニューラル・ネットワーク説明
図; 第25図は本発明の重み学習処理フロー図;第26図は
第25図の各部のパラメータ説明図。 第27図本発明に用いる他のメンバシップ関数の説明図
である。 図中、 10:前件部メンバシップ関数実現部 12 ルール部 14:後件部メンバシップ関数実現部 16、入力部 18:重心計算実現部 20:基本ユニット 22:乗算部 24:加算部 26:閾値処理部 2B−1,28−2,32−1〜32−4.38−1 
〜38−9.40−1.40−2 :線形関数ユニット 30−1〜30−2.34−1〜34−8.94−1.
94−2 :シグモイド関数ユニット 40:重心決定要素出力装置 42:重心算出装置 50:学習指示ユニット 52:学習スケジューラ 54:学習信号格納部 56:フェーズ・グループ対応テーブル58ニゲループ
φフエーズ対応テーブル60:学習収束判定部 70:学習ユニット 72:学習時事読取部 74:学習フラグ設定部 76:重み変更部 80:学習調整器 82:フラグ保存部 84:重み変更情報読取部 86二重み変更量調整部 88:重み演算部 90:重み保存部 92:重み変更量保存部 96:減算ユニット 100:ルール部プリワイヤニューロ
1st A, IB, IC, ID, IE, IF, I
G. IH, I1, and IJ diagrams are explanatory diagrams of the principle of the present invention; 2A,
2B, 2C, 2D, 2E, 2F, 2G. Figures 2H, 21, and 2J are learning operation flow diagrams showing the first to tenth embodiments of the present invention; Figure 3 is a configuration diagram of an embodiment of the rule section prewire neuro of the present invention; Figure 4 is a basic unit explanation Figure; Figure 5A is a configuration diagram of a specific embodiment of the rule section prewire neuron of the present invention; Figure 5B is an explanatory diagram of the neuron group and connection group of Figure 5A; Figure 6 is an antecedent section of the present invention An explanatory diagram of the initial settings of the membership function realization section; FIG. 7 is an explanatory diagram of the membership function of the antecedent section; FIG. 8 is an explanatory diagram of the initial settings of the rule section of the present invention; FIG. 9 is an explanation of the rule section unit of the present invention Figure; Figure 10 is an explanatory diagram of fuzzy rule L1 in Figure 9; Figure 11 is an illustration of fuzzy rule L2 in Figure 9.
Explanatory diagram; FIG. 12 is an explanatory diagram of fuzzy rule L3 in FIG. 9; FIG. 13 is an explanatory diagram of fuzzy rule L4 in FIG. 9;
4 is an explanatory diagram of fuzzy rule L5 in FIG. 9; FIG. 15 is an explanatory diagram of fuzzy rule L6 in FIG. 9; FIG. 16 is an explanatory diagram of fuzzy rule L7 in FIG. 9; An explanatory diagram of rule L8; FIG. 18 is an explanatory diagram of the initial settings of the consequent membership function implementation unit of the present invention; FIG. 19 is an explanatory diagram of the initial settings of the center of gravity calculation implementation unit of the invention; An explanatory diagram of the settings of the phase/group correspondence table and the group/connection correspondence table; Fig. 21 is a learning processing flow diagram of the present invention; Fig. 22 is a device configuration diagram of the learning processing according to the present invention; Fig. 23 is the wiring diagram of Fig. 22. FIG. 24 is an explanatory diagram of a general hierarchical neural network; FIG. 25 is a flowchart of the weight learning process of the present invention; FIG. 26 is an explanatory diagram of parameters of each part of FIG. 25. FIG. 27 is an explanatory diagram of another membership function used in the present invention. In the figure, 10: Antecedent membership function realization unit 12, Rule unit 14: Consequent membership function realization unit 16, Input unit 18: Center of gravity calculation realization unit 20: Basic unit 22: Multiplication unit 24: Addition unit 26: Threshold processing unit 2B-1, 28-2, 32-1 to 32-4.38-1
~38-9.40-1.40-2: Linear function unit 30-1 ~30-2.34-1 ~34-8.94-1.
94-2: Sigmoid function unit 40: Center of gravity determining element output device 42: Center of gravity calculation device 50: Learning instruction unit 52: Learning scheduler 54: Learning signal storage unit 56: Phase/group correspondence table 58 Niger loop φ phase correspondence table 60: Learning Convergence determination section 70: Learning unit 72: Learning current events reading section 74: Learning flag setting section 76: Weight changing section 80: Learning adjuster 82: Flag storage section 84: Weight change information reading section 86 Duplex change amount adjustment section 88: Weight calculation section 90: Weight storage section 92: Weight change amount storage section 96: Subtraction unit 100: Rule section pre-wire neuro

Claims (12)

【特許請求の範囲】[Claims] (1)前件部メンバシップ関数実現部(10)、1又は
複数階層でなるルール部(12)、及び後件部メンバシ
ップ関数実現部(14)でなる階層ネットワークを有し
、前記ルール部(12)は前段の前件メンバシップ関数
実現部(10)及び又は後段の後件部メンバシップ関数
実現部(14)との間で全ユニット間を内部結合せずに
制御ルールに従って一部を内部結合して成り、入力され
る制御状態量(X_1、X_2、…X_n)に対応する
1又は複数の制御操作量(Y)を出力するルール部プリ
ワイヤニューロの学習方法に於いて、 前記前件部メンバシップ関数実現部(10)に予め持っ
ている知識に基づき又は乱数を用いて重み値を初期設定
すると共に、前記ルール部(12)及び後件部メンバシ
ップ関数実現部(14)に予め持っている知識に基づい
て重み値を初期設定する第1過程と; 学習データを使用して前記前件部メンバシップ関数実現
部(10)の重みを学習させる第2過程と;学習データ
を使用して前記前件部メンバシップ関数実現部(10)
、ルール部(12)及び後件部メンバシップ関数実現部
(14)の全体の重みを学習させる第3過程と; を備えたことを特徴とするルール部プリワイヤニューロ
の学習方法。
(1) It has a hierarchical network consisting of an antecedent part membership function realization part (10), a rule part (12) consisting of one or more layers, and a consequent part membership function realization part (14), and the rule part (12) does not internally connect all units with the antecedent membership function realization unit (10) in the previous stage and/or the consequent membership function realization unit (14) in the subsequent stage, but only some parts according to the control rule. In a learning method of a rule section pre-wired neuro that is internally coupled and outputs one or more control operation quantities (Y) corresponding to input control state quantities (X_1, X_2,...X_n), The subject membership function realization unit (10) initializes the weight values based on the knowledge it has in advance or using random numbers, and the rule unit (12) and the consequent membership function realization unit (14) a first step of initializing weight values based on knowledge held in advance; a second step of learning the weights of the antecedent membership function realization unit (10) using learning data; Using the antecedent membership function realization unit (10)
, a third step of learning the overall weights of the rule section (12) and the consequent membership function realization section (14); and a method for learning a rule section prewire neuro.
(2)前件部メンバシップ関数実現部(10)、1又は
複数階層でなるルール部(12)、及び後件部メンバシ
ップ関数実現部(14)でなる階層ネットワークを有し
、前記ルール部(12)は前段の前件メンバシップ関数
実現部(10)及び又は後段の後件部メンバシップ関数
実現部(14)との間で全ユニット間を内部結合せずに
制御ルールに従って一部を内部結合して成り、入力され
る制御状態量(X_1、X_2、…X_n)に対応する
1又は複数の制御操作量(Y)を出力するルール部プリ
ワイヤニューロの学習方法に於いて、 前記ルール部(12)に予め持っている知識に基づき又
は乱数を用いて重み値を初期設定すると共に、前記前件
部メンバシップ関数実現部(10)及び後件部メンバシ
ップ関数実現部(14)に予め持っている知識に基づい
て重み値を初期設定する第1過程と;学習データを使用
して前記ルール部(12)の重みを学習させる第2過程
と; 学習データを使用して前記前件部メンバシップ関数実現
部(10)、ルール部(12)及び後件部メンバシップ
関数実現部(14)の全体の重みを学習させる第3過程
と; を備えたことを特徴とするルール部プリワイヤニューロ
の学習方法。
(2) It has a hierarchical network consisting of an antecedent membership function realization unit (10), a rule unit (12) having one or more layers, and a consequent membership function realization unit (14), and the rule unit (12) does not internally connect all units with the antecedent membership function realization unit (10) in the previous stage and/or the consequent membership function realization unit (14) in the subsequent stage, but only some parts according to the control rule. In a learning method of a rule section pre-wired neuro that is internally coupled and outputs one or more control operation quantities (Y) corresponding to input control state quantities (X_1, X_2,...X_n), the rule The weight values are initialized in the section (12) based on knowledge held in advance or using random numbers, and the antecedent membership function realization section (10) and the consequent membership function realization section (14) a first step of initially setting weight values based on knowledge held in advance; a second step of learning the weights of the rule section (12) using learning data; and a second step of learning the weights of the rule section (12) using learning data; A third step of learning the overall weights of the part membership function realization part (10), the rule part (12), and the consequent part membership function realization part (14); How to learn wire neuro.
(3)前件部メンバシップ関数実現部(10)、1又は
複数階層でなるルール部(12)、及び後件部メンバシ
ップ関数実現部(14)でなる階層ネットワークを有し
、前記ルール部(12)は前段の前件メンバシップ関数
実現部(10)及び又は後段の後件部メンバシップ関数
実現部(14)との間で全ユニット間を内部結合せずに
制御ルールに従って一部を内部結合して成り、入力され
る制御状態量(X_1、X_2、…X_n)に対応する
1又は複数の制御操作量(Y)を出力するルール部プリ
ワイヤニューロの学習方法に於いて、 前記ルール部(12)に予め持っている知識に基づき又
は乱数を用いて重み値を初期設定すると共に、前記前件
部メンバシップ関数実現部(10)及び後件部メンバシ
ップ関数実現部(14)に予め持っている知識に基づい
て重み値を初期設定する第1過程と;学習データを使用
して前記ルール部(12)の重みを学習させる第2過程
と; 学習データを使用して前記前件部メンバシップ関数実現
部(10)の重みを学習させる第3過程と;学習データ
を使用して前記前件部メンバシップ関数実現部(10)
、ルール部(12)及び後件部メンバシップ関数実現部
(14)の全体の重みを学習させる第4過程と; を備えたことを特徴とするルール部プリワイヤニューロ
の学習方法。
(3) It has a hierarchical network consisting of an antecedent part membership function realization part (10), a rule part (12) consisting of one or more layers, and a consequent part membership function realization part (14), and the rule part (12) does not internally connect all units with the antecedent membership function realization unit (10) in the previous stage and/or the consequent membership function realization unit (14) in the subsequent stage, but only some parts according to the control rule. In a learning method of a rule section pre-wired neuro that is internally coupled and outputs one or more control operation quantities (Y) corresponding to input control state quantities (X_1, X_2,...X_n), the rule The weight values are initialized in the section (12) based on knowledge held in advance or using random numbers, and the antecedent membership function realization section (10) and the consequent membership function realization section (14) a first step of initially setting weight values based on knowledge held in advance; a second step of learning the weights of the rule section (12) using learning data; and a second step of learning the weights of the rule section (12) using learning data; a third step of learning the weights of the part membership function realization part (10); and the antecedent part membership function realization part (10) using the learning data.
, a fourth step of learning the overall weights of the rule section (12) and the consequent membership function realization section (14); and a method for learning a rule section prewire neuro.
(4)前件部メンバシップ関数実現部(10)、1又は
複数階層でなるルール部(12)、及び後件部メンバシ
ップ関数実現部(14)でなる階層ネットワークを有し
、前記ルール部(12)は前段の前件メンバシップ関数
実現部(10)及び又は後段の後件部メンバシップ関数
実現部(14)との間で全ユニット間を内部結合せずに
制御ルールに従って一部を内部結合して成り、入力され
る制御状態量(X_1、X_2、…X_n)に対応する
1又は複数の制御操作量(Y)を出力するルール部プリ
ワイヤニューロの学習方法に於いて、 前記前件部メンバシップ関数実現部(10)に予め持っ
ている知識に基づき又は乱数を用いて重み値を初期設定
すると共に、前記ルール部(12)及び後件部メンバシ
ップ関数実現部(14)に予め持っている知識に基づい
て重み値を初期設定する第1過程と; 学習データを使用して前記前件部メンバシップ関数実現
部(10)の重みを学習させる第2過程と;学習データ
を使用して前記ルール部(12)の重みを学習させる第
3過程と; 学習データを使用して前記前件部メンバシップ関数実現
部(10)、ルール部(12)及び後件部メンバシップ
関数実現部(14)の全体の重みを学習させる第4過程
と; を備えたことを特徴とするルール部プリワイヤニューロ
の学習方法。
(4) It has a hierarchical network consisting of an antecedent membership function realization unit (10), a rule unit (12) having one or more layers, and a consequent membership function realization unit (14), and the rule unit (12) does not internally connect all units with the antecedent membership function realization unit (10) in the previous stage and/or the consequent membership function realization unit (14) in the subsequent stage, but only some parts according to the control rule. In a learning method of a rule section pre-wired neuro that is internally coupled and outputs one or more control operation quantities (Y) corresponding to input control state quantities (X_1, X_2,...X_n), The subject membership function realization unit (10) initializes the weight values based on the knowledge it has in advance or using random numbers, and the rule unit (12) and the consequent membership function realization unit (14) a first step of initializing weight values based on knowledge held in advance; a second step of learning the weights of the antecedent membership function realization unit (10) using learning data; a third step of learning the weights of the rule part (12) using the learning data; A learning method for a rule section pre-wired neuro, comprising: a fourth step of learning the overall weight of the realization section (14);
(5)前件部メンバシップ関数実現部(10)、1又は
複数階層でなるルール部(12)、及び後件部メンバシ
ップ関数実現部(14)でなる階層ネットワークを有し
、前記ルール部(12)は前段の前件メンバシップ関数
実現部(10)及び又は後段の後件部メンバシップ関数
実現部(14)との間で全ユニット間を内部結合せずに
制御ルールに従って一部を内部結合して成り、入力され
る制御状態量(X_1、X_2、…X_n)に対応する
1又は複数の制御操作量(Y)を出力するルール部プリ
ワイヤニューロの学習方法に於いて、 前記前件部メンバシップ関数実現部(10)及びルール
部(12)に予め持っている知識に基づき又は乱数を用
いて重み値を初期設定すると共に、前記後件部メンバシ
ップ関数実現部(14)に予め持っている知識に基づい
て重み値を初期設定する第1過程と; 学習データを使用して前記前件部メンバシップ関数実現
部(10)及びルール部(12)の重みを同時に学習さ
せる第2過程と; 学習データを使用して前記前件部メンバシップ関数実現
部(10)、ルール部(12)及び後件部メンバシップ
関数実現部(14)の全体の重みを学習させる第3過程
と; を備えたことを特徴とするルール部プリワイヤニューロ
の学習方法。
(5) It has a hierarchical network consisting of an antecedent part membership function realization part (10), a rule part (12) consisting of one or more layers, and a consequent part membership function realization part (14), and the rule part (12) does not internally connect all units with the antecedent membership function realization unit (10) in the previous stage and/or the consequent membership function realization unit (14) in the subsequent stage, but only some parts according to the control rule. In a learning method of a rule section pre-wired neuro that is internally coupled and outputs one or more control operation quantities (Y) corresponding to input control state quantities (X_1, X_2,...X_n), The weight values are initialized based on the knowledge that the subject membership function realization unit (10) and the rule unit (12) have in advance or using random numbers, and the weight values are initialized in the consequent membership function realization unit (14). a first step of initially setting weight values based on knowledge held in advance; a first step of simultaneously learning the weights of the antecedent membership function realization unit (10) and the rule unit (12) using learning data; a third step of learning the overall weights of the antecedent membership function realization unit (10), the rule unit (12), and the consequent membership function realization unit (14) using learning data; A learning method for a rule section pre-wired neuro, characterized by comprising: and;
(6)前件部メンバシップ関数実現部(10)、1又は
複数階層でなるルール部(12)、及び後件部メンバシ
ップ関数実現部(14)でなる階層ネットワークを有し
、前記ルール部(12)は前段の前件メンバシップ関数
実現部(10)及び又は後段の後件部メンバシップ関数
実現部(14)との間で全ユニット間を内部結合せずに
制御ルールに従って一部を内部結合して成り、入力され
る制御状態量(X_1、X_2、…X_n)に対応する
1又は複数の制御操作量(Y)を出力するルール部プリ
ワイヤニューロの学習方法に於いて、 前記前件部メンバシップ関数実現部(10)に予め持っ
ている知識に基づき又は乱数を用いて重み値を初期設定
すると共に、前記ルール部(12)及び後件部メンバシ
ップ関数実現部(14)に予め持っている知識に基づい
て重み値を初期設定する第1過程と; 学習データを使用して前記前件部メンバシップ関数実現
部(10)の重みを学習させる第2過程と;学習データ
を使用して前記後件部メンバシップ関数実現部(14)
の重みを学習させる第3過程と;学習データを使用して
前記前件部メンバシップ関数実現部(10)、ルール部
(12)及び後件部メンバシップ関数実現部(14)の
全体の重みを学習させる第4過程と; を備えたことを特徴とするルール部プリワイヤニューロ
の学習方法。
(6) It has a hierarchical network consisting of an antecedent membership function realization unit (10), a rule unit (12) having one or more layers, and a consequent membership function realization unit (14), and the rule unit (12) does not internally connect all units with the antecedent membership function realization unit (10) in the previous stage and/or the consequent membership function realization unit (14) in the subsequent stage, but only some parts according to the control rule. In a learning method of a rule section pre-wired neuro that is internally coupled and outputs one or more control operation quantities (Y) corresponding to input control state quantities (X_1, X_2,...X_n), The subject membership function realization unit (10) initializes the weight values based on the knowledge it has in advance or using random numbers, and the rule unit (12) and the consequent membership function realization unit (14) a first step of initializing weight values based on knowledge held in advance; a second step of learning the weights of the antecedent membership function realization unit (10) using learning data; Using the consequent membership function realization unit (14)
a third step of learning the weights of the antecedent membership function realization unit (10), rule unit (12), and consequent membership function realization unit (14) using the learning data; A method for learning a rule section pre-wired neuro, comprising: a fourth step of learning;
(7)前件部メンバシップ関数実現部(10)、1又は
複数階層でなるルール部(12)、及び後件部メンバシ
ップ関数実現部(14)でなる階層ネットワークを有し
、前記ルール部(12)は前段の前件メンバシップ関数
実現部(10)及び又は後段の後件部メンバシップ関数
実現部(14)との間で全ユニット間を内部結合せずに
制御ルールに従って一部を内部結合して成り、入力され
る制御状態量(X_1、X_2、…X_n)に対応する
1又は複数の制御操作量(Y)を出力するルール部プリ
ワイヤニューロの学習方法に於いて、 前記ルール部(12)に予め持っている知識に基づき又
は乱数を用いて重み値を初期設定すると共に、前記前件
部メンバシップ関数実現部(10)及び後件部メンバシ
ップ関数実現部(14)に予め持っている知識に基づい
て重み値を初期設定する第1過程と;学習データを使用
して前記ルール部(12)の重みを学習させる第2過程
と; 学習データを使用して前記後件部メンバシップ関数実現
部(14)の重みを学習させる第3過程と;学習データ
を使用して前記前件部メンバシップ関数実現部(10)
、ルール部(12)及び後件部メンバシップ関数実現部
(14)の全体の重みを学習させる第4過程と; を備えたことを特徴とするルール部プリワイヤニューロ
の学習方法。
(7) It has a hierarchical network consisting of an antecedent part membership function realization part (10), a rule part (12) consisting of one or more layers, and a consequent part membership function realization part (14), and the rule part (12) does not internally connect all units with the antecedent membership function realization unit (10) in the previous stage and/or the consequent membership function realization unit (14) in the subsequent stage, but only some parts according to the control rule. In a learning method of a rule section pre-wired neuro that is internally coupled and outputs one or more control operation quantities (Y) corresponding to input control state quantities (X_1, X_2,...X_n), the rule The weight values are initialized in the section (12) based on knowledge held in advance or using random numbers, and the antecedent membership function realization section (10) and the consequent membership function realization section (14) a first step of initially setting weight values based on knowledge held in advance; a second step of learning the weights of the rule section (12) using learning data; and a second step of learning the weights of the rule section (12) using learning data; a third step of learning the weights of the part membership function realization part (14); and the antecedent part membership function realization part (10) using the learning data.
, a fourth step of learning the overall weights of the rule section (12) and the consequent membership function realization section (14); and a method for learning a rule section prewire neuro.
(8)前件部メンバシップ関数実現部(10)、1又は
複数階層でなるルール部(12)、及び後件部メンバシ
ップ関数実現部(14)でなる階層ネットワークを有し
、前記ルール部(12)は前段の前件メンバシップ関数
実現部(10)及び又は後段の後件部メンバシップ関数
実現部(14)との間で全ユニット間を内部結合せずに
制御ルールに従って一部を内部結合して成り、入力され
る制御状態量(X_1、X_2、…X_n)に対応する
1又は複数の制御操作量(Y)を出力するルール部プリ
ワイヤニューロの学習方法に於いて、 前記ルール部(12)に予め持っている知識に基づき又
は乱数を用いて重み値を初期設定すると共に、前記前件
部メンバシップ関数実現部(10)及び後件部メンバシ
ップ関数実現部(14)に予め持っている知識に基づい
て重み値を初期設定する第1過程と;学習データを使用
して前記ルール部(12)の重みを学習させる第2過程
と; 学習データを使用して前記前件部メンバシップ関数実現
部(10)の重みを学習させる第3過程と;学習データ
を使用して前記後件部メンバシップ関数実現部(14)
の重みを学習させる第4過程と;学習データを使用して
前記前件部メンバシップ関数実現部(10)、ルール部
(12)及び後件部メンバシップ関数実現部(14)の
全体の重みを学習させる第5過程と; を備えたことを特徴とするルール部プリワイヤニューロ
の学習方法。
(8) It has a hierarchical network consisting of an antecedent part membership function realization part (10), a rule part (12) consisting of one or more layers, and a consequent part membership function realization part (14), and the rule part (12) does not internally connect all units with the antecedent membership function realization unit (10) in the previous stage and/or the consequent membership function realization unit (14) in the subsequent stage, but only some parts according to the control rule. In a learning method of a rule section pre-wired neuro that is internally coupled and outputs one or more control operation quantities (Y) corresponding to input control state quantities (X_1, X_2,...X_n), the rule The weight values are initialized in the section (12) based on knowledge held in advance or using random numbers, and the antecedent membership function realization section (10) and the consequent membership function realization section (14) a first step of initially setting weight values based on knowledge held in advance; a second step of learning the weights of the rule section (12) using learning data; and a second step of learning the weights of the rule section (12) using learning data; a third step of learning the weights of the part membership function realization part (10); and the consequent part membership function realization part (14) using the learning data.
a fourth step of learning the weights of the antecedent membership function realization unit (10), the rule unit (12), and the consequent membership function realization unit (14) using the learning data; A learning method for a rule section pre-wired neuro, comprising: a fifth step of learning;
(9)前件部メンバシップ関数実現部(10)、1又は
複数階層でなるルール部(12)、及び後件部メンバシ
ップ関数実現部(14)でなる階層ネットワークを有し
、前記ルール部(12)は前段の前件メンバシップ関数
実現部(10)及び又は後段の後件部メンバシップ関数
実現部(14)との間で全ユニット間を内部結合せずに
制御ルールに従って一部を内部結合して成り、入力され
る制御状態量(X_1、X_2、…X_n)に対応する
1又は複数の制御操作量(Y)を出力するルール部プリ
ワイヤニューロの学習方法に於いて、 前記前件部メンバシップ関数実現部(10)に予め持っ
ている知識に基づき又は乱数を用いて重み値を初期設定
すると共に、前記ルール部(12)及び後件部メンバシ
ップ関数実現部(14)に予め持っている知識に基づい
て重み値を初期設定する第1過程と; 学習データを使用して前記前件部メンバシップ関数実現
部(10)の重みを学習させる第2過程と;学習データ
を使用して前記ルール部(12)の重みを学習させる第
3過程と; 学習データを使用して前記後件部メンバシップ関数実現
部(14)の重みを学習させる第4過程と;学習データ
を使用して前記前件部メンバシップ関数実現部(10)
、ルール部(12)及び後件部メンバシップ関数実現部
(14)の全体の重みを学習させる第5過程と; を備えたことを特徴とするルール部プリワイヤニューロ
の学習方法。
(9) It has a hierarchical network consisting of an antecedent membership function realization unit (10), a rule unit (12) having one or more layers, and a consequent membership function realization unit (14), and the rule unit (12) does not internally connect all units with the antecedent membership function realization unit (10) in the previous stage and/or the consequent membership function realization unit (14) in the subsequent stage, but only some parts according to the control rule. In a learning method of a rule section pre-wired neuro that is internally coupled and outputs one or more control operation quantities (Y) corresponding to input control state quantities (X_1, X_2,...X_n), The subject membership function realization unit (10) initializes the weight values based on the knowledge it has in advance or using random numbers, and the rule unit (12) and the consequent membership function realization unit (14) a first step of initializing weight values based on knowledge held in advance; a second step of learning the weights of the antecedent membership function realization unit (10) using learning data; a third step of learning the weights of the rule section (12) using the learning data; a fourth step of learning the weights of the consequent membership function realizing section (14) using the learning data; Using the antecedent membership function realization unit (10)
, a fifth step of learning the overall weights of the rule section (12) and the consequent membership function realization section (14); and a method for learning a rule section prewire neuro.
(10)前件部メンバシップ関数実現部(10)、1又
は複数階層でなるルール部(12)、及び後件部メンバ
シップ関数実現部(14)でなる階層ネットワークを有
し、前記ルール部(12)は前段の前件メンバシップ関
数実現部(10)及び又は後段の後件部メンバシップ関
数実現部(14)との間で全ユニット間を内部結合せず
に制御ルールに従って一部を内部結合して成り、入力さ
れる制御状態量(X_1、X_2、…X_n)に対応す
る1又は複数の制御操作量(Y)を出力するルール部プ
リワイヤニューロの学習方法に於いて、 前記前件部メンバシップ関数実現部(10)及びルール
部(12)に予め持っている知識に基づき又は乱数を用
いて重み値を初期設定すると共に、前記後件部メンバシ
ップ関数実現部(14)に予め持っている知識に基づい
て重み値を初期設定する第1過程と; 学習データを使用して前記前件部メンバシップ関数実現
部(10)及びルール部(12)の重みを同時に学習さ
せる第2過程と; 学習データを使用して前記後件部メンバシップ関数実現
部(14)の重みを学習させる第3過程と;学習データ
を使用して前記前件部メンバシップ関数実現部(10)
、ルール部(12)及び後件部メンバシップ関数実現部
(14)の全体の重みを学習させる第4過程と; を備えたことを特徴とするルール部プリワイヤニューロ
の学習方法。
(10) It has a hierarchical network consisting of an antecedent membership function realization unit (10), a rule unit (12) having one or more layers, and a consequent membership function realization unit (14), and the rule unit (12) does not internally connect all units with the antecedent membership function realization unit (10) in the previous stage and/or the consequent membership function realization unit (14) in the subsequent stage, but only some parts according to the control rule. In a learning method of a rule section pre-wired neuro that is internally coupled and outputs one or more control operation quantities (Y) corresponding to input control state quantities (X_1, X_2,...X_n), The weight values are initialized based on the knowledge that the subject membership function realization unit (10) and the rule unit (12) have in advance or using random numbers, and the weight values are initialized in the consequent membership function realization unit (14). a first step of initially setting weight values based on knowledge held in advance; a first step of simultaneously learning the weights of the antecedent membership function realization unit (10) and the rule unit (12) using learning data; a third step of learning the weights of the consequent membership function realizing unit (14) using the learning data; and a third process of learning the weights of the consequent membership function realizing unit (14) using the learning data;
, a fourth step of learning the overall weights of the rule section (12) and the consequent membership function realization section (14); and a method for learning a rule section prewire neuro.
(11)最初に重みの学習を行う部分の前記第1過程に
おける重み初期値の設定は、予め持っている知識で設定
可能な重みは該知識で初期設定し、その他は乱数を用い
て初期設定することを特徴とする請求項1乃至10記載
のルール部プリワイヤニューロの学習方法。
(11) In setting the initial weight values in the first process of the part where weights are first learned, weights that can be set based on knowledge held in advance are initialized using this knowledge, and other weights are initialized using random numbers. 11. A learning method for a rule section pre-wired neuron according to any one of claims 1 to 10.
(12)前記第1過程の重み値の初期設定後に行う各過
程の学習開始時に、前記前件部メンバシップ関数実現部
(10)、ルール部(12)及び後件部メンバシップ関
数実現部(14)の内、学習対象となっている部分の結
線毎に設けられた学習フラグをオンすると共に、学習対
象となっていない部分の結線毎に設けられた学習フラグ
をオフし、オン状態にある学習フラグを有する結線の重
み値のみを学習処理により最適化することを特徴とする
請求項1乃至10記載のルール部プリワイヤニューロの
学習方法。
(12) At the start of learning of each process performed after the initial setting of the weight values of the first process, the antecedent membership function realization unit (10), the rule unit (12) and the consequent membership function realization unit ( 14), the learning flag set for each connection in the part to be learned is turned on, and the learning flag set for each connection in the part not to be learned is turned off and kept on. 11. A learning method for a rule section pre-wired neuron according to claim 1, wherein only weight values of connections having learning flags are optimized through learning processing.
JP2124708A 1990-05-15 1990-05-15 Learning method for prewire neuro of rule part Pending JPH0424743A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2124708A JPH0424743A (en) 1990-05-15 1990-05-15 Learning method for prewire neuro of rule part

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2124708A JPH0424743A (en) 1990-05-15 1990-05-15 Learning method for prewire neuro of rule part

Publications (1)

Publication Number Publication Date
JPH0424743A true JPH0424743A (en) 1992-01-28

Family

ID=14892138

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2124708A Pending JPH0424743A (en) 1990-05-15 1990-05-15 Learning method for prewire neuro of rule part

Country Status (1)

Country Link
JP (1) JPH0424743A (en)

Similar Documents

Publication Publication Date Title
Chiang et al. A self-learning fuzzy logic controller using genetic algorithms with reinforcements
WO1991014226A1 (en) Neuro-fuzzy fusion data processing system
Lin et al. Nonlinear system control using self-evolving neural fuzzy inference networks with reinforcement evolutionary learning
Langari et al. Radial basis function networks, regression weights, and the expectation-maximization algorithm
Zhou et al. Learning system for air combat decision inspired by cognitive mechanisms of the brain
Takagi et al. Neural networks and genetic algorithm approaches to auto-design of fuzzy systems
Teodorescu et al. Soft computing in human-related sciences
CN109117946A (en) Neural computing handles model
JPH0424743A (en) Learning method for prewire neuro of rule part
JPH0424740A (en) Learning method for prewired neuro of rule part
Takhavova et al. Neural networks for the moving objects control
JPH0424742A (en) Learning method for prewired neuro of rule part
JPH0424744A (en) Learning method for prewire neuro of rule part
JPH0424741A (en) Learning method for prewired neuro of rule part
JPH0424736A (en) Learning method for prewired neuro of rule part
JPH0424737A (en) Learning method for prewired neuro of rule part
Wang et al. Transfer Reinforcement Learning of Robotic Grasping Training using Neural Networks with Lateral Connections
JPH0424738A (en) Learning method for prewired neuro of rule part
JPH0424739A (en) Learning method for prewired neuro of rule part
JPH0464132A (en) Learning method for neural unit with fully coupled rule part
JPH0464134A (en) Learning method for neural unit with fully coupled rule part
Bittermann et al. A cognitive system based on fuzzy information processing and multi-objective evolutionary algorithm
JPH0464137A (en) Learning method for neural unit with fully coupled rule part
Fernández Action generalization in humanoid robots through artificial intelligence with learning from demonstration
JPH0464135A (en) Learning method for neural unit with fully coupled rule part