JPH0464134A - Learning method for neural unit with fully coupled rule part - Google Patents
Learning method for neural unit with fully coupled rule partInfo
- Publication number
- JPH0464134A JPH0464134A JP2174608A JP17460890A JPH0464134A JP H0464134 A JPH0464134 A JP H0464134A JP 2174608 A JP2174608 A JP 2174608A JP 17460890 A JP17460890 A JP 17460890A JP H0464134 A JPH0464134 A JP H0464134A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- unit
- rule
- membership function
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 97
- 230000001537 neural effect Effects 0.000 title 1
- 230000006870 function Effects 0.000 claims abstract description 142
- 210000002569 neuron Anatomy 0.000 claims description 68
- 230000008569 process Effects 0.000 claims description 55
- 238000004364 calculation method Methods 0.000 claims description 35
- 238000012886 linear function Methods 0.000 description 31
- 230000005484 gravity Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 24
- 230000008859 change Effects 0.000 description 23
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 210000002364 input neuron Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Landscapes
- Devices For Executing Special Programs (AREA)
Abstract
Description
【発明の詳細な説明】
〔概 要]
前件部メンバシップ関数実現部、ルール部および後件部
メンバシップ関数実現部で成るファジィ制御ルールを実
現する階層ネットワーク構造に従って入力に対応する制
御出力を生ずるルール部全結合ニューロの学習方法に関
し、
対象システムに適合した制御を行なうための学習を効率
良(行なうことを目的とし、
前件部メンバシップ関数実現部、ルール部および後件部
メンバシップ関数実現部の各々に、予め持っている知識
の導入または乱数の利用またはその併用で重みおよび閾
値の初期値を設定した後、予め準備されたシステム学習
データを使用してルール部の重みを学習させた後、ルー
ル部と前件部メンバシップ関数実現部の重みを同時に学
習させるように構成する。[Detailed Description of the Invention] [Summary] A control output corresponding to an input is generated according to a hierarchical network structure that realizes a fuzzy control rule consisting of an antecedent membership function realization part, a rule part, and a consequent part membership function realization part. Regarding the learning method of the generated rule part fully connected neuron, the aim is to efficiently learn to perform control suitable for the target system. After setting the initial values of weights and thresholds in each of the realization parts by introducing pre-existing knowledge, using random numbers, or a combination of both, the weights of the rule part are trained using system training data prepared in advance. After that, the weights of the rule section and the antecedent membership function realization section are configured to be learned at the same time.
〔産業上の利用分野]
本発明は、ファジィ制御とニューラルネットワークを融
合させたルール部全結合ニューロの学習方法に関する。[Industrial Field of Application] The present invention relates to a learning method for a fully connected rule part neuron that combines fuzzy control and a neural network.
ニューロを用いた情報処理にあっては、対象とするシス
テムの入カバターンと、その入カバターンに対する望ま
しい出カバターンとの組でなる学習データを階層型ニュ
ーラルネットワークに提示して学習させ適応的な処理を
行なわせる。この学習処理には特にバックプロパゲーシ
ョン法と呼ばれる処理方式が、その実用性の高さから注
目されている。In information processing using neurons, learning data consisting of a set of input patterns of the target system and desired output patterns for that input pattern is presented to a hierarchical neural network to learn and perform adaptive processing. Let them do it. In particular, a processing method called backpropagation method is attracting attention due to its high practicality in this learning process.
一方、ファジィ理論は、1960年にZadehにより
提案され、温度が「低い」とか「高い」といった人間が
行なっている曖昧さに基づく思考や判断の過程をモデル
化する理論である。このファジィ理論では曖昧さを表わ
すためにメンバシップ関数を導入したファジィ集合論を
数学的基礎としている。On the other hand, fuzzy theory was proposed by Zadeh in 1960, and is a theory that models the process of thinking and judgment based on ambiguity that humans make, such as whether the temperature is "low" or "high." This fuzzy theory is mathematically based on fuzzy set theory, which introduces membership functions to represent ambiguity.
ファジィ理論の応用としては、1974年にMaqmd
an iがスチームエンジンの制御に用いたのを最初に
、各種のファジィ制御が行なわれている。As an application of fuzzy theory, in 1974 Maqmd
Various types of fuzzy control have been used since ani was first used to control steam engines.
このファジィ制御を実行するシステムは不確定なものを
扱うものであることから、制御アルゴリズムの調整や変
更等に対して適応的に対応できるような構成にしていく
必要がある。Since the system that performs this fuzzy control handles uncertain things, it is necessary to have a configuration that can adaptively respond to adjustments and changes in the control algorithm.
[従来の技術]
一般に、ファジィ制御システムを構築するには、以下の
ような手続きを取る。[Prior Art] Generally, the following procedure is taken to construct a fuzzy control system.
■熟練操作員の持つ「もし温度が高ければ、火を小さく
する」等の曖昧な制御規則を得る。■Obtain ambiguous control rules such as ``If the temperature is high, reduce the fire'' held by experienced operators.
■制御規則の中の言葉(命題)の意味をメンバシップ関
数という形で定量化し、制御規則をrlF−THEN〜
」
型のルール表現で記述する。■ Quantify the meaning of the words (propositions) in the control rules in the form of membership functions, and convert the control rules into rlF-THEN~
” Described using a type rule expression.
■シミュレーションや現地テストによる検査を行なう。■Conduct inspections through simulations and on-site tests.
■検査結果を評価し、メンバシップ関数や規則の改良を
行なう。■Evaluate inspection results and improve membership functions and rules.
さらに詳細に説明すると、ファジィ制御ルールは、例え
ば、
rif x、 is big and X2 is s
mall thenV+ is big」
と記述される。To explain in more detail, the fuzzy control rules are, for example, rif x, is big and X2 is s
"mall thenV+ is big".
ここでIF部は前件部と呼ばれ、温度等の制御状態量(
制御入力)についての条件を記述する部分である。また
、THEN部は後件部と呼ばれ、操作端等の制御操作量
(制御出力)についての条件を記述する部分である。Here, the IF part is called the antecedent part, and is the control state quantity such as temperature (
This is the part that describes the conditions for (control input). Further, the THEN section is called a consequent section, and is a section that describes conditions regarding the control operation amount (control output) of the operating end, etc.
ファジィ制御では、対象システムの制御論理として用意
される複数のファジィ制御ルールを管理すると共に、各
ファジィ制御ルール中に記述される「大きい」とか「小
さい」とかいうような曖昧な言語表現の意味をメンバシ
ップ関数として定量化して管理する。Fuzzy control manages multiple fuzzy control rules prepared as the control logic of the target system, and also manages the meaning of ambiguous linguistic expressions such as "large" or "small" written in each fuzzy control rule. Quantify and manage it as a ship function.
完成したファジィ制御システムの制御手順は次のように
なる。The control procedure of the completed fuzzy control system is as follows.
■制御対象から温度等の制御状Lq量が入力されると、
設定している前件部のメンバシップ関数に従って真理値
を算出する。■When the controlled Lq quantity such as temperature is input from the controlled object,
Calculates the truth value according to the membership function of the antecedent part that is set.
■次に、最小値を選択する等の前件部演算に従って、各
ファジィ制御ルールにおける後件部に対しての適用値を
決定する処理を実行する。(2) Next, in accordance with the antecedent computation such as selecting the minimum value, a process is executed to determine the value to be applied to the consequent in each fuzzy control rule.
例えば、
r x、 is big」 の真理値=0.8’ X
2 is small Jの真理値=0.5である場合
には、最小値を選択する前件部演算ニ従って、真理値=
0.5をそのファジィ制御ルールの後件部に対しての適
用値として出力するように処理する。For example, the truth value of "r x, is big" = 0.8'
2 is small If the truth value of J = 0.5, then the antecedent operation that selects the minimum value, therefore, the truth value =
Processing is performed so that 0.5 is output as the applied value to the consequent of the fuzzy control rule.
■続いて、同一の制御操作量となる後件部のメンバーシ
ップ関数に対する前件部からの入力値(適用値)から出
力適用値を決定する処理を実行する。(2) Next, a process is executed to determine an output application value from the input value (applied value) from the antecedent part to the membership function of the consequent part, which has the same amount of control operation.
例えば、2つのファジィ制御ルールにより、r yl
is bigJの適用値=0.5’ V+ is bi
g」の通用値−0,6が得られた場合、最大値を選択す
る後件部演算に従って、適用値−0,6を選択決定する
。For example, with two fuzzy control rules, r yl
Application value of is bigJ = 0.5' V+ is bi
If the common values of "g" are obtained, the applicable values -0, 6 are selected and determined according to the consequent operation that selects the maximum value.
■続いて、決定された適用値に従って制御操作量のメン
バーシップ関数を縮小(または拡大)すると共に、同一
の制御操作量についてのメンバーシップ関数の関数和の
図形の重心を求める等の処理を行なってファジィ推論値
である制御操作量を算出して出力する。■Next, the membership function of the control operation amount is reduced (or expanded) according to the determined applied value, and the center of gravity of the figure of the sum of the membership functions for the same control operation amount is calculated. The control operation amount, which is a fuzzy inference value, is calculated and output.
ところで、ファジィ制御ルールは、熟練操作員の持つ知
識に従って生成されることを予定しており、最初から最
適制御を実現できるファジィ制御ルールを確立すること
は困難である。従って、生成したファジィ制御ルールを
シミュレーションや現地テストにより評価しながら、試
行錯誤的に改良していくという手順をとらざるを得ない
。By the way, fuzzy control rules are planned to be generated according to the knowledge possessed by a skilled operator, and it is difficult to establish fuzzy control rules that can realize optimal control from the beginning. Therefore, it is necessary to evaluate the generated fuzzy control rules through simulations and on-site tests, and to improve them through trial and error.
そこで、本願発明者等にあっては、ニューロの適用によ
りファジィ制御ルールを実現する階層ネットワーク構造
、すなわちルール部ブリワイヤニューロを使用した適用
型のファジィ制御システムを提案している(特願平2−
60256号「階層ネットワーク構成データ処理装置お
よびデータ処理システム」)。すなわち、ルール部プリ
ワイヤニューロは、前件部メンバシップ関数実現部、ル
ール部および後件部メンバシップ関数で成るファジィ制
御ルールを実現する階層ネットワーク構成をもつ。Therefore, the inventors of the present application have proposed a hierarchical network structure that realizes fuzzy control rules by applying neurons, that is, an adaptive fuzzy control system using a rule section Briwire Neuro (Patent Application No. −
No. 60256 "Hierarchical network configuration data processing device and data processing system"). That is, the rule part prewire neuro has a hierarchical network configuration that realizes a fuzzy control rule consisting of an antecedent part membership function realization part, a rule part, and a consequent part membership function.
このルール部ブリワイヤニューロによるファジィ制御ル
ールの自動抽出を考えると、以下のような手続きを取れ
ばよい。Considering the automatic extraction of fuzzy control rules by this rule section Briwire Neuro, the following procedure may be taken.
■ルール部プリワイヤニューロのメンバシップ関数を設
定する。■Set the membership function of the rule section prewire neuro.
■ルール部ブリワイヤニューロに、対象システムの入カ
バターンとその入カバターンに対する望ましい出カバタ
ーンの組とを提示して学習させる。■The rule section Briwire Neuro is presented with an input pattern of the target system and a set of desirable output patterns for that input pattern, and is made to learn.
■ルール部の結線の重みを解析することにより対象シス
テムについての最適ファジィ制御ルールを抽出する。■Extract the optimal fuzzy control rule for the target system by analyzing the weights of connections in the rule section.
しかしながら、ルール部全結合ニューロについてファジ
ィ制御ルールを抽出させるために行なわれる学習は、前
件部メンバシップ関数部、ルール部および後件部メンハ
シツブ関数実現部の重みを含め、どのようにして学習を
行なわせるかの学習方法が決まっておらず、ルール部全
結合ニューロの性能を最大限に引き出すことのできる効
率の良い学習法の構築が必要となっている。However, the learning that is performed to extract fuzzy control rules for the rule part fully connected neuron involves the weights of the antecedent membership function part, the rule part, and the consequent part menhashitube function realization part. The learning method for making the robot perform this action has not yet been determined, and there is a need to develop an efficient learning method that can maximize the performance of the rule-part fully connected neuron.
本発明は、このような状況に鑑みてなされたもので、対
象システムに適合した制御を行なうための学習を効率良
く行なうことのできるルール部全結合ニューロの学習方
法を提供することを目的としている。The present invention was made in view of the above situation, and an object of the present invention is to provide a learning method for a fully connected rule section neuron that can efficiently perform learning for controlling a target system. .
第1図は本発明の原理説明図である。 FIG. 1 is a diagram explaining the principle of the present invention.
本発明は、前件部メンバシップ関数実現部10.1また
は複数階層でなるルール部12および後件部メンバシッ
プ関数実現部14でなる階層ネットワーク構造を有し、
ルール部12の内部の層同士の間および、前段の前件部
メンハシノブ関数実現部10および後段の後件部メンハ
シノブ関数実現部14との間で全ユニット間を内部結合
して成り、入力される制御状態量(X+ 、Xz 、
・・・X、、)に対応する1または複数の制御操作量
(Y)を出力するルール部全結合ニューロを対象とする
。The present invention has a hierarchical network structure consisting of an antecedent membership function realization unit 10.1 or a rule unit 12 having multiple layers and a consequent membership function realization unit 14,
All units are internally connected between the internal layers of the rule part 12 and between the antecedent part Menhashinobu function realization part 10 of the preceding stage and the consequent part Menhashinobu function realization part 14 of the latter stage, and are inputted. Control state quantities (X+, Xz,
...
このようなルール部全結合ニューロの学習方法として本
発明にあっては、
〈第1過程〉
前件部メンバシップ関数実現部10、ルール部12およ
び後件部メンバシップ関数実現部14の各々に重みおよ
び閾値の初期値を設定する。In the present invention, as a learning method for such a rule part fully connected neuron, <First process> Each of the antecedent part membership function realization part 10, the rule part 12, and the consequent part membership function realization part 14 is Set initial values of weights and thresholds.
〈第2過程〉
予め準備された学習データを使用してルール部12の重
みを学習させた後、前件部メン/Nシ・ノブ関数実現部
10とルール部12の重みを学習させる。<Second Process> After learning the weights of the rule part 12 using the learning data prepared in advance, the weights of the antecedent part Men/Nshi knob function realization part 10 and the rule part 12 are learned.
〈第3過程〉
予め準備された学習データを使用してルール部12の重
みと前件部メンバシップ関数実現部10とを同時に学習
させる。<Third Process> The weights of the rule unit 12 and the antecedent membership function realizing unit 10 are simultaneously trained using training data prepared in advance.
とする処理過程を備えた学習方法を構成する。A learning method with a processing process is constructed.
ここで第1過程の重みおよび閾値の初期値の設定方法と
しては、予め持っている知識(図中は「先験的知fla
jとして示す)に基づいて作成された初期値を設定する
。Here, the method for setting the initial values of the weights and thresholds in the first process is based on prior knowledge (in the figure, "a priori knowledge" is used).
(denoted as j).
また、第1過程の重みおよび閾値の初期値の他の設定方
法としては、乱数を用いて作成された初期値を設定する
。Another method for setting the initial values of the weights and thresholds in the first step is to set initial values created using random numbers.
さらに第1過程の重みおよび閾値の初期値の設定は、予
め持っている知識で設定可能なものは該知識で初期設定
し、その他は乱数を用いて初期値を設定する場合もある
。Further, in setting the initial values of the weights and thresholds in the first process, those that can be set using knowledge held in advance are initialized using this knowledge, and other initial values may be set using random numbers.
さらにまた、第2過程および第3過程の学習開始時には
、前件部メンバシップ関数実現部10、ルール部12で
なる階層ネットワーク構造の結線毎に学習の有無を決め
る学習フラグを設定し、結線に設定された学習フラグに
基づいて重み値を学習処理により最適化する。Furthermore, at the start of learning in the second and third processes, a learning flag is set for each connection in the hierarchical network structure consisting of the antecedent membership function realization unit 10 and the rule unit 12, and the learning flag is set for each connection. The weight values are optimized through learning processing based on the set learning flag.
このような構成を備え第3図によって定義されるような
ルール部全結合ニューロについての本発明発明による学
習方法によれば、次の作用が得られる。According to the learning method according to the present invention for the rule section fully connected neuron having such a configuration and defined in FIG. 3, the following effects can be obtained.
まず、対象システムのファジィ制御ルールを実現する前
件部メンバシップ関数実現部、ルール部および後件部メ
ンバシップ関数実現部で成る階層ネットワーク構成のル
ール部全結合ニューロに対し、予め持っている知識に基
づいた重みおよび閾値の初期値の設定または乱数に基づ
いた重みおよび閾値の初期値の設定あるいは両者の併用
を行なつ。First, we need to know in advance about the rule part fully connected neuron, which has a hierarchical network configuration consisting of an antecedent membership function realization part, a rule part, and a consequent membership function realization part, which realize the fuzzy control rules of the target system. Initial values of weights and thresholds are set based on random numbers, initial values of weights and thresholds are set based on random numbers, or both are used in combination.
続いて、学習処理を起動し、学習用の入カバターンをル
ール部全結合ニューロに提示し、ルール部全結合ニュー
ロからの出カバターンが、入カバターンに対し望ましい
出カバターンとなる学習出カバターン(教師信号)に略
一致するように初期設定した重み値を修正する、例えば
バックプロパゲーション法による学習を行なう。Next, the learning process is started, the input pattern for learning is presented to the rule part fully connected neuron, and the output pattern from the rule part fully connected neuron is a learned output pattern (teacher signal ), learning is performed using, for example, a backpropagation method.
また、予め持っている知識を導入した前件部メンバシッ
プ関数実現部、および後件部メンバシップ関数実現部の
重みおよび閾値の初期設定により、学習効率を高めるこ
とができる。Furthermore, learning efficiency can be improved by initializing the weights and thresholds of the antecedent membership function realization section and the consequent membership function realization section into which knowledge held in advance is introduced.
さらに、乱数を利用した前件部メンバシップ関数実現部
、ルール部および後件部メンバシップ関数実現部の重み
および閾値の初期設定により、ネットワークの性能を最
大限引き出すことができる。Furthermore, the performance of the network can be maximized by initializing the weights and thresholds of the antecedent membership function implementation section, the rule section, and the consequent membership function implementation section using random numbers.
〔実施例]
第2図は本発明によるルール部全結合ニューロの学習方
法の第1の実施例としての処理手順を示した学習動作フ
ロー図である。この第2図の手順による学習方法の対象
となるルール部全結合ニューロは、例えば第5図に示す
ような前件部メンバシップ関数実現部10、ルール部1
2、および後件部メンバシップ関数実現部14(重心計
算実現部18を含む)で成るファジィ制御ルールを実現
するための階層ネットワーク構造を有する。[Embodiment] FIG. 2 is a learning operation flowchart showing a processing procedure as a first embodiment of a learning method for a fully connected rule part neuron according to the present invention. The rule part fully connected neuron that is the object of the learning method according to the procedure shown in FIG.
2, and a consequent membership function implementation unit 14 (including a centroid calculation implementation unit 18), the system has a hierarchical network structure for realizing fuzzy control rules.
第2図の学習処理にあっては、次のステップS1〜S6
から成る処理を行なう。In the learning process in FIG. 2, the following steps S1 to S6
Performs processing consisting of.
〈ステップSl> 前件部メンバシップ関数実現部10の重みCab。<Step Sl> Weight Cab of the antecedent membership function realization unit 10.
Cbcを与えられたメンバシップ関数を実現するように
予め持っている知識を導入して初期設定する。Initial settings are made by introducing knowledge that is previously held so as to realize a membership function given Cbc.
くステップ32>
ルール部12の重みCcd 、 Cdeを乱数を用い
て初期設定する。Step 32> The weights Ccd and Cde of the rule section 12 are initialized using random numbers.
〈ステップS3>
後件部メンバシップ関数実現部14の重みCefを与え
られたメンバシップ関数を実現するように予め持ってい
る知識を導入して初期設定する。<Step S3> Preliminary knowledge is introduced and initialized so as to realize the membership function given the weight Cef of the consequent part membership function realization unit 14.
〈ステップ34>
重心計算実現部18の重みCfgを、重心計算を実現す
るように初期設定する。尚、第5図では後件部メンバシ
ップ関数実現部14に含まれている。<Step 34> The weight Cfg of the center of gravity calculation realization unit 18 is initially set to realize center of gravity calculation. Incidentally, in FIG. 5, it is included in the consequent membership function realization unit 14.
くステップS5>
学習処理を行なうフェーズ毎のグループ対応表(学習対
象となるニューロンのグループ、すなわち階層を指定す
るテーブル)および各グループの結線対応表(ユニット
のグループに入力する結線のグループを示すテーブル)
の設定を行なう。Step S5> A group correspondence table for each phase in which the learning process is performed (a table that specifies the group of neurons to be learned, that is, a hierarchy) and a connection correspondence table for each group (a table that indicates the group of connections to be input to the group of units) )
Configure settings.
〈ステップ36>
学習スケジューラを起動してパックプロパゲーション法
により学習処理を行なう。<Step 36> The learning scheduler is activated to perform learning processing using the pack propagation method.
以下、第2図の動作フローに示したステップS1〜S6
をそれぞれに分けて詳細に説明する。Hereinafter, steps S1 to S6 shown in the operation flow of FIG.
will be explained in detail separately.
(ルール部全結合ニューロの構成)
本発明の対象となるルール部全結合ニューロは、例えば
、第5図に示すファジィ制御ルールの実現可能な階層ネ
ットワーク構成を有する。(Configuration of rule section fully connected neuron) The rule section fully connected neuron that is the object of the present invention has, for example, a hierarchical network configuration that can realize the fuzzy control rule shown in FIG.
第5図において、各部に示したノードは1つの基本ユニ
ットを構成しており、基本ユニットは黒丸で示すシグモ
イド関数ユニットと、白丸で示す線形関数ユニットの2
種が使用されている。In Fig. 5, the nodes shown in each part constitute one basic unit, and the basic unit consists of two units: a sigmoid function unit shown by a black circle, and a linear function unit shown by a white circle.
seeds are used.
第4図は第5図のルール部全結合ニューロにおける基本
ユニットの構成を取り出して示したものである。FIG. 4 shows the configuration of the basic unit in the rule part fully connected neuron of FIG. 5.
第4図において、基本ユニット20は多大力1出力系を
構成しており、複数の入力に対し各々の内部結合の重み
値を乗算する乗算部22と、乗算部22の乗算結果を加
算する加算部24と、加算部24の出力に閾値処理を施
す閾値処理部26とで構成される。In FIG. 4, the basic unit 20 constitutes a multi-power single output system, and includes a multiplication section 22 that multiplies a plurality of inputs by the weight value of each internal connection, and an addition section that adds the multiplication results of the multiplication section 22. and a threshold processing section 26 that performs threshold processing on the output of the addition section 24.
ここで前段層をh層、後段層をi層とすると、乗算部2
2と加算部24は下記の(1)式の演算を実行し、また
閾値処理部26では下記の(2)式のの演算を実行する
。Here, if the first layer is the h layer and the second layer is the i layer, then the multiplier 2
2 and the addition unit 24 executes the calculation of equation (1) below, and the threshold processing unit 26 executes the calculation of equation (2) below.
Xpi−ΣyDhW1h (1
)但し、
h : h層のユニット番号
i : 1層のユニット番号
p :入力信号のパターン番号
θ1: i層の1番ユニットの閾値
Wih: h s層間の内部結合の重み値x、i:
h層の各ユニットからi層の1番ユニットへの入力
の積和
3’phi P番目パターンの入力信号に対するh層
の1番ユニットからの出力
ypi: I’番目パターンの入力信号に対するi層の
1番ユニットからの出力
ここで前記(2)式はシグモイド関数として知られてお
り、第5図のルール部全結合ニューロに示した黒丸の基
本ユニットの閾値処理部26が前記(2)式のシグモイ
ド関数に従った閾値処理を行なう。Xpi−ΣyDhW1h (1
) However, h: Unit number of h layer i: Unit number of 1st layer p: Input signal pattern number θ1: Threshold value of the 1st unit of i layer Wih: h Weight value of internal connection between s layers x, i:
Sum of products 3'phi of inputs from each unit of the h layer to the 1st unit of the i layer. Output ypi from the 1st unit of the h layer for the input signal of the Pth pattern: Output from Unit 1 Here, the above equation (2) is known as a sigmoid function, and the threshold processing section 26 of the basic unit indicated by a black circle in the rule section fully connected neuron in Fig. 5 calculates the above equation (2). Performs threshold processing according to the sigmoid function.
これに対し閾値処理部26に
)’pi=Xpi
となる線形関数を設定したものが第5図における白丸の
線形関数ユニットとなる。但し、前件部メンバシップ関
数実現部10の最初のユニットとなる入力部は除(。こ
の第4図の基本ユニットを構成するハードウェアとして
は特願昭63−216865号の「ネットワーク構成デ
ータ処理装置Jが使用できる。On the other hand, the linear function units shown by white circles in FIG. 5 are set in the threshold value processing section 26 with a linear function such that 'pi=Xpi. However, the input section, which is the first unit of the antecedent membership function realization section 10, is excluded (the hardware constituting the basic unit in FIG. Device J can be used.
再び第5図を参照してルール部全結合ニューロの各部の
構成を説明する。Referring again to FIG. 5, the configuration of each part of the rule part fully connected neuron will be explained.
まず、前件部メンバシップ関数実現部10は、各入力変
数X、 、X2を入力とし、入力変数X〜X、、のメン
バシップ関数のグレード値を出力する。図では簡単のた
め各メンバシップ関数は1変数関数としているが、多変
数関数であってもよい。First, the antecedent membership function realization unit 10 receives each input variable X, , X2 as input, and outputs the grade value of the membership function of the input variables X to X, . In the figure, each membership function is a one-variable function for simplicity, but it may be a multi-variable function.
つまり変数XIとX2を入力として、 X1&Xz (SA) というメンバシップ関数であっても良い。In other words, with variables XI and X2 as input, X1 & Xz (SA) It may also be a membership function.
ルール部は階層型ニューラルネットワークである。入力
変数X、、X2のメンバシップ関数のグレード値を入力
として、出力変数Yのメンバシップ関数のグレード値を
出力とする。The rule part is a hierarchical neural network. The grade value of the membership function of input variables X, , X2 is input, and the grade value of the membership function of output variable Y is output.
後件部メンバシップ関数実現部14(重心決定部を含む
)は、出力変数のメンバシップ関数y(SA)〜y (
LA)のグレード値を入力して、出力変数Yの値を出力
する。The consequent membership function realization unit 14 (including the centroid determination unit) calculates the membership functions y(SA) to y(
Input the grade value of LA) and output the value of the output variable Y.
また第5図では各ユニットを1つのニューロンとして説
明しているが、ルール部以外の部についてユニットの機
能が特定できているものはニューロンとせずにユニット
機能を実現するゲート回路、演算器等としてもよい。In addition, in Figure 5, each unit is explained as one neuron, but parts other than the rule part whose functions can be specified are not treated as neurons but as gate circuits, arithmetic units, etc. that realize the unit function. Good too.
第5図においては入力X、、X2の2つを与えて制御出
力Yを得る場合を例にとっており、同図を参照して各部
の構成を詳細に説明すると次のようになる。In FIG. 5, a case is taken as an example in which two inputs, X, .
入力部16は分離ユニット28−1.28−2で構成さ
れ、入力Xr、Xzを2つに分けて前件部メンバシップ
関数実現部10に与える。前件部メンバシップ関数実現
部10は4つのシグモイド関数ユニット30−1〜30
−4と各シグモイド間数ユニッ)30−1〜30−4の
出力を入力した同じく4つの線形関数ユニット32−1
〜32−3で構成される。The input section 16 is composed of separation units 28-1 and 28-2, which divides the inputs Xr and Xz into two and supplies them to the antecedent membership function realization section 10. The antecedent membership function realization unit 10 includes four sigmoid function units 30-1 to 30.
-4 and each sigmoid number unit) 30-1 to 30-4 are input to the same four linear function units 32-1.
~32-3.
ルール部12はシグモイド関数ユニット34−1〜34
−5を備え、各シグモイド関数ユニット34−1〜34
−5に対する前件部メンバシップ関数実現部10からは
総てのユニットに対して結線が行なわれている。シグモ
イド関数ユニット34−1〜34−5の出力は後件部演
算を行なう線形関数ユニッ)36−1〜36−2との間
で各ユニット間が総て結線されている。The rule section 12 includes sigmoid function units 34-1 to 34.
-5, each sigmoid function unit 34-1 to 34
The antecedent membership function realization unit 10 for -5 is connected to all units. The outputs of the sigmoid function units 34-1 to 34-5 are all connected to the linear function units 36-1 to 36-2 which perform consequent calculations.
後件部メンバシップ関数実現部14は9つの線形関数ユ
ニッ)38−1〜38−9で構成されており、ルール部
12から出力される2種の出力値(グレード値)に基づ
いてメンバシップ関数を縮小(または拡大)すると共に
縮小した2種のメンバシップ関数の関数和を算出する。The consequent membership function realization unit 14 is composed of nine linear function units) 38-1 to 38-9, and determines membership based on two types of output values (grade values) output from the rule unit 12. The function is reduced (or enlarged) and the function sum of the two reduced membership functions is calculated.
さらに重心計算実現部18は重心決定要素出力装置40
と重心算出装置42で構成され、後件部メンバシップ関
数実現部14からの出力の重み付は総和を重心決定要素
出力装置40に設けられた2つの線形関数ユニッl−4
0−1,40−2のそれぞれで演算して2つの重心算出
要素Y、、Y。Furthermore, the center of gravity calculation realization unit 18 is configured to output device 40 for determining the center of gravity.
The weighting of the output from the consequent membership function realization unit 14 is performed by two linear function units l-4 provided in the center of gravity determining element output device 40.
0-1 and 40-2 respectively to calculate the two centroid calculation elements Y,,Y.
を求め、最終的に重心算出装置42で2つの重心算出要
素YI、Yzから重心を算出して制御出力Yを生ずる。Finally, the center of gravity calculation device 42 calculates the center of gravity from the two center of gravity calculation elements YI and Yz to generate the control output Y.
第6図は、第5図のルール部全結合ニューロについて、
本発明による学習方法を実現するためのニューロングル
ープと結線グループを示す。Figure 6 shows the rule part fully connected neuron in Figure 5.
4 shows neuron groups and connection groups for implementing the learning method according to the present invention.
第6図において、ニューロングループはGa−Ggの7
つであるが、この内、入力部のニューロングループGa
と重心計算実現部18のニューロングループGgの2つ
については単なる分離および加算合成を行なうにすぎな
いことから、学習対象からは除いており、また、本発明
がルール部と前件部メンバシップ関数実現部を学習させ
るものであることから、本発明の学習対象に入るニュー
ロングループはGb、Gc、Gd、Geの4つとなる。In Figure 6, the neuron group is Ga-Gg 7
However, among these, the input neuron group Ga
and the neuron group Gg of the center of gravity calculation implementation unit 18 are excluded from the learning target because they are simply separated and added and combined. Since the realization unit is to be trained, there are four neuron groups to be studied in the present invention: Gb, Gc, Gd, and Ge.
一方、各ニューロングループを結ぶ結線グループはCa
t+−Cfgの6つであり、学習対象となるニューロン
グループの前段に位置する入力結線の重み値をパックプ
ロパゲーション法により修正する学習を行なうことから
、結線グループCab−Cdeが本発明による学習処理
の対象となる。On the other hand, the connection group connecting each neuron group is Ca
t+-Cfg, and since learning is performed to correct the weight value of the input connection located in the previous stage of the neuron group to be learned by the pack propagation method, the connection group Cab-Cde is subject to the learning process according to the present invention. subject to.
この第5.6図に示した構成のルール部全結合ニューロ
を対象とした第2図の動作フローによる学習処理につき
、まず各部に対する重み値の初期設定を説明すると次の
ようになる。Regarding the learning process according to the operation flow of FIG. 2 for the rule section fully connected neuron having the configuration shown in FIG. 5.6, the initial setting of weight values for each section will be explained first as follows.
(前件部メンバシップ関数実現部の初期設定)この前件
部メンバシップ関数実現部10に対する重み値の初期設
定は第6図に示す前件部メンバシップ関数実現部の結線
グループCabおよびCbcにおける各結線の重みを、
与えられたメンバシップ関数を実現するように初期設定
する。(Initial setting of the antecedent membership function realization unit) The initial setting of the weight value for the antecedent membership function realization unit 10 is performed in the connection groups Cab and Cbc of the antecedent membership function realization unit shown in FIG. The weight of each connection is
Initialize to implement the given membership function.
第7図は第5図の前件部メンバシップ関数実現部10に
おける制御入力X、側を取り出して示したものである。FIG. 7 shows an extracted side of the control input X in the antecedent membership function realization unit 10 of FIG.
第7図において、シグモイド関数ユニット301.30
−2より出力される出力値yはy−1/ (1+e−(
W”−”) (3)で表わされる。In FIG. 7, the sigmoid function unit 301.30
The output value y output from -2 is y-1/ (1+e-(
W"-") (3).
本発明の前件部メンバシップ関数実現部10に対する重
み値の初期設定にあっては、予め持っている知識に基づ
き、例えばシグモイド関数ユニット30−1の入力結線
に重み値Wとして、Wな−20
を設定し、且つシグモイド関数ユニット30−1に閾値
θとして、θ=−10を設定する。In the initial setting of the weight value for the antecedent membership function realization unit 10 of the present invention, based on the knowledge that is available in advance, for example, the weight value W is set to the input connection of the sigmoid function unit 30-1, such as W. 20 is set, and θ=-10 is set as the threshold value θ in the sigmoid function unit 30-1.
またもう1つのシグモイド関数ユニット30−2の入力
結線には重み値Wとして、
を設定し、同時にシグモイド関数ユニット302に閾値
θとして、
θ=10
を設定する。尚、線形関数ユニッ)32−L32−2の
入力結線の重み値は重み初期値lを設定している。Further, the input connection of the other sigmoid function unit 30-2 is set as the weight value W, and at the same time, the threshold value θ is set as θ=10 in the sigmoid function unit 302. Note that the weight value of the input connection of the linear function unit 32-L32-2 is set to the initial weight value l.
このようにシグモイド関数ユニット30−1に、W〈0
θ〈0
となる重み値および閾値を初期設定した場合には、第8
図の特性曲線44に示す制御入力X1に対するユニット
出力値X、(SS)、すなわち制御入力Xが大きくなる
とユニット出力値X、(SS)が小さくなるという関数
形状のメンバシップ関数の真理値算出機能を設定するこ
とができる。In this way, in the sigmoid function unit 30-1, W〈0
When the weight value and threshold value are initially set to θ〈0, the eighth
Truth value calculation function of a membership function with a function shape such that the unit output value X, (SS) for the control input X1 shown in the characteristic curve 44 in the figure, that is, the unit output value X, (SS) decreases as the control input X increases. can be set.
またシグモイド関数ユニット30−2に、W〉0
θ〉0
となる重み値および閾値を初期設定することで第7図の
特性曲線46に示す制御入力X、に対するユニット出力
値X、(LA) 、すなわち制御入力Xが大きい程ユニ
ット出力値X、(LA)が大きくなるという関数形状の
メンバシップ関数の真理値を算出する機能が実現できる
。Also, in the sigmoid function unit 30-2, W>0
By initially setting the weight value and threshold value such that θ〉0, the unit output value X, (LA) for the control input X shown in the characteristic curve 46 in FIG. It is possible to realize a function of calculating the truth value of a membership function having a function shape in which (LA) becomes large.
この第7図に示すシグモイド関数ユニット301.30
−2に対する重み値および閾値の初期設定は、前件部メ
ンバシップ関数実現部10における残りのシグモイド間
数ユニッl−30−2,304側についても所望の前件
部メンバシップ関数を実現するように予め持っている知
識に基づいて初期設定する。Sigmoid function unit 301.30 shown in FIG.
The initial setting of the weight value and threshold for -2 is such that the desired antecedent membership function is also realized for the remaining sigmoid interval number units 1-30-2 and 304 in the antecedent membership function realizing unit 10. Initial settings are made based on prior knowledge.
(ルール部の初期設定)
第3図のルール部12に対する重み値の初期設定は、第
6図に示すルール部に含まれる結線グループCcdおよ
びCdeに属する各結線の重み値を、予め持っている知
識を導入して一定の条件の基で発生した乱数(例えば+
1〜−1の範囲)を用いて初期設定する。(Initial setting of the rule section) The initial setting of the weight value for the rule section 12 shown in FIG. 3 has in advance the weight value of each connection belonging to connection groups Ccd and Cde included in the rule section shown in FIG. Random numbers generated under certain conditions by introducing knowledge (for example, +
1 to -1).
ルール部12におけるシグモイド関数ユニット34−1
〜34−8の入力結線に初期設定する重み値とユニット
自体に設定する閾値に基づくファシイ論理演算の関数を
説明すると次のようになる。Sigmoid function unit 34-1 in the rule section 12
The function of the facy logic operation based on the weight value initially set to the input connection of ~34-8 and the threshold value set to the unit itself will be explained as follows.
第9図はルール部12に設けられる1つのシグモイド関
数ユニット34を取り出して示したもので、前段に位置
する前件部メンバシップ関数実現部10よりグレード値
X、(SS)〜X2 (LA)が入力し、積和演算およ
び閾値処理により出力値yのグレード値y (SS)〜
y (LA)を生ずる。FIG. 9 shows one sigmoid function unit 34 provided in the rule section 12, in which the grade value X, (SS) to X2 (LA) is obtained from the antecedent membership function realization section 10 located in the previous stage. is input, and the grade value y (SS) of the output value y is calculated by product-sum calculation and threshold processing.
y (LA).
上記 X+(33)=)[、、L (LA)=xzx
z (SS)=X3 、Xz (LA)=X4とし
たとき第9図のシグモイド関数ユニット34より出力さ
れる出力値yは、
S = WXI−X I+ Wxz・x2+WX、・X
3+Wx4・x3−θ (4)y=1
/ (1+e−”) (5)として
算出される。この(5)式で与えられるユニット出力値
yは、入力結線の重み値WX、〜WX4および閾値θを
任意に設定することで適宜の関数形状を実現することが
できる。Above X+(33)=)[,,L (LA)=xzx
When z (SS)=X3 and Xz (LA)=X4, the output value y output from the sigmoid function unit 34 in FIG. 9 is as follows: S = WXI-X I+ Wxz・x2+WX,・X
3+Wx4・x3−θ (4)y=1
/ (1+e-") (5). The unit output value y given by this equation (5) can be calculated using an appropriate function by arbitrarily setting the input connection weight values WX, ~WX4 and the threshold value θ. shape can be realized.
尚、ルール部の最終段に設けられた線形関数ユニット3
6−1.36−2に対する結線の重み値は1に初期設定
されており、また閾値処理については線形関数であり、
閾値θ−0が設定される。Note that the linear function unit 3 provided at the final stage of the rule section
The weight value of the connection for 6-1.36-2 is initially set to 1, and the threshold processing is a linear function,
A threshold value θ-0 is set.
(後件部メンバシップ関数実現部の初期設定)第5図の
後件部メンバシップ関数実現部14に対する重み値の初
期設定は、第6図の結線グループCefに属する結線の
重み値を予め持っている知識に基づき、与えられたメン
バシップ関数を実現するように初期設定する。(Initial setting of consequent part membership function realization part) Initial setting of the weight value for the consequent part membership function realization part 14 in FIG. Initial settings are made to realize the given membership function based on the knowledge of the given membership function.
第10図は後件部メンバシップ関数実現部14に対する
重み値の初期設定を具体的に示した説明図である。FIG. 10 is an explanatory diagram specifically showing the initial setting of weight values for the consequent membership function realization unit 14.
第10図において、後件部メンバシップ関数実現部14
に設けられた9つの線形関数ユニット38−1〜38−
9に対しては、前段のルール部12の線型関数ユニット
36−1〜36−2より図に示すように結線入力が行な
われている。この9つノユニッ)38−1〜38−9は
、制御出力Yの練直線上のO〜1の範囲の点に等間隔に
対応している。In FIG. 10, the consequent membership function realization unit 14
Nine linear function units 38-1 to 38- provided in
9, the linear function units 36-1 to 36-2 of the rule section 12 at the previous stage perform connection input as shown in the figure. These nine units 38-1 to 38-9 correspond to points in the range O to 1 on the control output Y training line at equal intervals.
この線形関数ユニット38−1〜38−9に対する入力
結線に対する重み値の初期設定は、ルール部12のユニ
ッ)36−1からの出力y (SS)の結線重み値につ
いては、右側に示す横軸を制御出力Y、縦軸をユニット
出力値としたグラフの特性曲線46に従ってユニット3
8−1側からユニット38−9側に重み値、
1、 1. 1.0.75.0.5.0.25. O
,0,0を初期設定する。The initial setting of the weight values for the input connections to the linear function units 38-1 to 38-9 is as follows: unit 3 according to the characteristic curve 46 of the graph where is the control output Y and the vertical axis is the unit output value.
Weight value from 8-1 side to unit 38-9 side, 1, 1. 1.0.75.0.5.0.25. O
,0,0 are initialized.
逆にユニット出力y (LA)を生ずるルール部12の
線形関数ユニッl−36−2からの結線については、特
性曲線48に従ってユニッ)38−1から38−9に向
けて重み値、
0、 0. 0.0.25.0.5. 0.75. 1
. 1. 1を初期設定する。Conversely, for the connection from the linear function unit 1-36-2 of the rule section 12 that produces the unit output y (LA), the weight values 0, 0 are applied from units 38-1 to 38-9 according to the characteristic curve 48. .. 0.0.25.0.5. 0.75. 1
.. 1. Initialize 1.
さらに、線形関数ユニット38−1〜38−9は非線形
閾値処理を行なわず、閾値θはθ−0に設定する。Furthermore, the linear function units 38-1 to 38-9 do not perform nonlinear threshold processing, and the threshold value θ is set to θ-0.
このような後件部メンバシップ関数実現部14における
重み値の初期設定により、ルール部の線形関数ユニット
36−1.36−2から出力されたユニット出力値)’
(SS)およびy (LA)は、重み初期値の乗算に
より縮小された後に加算され、次の重心計算実現部18
に出力される。Due to the initial setting of the weight values in the consequent membership function realization section 14, the unit output value output from the linear function unit 36-1, 36-2 of the rule section)'
(SS) and y (LA) are reduced by multiplying by the initial weight value and then added, and the next center of gravity calculation implementation unit 18
is output to.
尚、第1O図にあっては、ユニット出力を縮小するよう
に1以下の重み値を初期設定しているが、1以上の重み
値を設定して拡大することも有り得る。In FIG. 1O, a weight value of 1 or less is initially set so as to reduce the unit output, but it is also possible to set a weight value of 1 or more to enlarge it.
(重心計算実現部の初期設定)
第5図の重心計算実現部18に対する重み値の初期設定
は、第6図に示す結線グループCfgに対し重心計算を
実現するように初期設定する。(Initial Setting of Center of Gravity Calculation Implementation Unit) The weight values for the center of gravity calculation implementation unit 18 shown in FIG. 5 are initialized so as to realize center of gravity calculation for the connection group Cfg shown in FIG. 6.
第11図は重心計算実現部18の重心決定要素出力装置
40に対して行なわれる重心計算を実現するための重み
値の初期設定の具体例を示す。FIG. 11 shows a specific example of initial setting of weight values for realizing the center of gravity calculation performed on the center of gravity determining element output device 40 of the center of gravity calculation implementation unit 18.
重心決定要素出力装置40に設けられた2つの線形関数
ユニッ)40−1.40−2に対しては、前段の後件部
メンバシップ関数実現部14に設けられた9つの線形関
数ユニット38−1〜38−9のそれぞれが結線される
。そして、この入力結線に対し図に示すように重心計算
に使用する2つの重心導出値Y、、Y2を算出するだめ
の重み値が設定される。For the two linear function units 40-1 and 40-2 provided in the center-of-gravity determining element output device 40, the nine linear function units 38- Each of 1 to 38-9 is connected. Then, as shown in the figure, weight values for calculating the two gravity center derived values Y, , Y2 used in the gravity center calculation are set for this input connection.
ファジィ制御にあっては、次式に従って同一制御出力に
ついての縮小されたメンバシップ関数の関数和の図形の
重心を求めることでファジィ推論値である制御出力Yを
算出する方法を採用することが多い。In fuzzy control, a method is often adopted in which the control output Y, which is a fuzzy inference value, is calculated by finding the center of gravity of the figure of the sum of functions of reduced membership functions for the same control output according to the following formula: .
Y −S grade (y)ydy/ S grad
e(y)dy (6)この(6)式を実現するた
め、線形関数ユニット40−1に対する後件部メンバシ
ップ関数実現部14に設けた線形関数ユニット3日−1
〜389からの結線に対する重み値として、制御出力Y
の最小値Y=Oを起点に最大(!Y=1まで等間隔をも
ってOから増加する重み値を割り付ける。Y -S grade (y)ydy/ S grade
e(y)dy (6) In order to realize this equation (6), linear function unit 3-1 provided in the consequent membership function realization unit 14 for the linear function unit 40-1
As the weight value for the connection from ~389, the control output Y
Starting from the minimum value Y=O, weight values are assigned that increase from O at equal intervals up to the maximum (!Y=1).
一方、線形関数ユニッ)40−2に対しては、制御出力
Yの最大値Y=1を起点に最小値Y=0までの間に0か
ら上記と同じ等間隔をもって、例えば−1に減少する重
み値を割り付ける。On the other hand, for the linear function unit) 40-2, from the maximum value Y=1 of the control output Y to the minimum value Y=0, it decreases from 0 to, for example, -1 at the same equal intervals as above. Assign weight values.
このような線形関数ユニット40−1.40−2に対す
る入力結線の重み付けにより、前段の線形関数ユニット
38−1〜38−9のユニント出力値をC1〜C1とす
ると、線形関数ユニット401は、
Y+ = I C,+〇、875C2+0.75C3+
0.625C,+0.5 C3+0.375C6十〇、
25C,+O,125(、+OC,(7)を出力し、ま
た線形関数ユニット40−2は、YZ = OC1−0
,125C2−0,25C30,375C4−0,5C
6−0,625C。By weighting the input connections to the linear function units 40-1 and 40-2, if the unit output values of the linear function units 38-1 to 38-9 in the previous stage are C1 to C1, the linear function unit 401 becomes Y+ = I C, +○, 875C2+0.75C3+
0.625C, +0.5 C3 + 0.375C6 〇,
25C, +O, 125(, +OC, (7), and the linear function unit 40-2 outputs YZ = OC1-0
, 125C2-0, 25C30, 375C4-0, 5C
6-0,625C.
−0,75C,−0,875c8−zC,(8)を出力
する。-0,75C, -0,875c8-zC, (8) is output.
線形関数ユニッ)40−1.40−2から出力される重
心導出値Y+ 、Yzは重心算出装置42に与えられ、
Y−Yz / (Yz Y+ ) (
9)を使用して重心、すなわちファジィ推論値である制
御出力Yが算出される。The centroid derived values Y+ and Yz output from the linear function unit) 40-1.40-2 are given to the centroid calculation device 42, and are calculated as follows:
9) is used to calculate the center of gravity, that is, the control output Y, which is a fuzzy inference value.
前記(9)式に前記(7ン式および(8)式を代入する
と、(9)式のYは、(6)式のYと一致することがわ
かる。By substituting the above equations (7) and (8) into the above equation (9), it can be seen that Y in the equation (9) matches Y in the equation (6).
以上の処理で第2図の5l−34に示したルール部全結
合ニューロに対する重み値の初期設定が終了し、ステッ
プS5に進む。With the above processing, the initial setting of the weight value for the rule section fully connected neuron shown at 5l-34 in FIG. 2 is completed, and the process proceeds to step S5.
(学習スケジュールの設定)
第2図のステップS5にあっては、初期設定の終了に続
いてルール部全結合ニューロに学習処理を行なわせるた
めの学習計画、すなわち、学習スケジュールの設定を行
なう。この学習スケジュールの設定は第12図(a)に
示すフェーズ・グループ対応表の設定と、同図(b)に
示すグループ・結線対応表の設定の2つを行なう。(Setting of Learning Schedule) In step S5 of FIG. 2, following the completion of the initial settings, a learning plan, ie, a learning schedule, for causing the rule section fully connected neuron to perform a learning process is set. This learning schedule is set by setting the phase/group correspondence table shown in FIG. 12(a) and setting the group/connection correspondence table shown in FIG. 12(b).
まず、フェーズ・グループ対応表は学習フェーズの進行
に対し各フェーズで学習対象となるニューロングループ
を指定する。本発明にあっては、重み初期値の設定後に
先ずルール部12の重みを、次いで前件部メンバシップ
関数実現部10とルール部120重みの学習を同時に行
なうことから、第12図(a)に示すように、フェーズ
1に学習対象グループとして第6図に示すニューロング
ループGd、Geの2つを設定し、さらにフェーズ2に
Gb、Gc、Cd、Geの4つを設定する。First, the phase-group correspondence table specifies the neuron groups to be learned in each phase as the learning phase progresses. In the present invention, after setting the initial weight values, the weights of the rule section 12 are first learned, and then the weights of the antecedent membership function realization section 10 and the rule section 120 are learned simultaneously. As shown in FIG. 6, two neuron groups Gd and Ge shown in FIG. 6 are set as learning target groups in phase 1, and four neuron groups Gb, Gc, Cd, and Ge are further set in phase 2.
一方、グループ・結線対応表は、ルール部全結合ニュー
ロにおけるニューロングループGa−Ggと入力結線グ
ループの対応関係を設定するもので、第12図(b)に
示すようにニューロングループGb〜cgに対し入力結
線グループCab−Cgfのそれぞれが対応付けられる
(第6図参照)。On the other hand, the group/connection correspondence table sets the correspondence between neuron groups Ga-Gg and input connection groups in the rule part fully connected neuron, and as shown in FIG. 12(b), The input connection groups Cab-Cgf are associated with each other (see FIG. 6).
このようなフェーズ・グループ対応表およびグループ・
結線対応表の設定が終了すると、第2図の86に進んで
学習スケジューラを起動し、実際にルール部全結合ニュ
ーロに対し学習データを与えて、パックプロパゲーショ
ン法により入力結線の重み値を変更する学習を行なわせ
る。This kind of phase group correspondence table and group
When the setting of the connection correspondence table is completed, proceed to step 86 in Figure 2 to start the learning scheduler, actually give learning data to the fully connected neuron in the rule section, and change the weight value of the input connection using the pack propagation method. Have students learn how to do things.
(学習スケジューラの処理と構成)
第13図は本発明のルール部全結合ニューロの学習処理
フロー図を示す。この動作フロー図は例えば第14図に
示す装置構成により実現することができる。(Processing and configuration of learning scheduler) FIG. 13 shows a learning processing flow diagram of the rule part fully connected neuron of the present invention. This operation flow diagram can be realized, for example, by the device configuration shown in FIG.
まず、学習処理のための装置構成を説明すると、第14
図において、ルール部全結合ニューロ1(10に対して
は学習指示ユニット50と学習ユニット70が設けられ
る。First, to explain the device configuration for learning processing, the 14th
In the figure, a learning instruction unit 50 and a learning unit 70 are provided for the rule section fully connected neuron 1 (10).
学習指示ユニット50は学習スケジューラ52を有し、
学習スケジューラ52に対しては制御入力とその制御入
力に対する望ましい制御出力との対でなる学習信号を格
納した学習信号格納部54、第12図に示したフェーズ
・グループ対応表を格納したフェーズ・グループ対応テ
ーブル56、およびグループ・結線対応表を格納したグ
ループ・結線対応テーブル58が接続される。また、学
習スケジューラ52に対しては学習収束判定部60が設
けられる。The learning instruction unit 50 has a learning scheduler 52,
For the learning scheduler 52, there is a learning signal storage section 54 that stores learning signals consisting of pairs of control inputs and desired control outputs for the control inputs, and a phase group storage section 54 that stores the phase group correspondence table shown in FIG. A correspondence table 56 and a group/connection correspondence table 58 storing a group/connection correspondence table are connected. Further, a learning convergence determination section 60 is provided for the learning scheduler 52.
一方、学習ユニット70には学習指示読取部72、学習
フラグ設定部74およびハックプロパゲーション法によ
り重み値を変更する重み変更部76が設けられる。On the other hand, the learning unit 70 is provided with a learning instruction reading section 72, a learning flag setting section 74, and a weight changing section 76 that changes weight values using the hack propagation method.
さらに、第14図における装置構成の特徴は、ルール部
全結合ニューロ1(10における各ユニットを結ぶ結線
に学習調整器80が設けられている点である。Furthermore, a feature of the device configuration in FIG. 14 is that a learning regulator 80 is provided in the connection connecting each unit in the rule section fully connected neuron 1 (10).
学習調整器80は第15図に示す構成を有する。The learning adjuster 80 has the configuration shown in FIG.
尚、学習調整器80と共に重み変更部76を示している
。Note that the weight change unit 76 is shown together with the learning adjuster 80.
学習調整器80にはフラグ保存部82、重み変更情報読
取部84および重み変更量調整部86が設けられる。The learning adjuster 80 is provided with a flag storage section 82, a weight change information reading section 84, and a weight change amount adjustment section 86.
一方、重み変更部76にはパックプロパゲーション法に
よる重み演算を実行する重み演算部88、重み保存部9
0および重み変更量保存部92が設けられる。On the other hand, the weight change unit 76 includes a weight calculation unit 88 that performs weight calculation based on the pack propagation method, and a weight storage unit 9.
0 and a weight change amount storage section 92 are provided.
このように、ルール部全結合ニューロの結線毎に学習調
整器80を設けることで、学習指示ユニット50の学習
スケジューラ52によりルール部全結合ニューロ1(1
0に対し結線の重み値を変更するか否かを決定する学習
フラグを設定することができ、学習フラグが有効、すな
わちフラグオンとなっている結線に対してのみ重みの変
更、すなわち学習を行なうことが可能となる。In this way, by providing the learning regulator 80 for each connection of the rule part fully connected neurons, the learning scheduler 52 of the learning instruction unit 50 can control the rule part fully connected neurons 1 (1
A learning flag can be set to determine whether or not to change the weight value of a connection relative to 0, and the weight can be changed, that is, learning can only be performed for connections for which the learning flag is valid, that is, the flag is on. becomes possible.
また、学習調整器80に対するフラグセットは、第2図
に示したようなファジィルールを実現可能なネットワー
ク構造をもたない一般的な階層子ットワークに対し、フ
ァジィルールを実行可能な前件部メンバシップ関数実現
部10、ルール部12および後件部メンバシップ関数実
現部14で成る階層ネットワークを特定する際にも使用
される。Further, the flag set for the learning coordinator 80 is set to set the antecedent member that can execute fuzzy rules for a general hierarchical child network that does not have a network structure that can implement fuzzy rules as shown in FIG. It is also used when specifying a hierarchical network consisting of the ship function realization section 10, the rule section 12, and the consequent membership function realization section 14.
ファジィルールに適合した階層ネットワークを構成した
状態でバックプロパゲーション法により実際に学習させ
る際の重み値の調整は次のように行なわれる。Adjustment of weight values when actually learning by the back propagation method with a hierarchical network conforming to fuzzy rules configured is performed as follows.
第15図において、学習調整器80の重み変更情報読取
部84が重み変更部76の重み変更量保存部92に対し
重み演算部88より重みの変更量が書き込まれているこ
とを監視している。重み変更情報読取部84で重みの変
更があったことを検知すると、その旨を重み変更量調整
部86に伝える。重み変更量調整部86はフラグ保存部
82の学習フラグを調べ、学習フラグがオンであれば何
もしない。In FIG. 15, the weight change information reading section 84 of the learning adjuster 80 monitors whether the weight change amount is written by the weight calculation section 88 in the weight change amount storage section 92 of the weight change section 76. . When the weight change information reading unit 84 detects that the weight has changed, it notifies the weight change amount adjustment unit 86 of the fact. The weight change amount adjustment unit 86 checks the learning flag in the flag storage unit 82, and does nothing if the learning flag is on.
一方、学習フラグがオフであれば、重み変更量調整部8
6は重み変更部76の重み変更量保存部92にゼロを設
定し、重み変更を無効とする。この学習スケジューラを
構成するハードウェアは特願昭63−227825号の
「ネットワーク構成データ処理装置の学習方式」に示さ
れる。On the other hand, if the learning flag is off, the weight change amount adjustment unit 8
6 sets zero in the weight change amount storage section 92 of the weight change section 76 to invalidate the weight change. The hardware constituting this learning scheduler is shown in Japanese Patent Application No. 63-227825 entitled "Learning Method for Network Configuration Data Processing Apparatus".
次に、第13図の学習処理フローを参照して、第14図
の装置構成に従ったルール部全結合ニューロの学習処理
を説明する。Next, with reference to the learning processing flow shown in FIG. 13, the learning processing of the rule section fully connected neuron according to the device configuration shown in FIG. 14 will be described.
まず学習指示ユニット50の学習スケジューラ52が起
動されると、まずSlで学習フェーズの進行を示すフェ
ーズカウンタiをi=1にセットしてS2に進み、フェ
ーズ・グループ対応チーフル56に格納されている対応
表を参照して学習フェーズi=1に対応するニューロン
グループ番号を読み出す。本発明にあっては、フェーズ
1にルール部全結合ニューロ1(10のルール部12の
ニューロングループGd、Geが、また、フェーズ2に
、前件部メンバシップ関数実現部10、および、ルール
部12のニューロングループcb〜Geが設定されてい
る。First, when the learning scheduler 52 of the learning instruction unit 50 is activated, it first sets the phase counter i, which indicates the progress of the learning phase, to i=1 in Sl, and proceeds to S2, where the phase counter 52 is stored in the phase/group corresponding chifur 56. The neuron group number corresponding to learning phase i=1 is read out with reference to the correspondence table. In the present invention, in phase 1, the rule part fully connected neuron 1 (10 neuron groups Gd and Ge of the rule part 12), and in phase 2, the antecedent part membership function realization part 10 and the rule part Twelve neuron groups cb to Ge are set.
続いてS3に進み、ニューロングループ番号に対応した
結線番号をグループ・結線対応テーブル58を参照して
読み出す。Next, the process advances to S3, and the connection number corresponding to the neuron group number is read out with reference to the group/connection correspondence table 58.
続いてS4に進み、結線グループ番号を出力して結線グ
ループ番号に属する結線に設けられた学習調整器80の
学習フラグをオンする。Next, the process proceeds to S4, where the connection group number is output and the learning flag of the learning adjuster 80 provided to the connection belonging to the connection group number is turned on.
具体的には、学習指示ユニット50の学習スケジューラ
52から学習ユニット70の学習指示読取部72に対し
結線グループ番号を出力し、学習指示読取部72で結線
グループ番号を読み取って学習フラグ設定部74に与え
る。学習フラグ設定部74は学習指示を受けた結線グル
ープ番号に属する結線に設けられている学習調整器80
のフラグ保存部82に対しフラグオンを指令して学習フ
ラグをセットする。Specifically, the learning scheduler 52 of the learning instruction unit 50 outputs a connection group number to the learning instruction reading section 72 of the learning unit 70, and the learning instruction reading section 72 reads the connection group number and sends it to the learning flag setting section 74. give. The learning flag setting unit 74 selects a learning adjuster 80 provided in the connection belonging to the connection group number that received the learning instruction.
The learning flag is set by instructing the flag storage unit 82 to turn on the flag.
続いてS5に進んで、学習スケジューラ52は学習実行
指令を出して学習処理を開始させる。この学習処理は学
習指示ユニット50の学習信号格納部54に準備されて
いる制御入力Xと、制御入力Xに対する望ましい制御出
力となる教師信号dを読み出し、制御入力Xをルール部
全結合ニューロ1(10に与え、教師信号dは重み変更
部76および学習収束判定部60に与える。そして、学
習入力Xによりルール部全結合ニューロ1(10から出
力される制御出力Yを重み変更部76および学習収束判
定部60に取り込み、重み変更部76にあってはハック
プロパゲーション法に従って重み値の変更を行ない、学
習収束判定部60で教師信号dに対する制御出力Yの誤
差が規定値以下となったとき学習終了を判定して学習処
理を終了する。Next, the process proceeds to S5, where the learning scheduler 52 issues a learning execution command to start the learning process. This learning process reads the control input X prepared in the learning signal storage section 54 of the learning instruction unit 50 and the teacher signal d that is a desired control output for the control input X, and inputs the control input X into the rule section fully connected neuron 1 ( 10, and the teacher signal d is given to the weight change unit 76 and the learning convergence determination unit 60.Then, the learning input X causes the control output Y output from the rule unit fully connected neuron 1 (10 The weighting unit 76 changes the weight value according to the hack propagation method, and the learning convergence determining unit 60 performs learning when the error of the control output Y with respect to the teacher signal d becomes less than a specified value. The end is determined and the learning process ends.
S5の学習実行指令に基づいて学習処理が終了すると、
S6でフェーズカウンタiを1つインクリメントし、S
7で学習フェーズの終わりをチエツクする。本発明の学
習処理にあっては、フェーズ1で終了することから、そ
のまま一連の処理を終了する。When the learning process ends based on the learning execution command in S5,
Increment the phase counter i by one in S6, and
Check the end of the learning phase at 7. Since the learning process of the present invention ends at phase 1, the series of processes ends as is.
(バックプロパゲーション法による学習原理)次に本発
明のバンクプロパゲーション法による学習原理を階層型
ネットワークと共に説明する。(Principle of learning by backpropagation method) Next, the principle of learning by the bank propagation method of the present invention will be explained together with the hierarchical network.
第16図は一般的な階層型ニューラルネットワークを示
したもので、ユニットと呼ばれる一種のノートと重みを
もつ内部結合とから構成される。FIG. 16 shows a general hierarchical neural network, which is composed of a type of note called a unit and internal connections with weights.
第16図では入力装置としてのh層、中間層としてのi
層、出力層としてのj層を示している。ここでは、中間
層としてのi層は1層であるが、複数の中間層があって
も同じである。各ユニットは第4図に示したように複数
の各々の入力に対し各々の内部結合の重みを乗する乗算
部22と、乗算部22の全乗算結果を加算する加算部2
4と、加算結果に閾値処理を施して1つの出力を出す閾
値処理部26とをもっている。このユニットで行なわれ
る演算は基本ユニット20について示した前記(1)
(2)式となる。パックプロパゲーション法では階層ネ
ットワークの重み値Wihと閾値θiとを誤差のフィー
ドバックにより適応的に自動調整して学習する。前記(
1) (2)式から明らかなように、重み値Wihと閾
値θiとの調節は同時に実行される必要があるが、この
作業は相互に干渉する難しい作業となる。そこで、本願
出願人にあっては通常のユニット以外に、入力側のh層
に常に出力値が1であるユニットを設け、この出力値1
のユニットの出力に対し閾値θ1を重み値として割り付
けることで、閾値θiを重み値W i hの中に組み込
んで閾値θiを重み値として扱うことができるハックプ
ロパゲーション法を提案している(特願昭62−333
484号)。In Figure 16, the h layer is the input device, and the i layer is the intermediate layer.
layer, and the j layer as the output layer. Here, there is only one i-layer as the intermediate layer, but the same holds true even if there are a plurality of intermediate layers. As shown in FIG. 4, each unit includes a multiplier 22 that multiplies a plurality of inputs by the weight of each internal connection, and an adder 2 that adds all the multiplication results of the multiplier 22.
4, and a threshold processing section 26 that performs threshold processing on the addition result and outputs one output. The calculations performed in this unit are shown in (1) above regarding the basic unit 20.
The formula (2) is obtained. In the pack propagation method, the weight value Wih and threshold value θi of the hierarchical network are adaptively and automatically adjusted and learned using error feedback. Said (
1) As is clear from equation (2), it is necessary to adjust the weight value Wih and the threshold value θi at the same time, but this work is a difficult work that interferes with each other. Therefore, in addition to the normal unit, the applicant has provided a unit whose output value is always 1 in the h layer on the input side, and this output value is 1.
We have proposed a hack propagation method that can incorporate the threshold θi into the weight value W i h and treat the threshold θi as a weight value by assigning the threshold θ1 as a weight value to the output of the unit. Gansho 62-333
No. 484).
このようにすることで、前記(1) (2)式はXpJ
=Σypl、W、h(11)
Vp;= 1 / (1+exp(xpi))
(12)で表わされることとなり、閾値θiは表わ
れてこない。By doing this, the above equations (1) and (2) become XpJ
=Σypl, W, h(11) Vp;= 1/(1+exp(xpi))
(12), and the threshold value θi does not appear.
前記(11) (12)式からの展開によって次の(1
3)(14)式が得られる。By expanding from equations (11) and (12) above, we get the following (1
3) Equation (14) is obtained.
Xpj””ΣypiWj□
(13)y pi = 1 / (1+exp(−x
pJ)) (14)但し、
j : j層のユニット番号
W7H:i−j層間の内部結合の重み値X、j: i
層の各ユニットからj層の1番ユニットへの入力の積和
ypj:I’番目のパターンの入力信号に対するj層の
5番ユニットからの出力
第14図の重み変更部76では学習用の入カバターンX
が提示されたときに出力層jから出力される出カバター
ン3’pjと出カバターンypjのとるべき信号である
教師パターンd pjを受けると、両者の差分値
(dpJ−yt+i)
を算出し、次に
δpj=)’p、N−yp、) (dpi−yp;)
(15)を算出する。続いて、
但し、ε:学習定数
ζ:モーメンタム
t:学習回数
に従ってi層とj層間の重み値の更新量△W、1(t)
を算出する。ここで、前記(16)式右辺第2項で、前
回の更新サイクル時に決定された重み値の更新量を加算
するのは、学習の高速化を図るためである。Xpj””ΣypiWj□
(13) y pi = 1 / (1+exp(-x
pJ)) (14) However, j: unit number of the j layer W7H: weight value X of internal connection between the i-j layers, j: i
Sum of products ypj of the inputs from each unit of the layer to the 1st unit of the j layer: Output from the 5th unit of the j layer for the input signal of the I'th pattern. Cover turn
When receiving the teacher pattern dpj, which is the signal to be taken by the output cover turn 3'pj and the output cover turn ypj output from the output layer j when , the difference value (dpJ-yt+i) between the two is calculated, and δpj=)'p, N-yp,) (dpi-yp;)
(15) is calculated. Subsequently, ε: Learning constant ζ: Momentum t: Update amount of weight values between i layer and j layer according to the number of learning times △W, 1(t)
Calculate. Here, the reason why the update amount of the weight value determined in the previous update cycle is added in the second term on the right side of the equation (16) is to speed up the learning.
続いて、重み値変更部76は前記(15)弐で算出した
dpJを用いて
δ9、=Vp;(I Vp、)Σδ、jWji(t−
1)(17)を算出し、次に
に従ってh層とi層の重み値の更新量△W=t、(t)
を算出する。Next, the weight value changing unit 76 uses the dpJ calculated in (15) 2 to calculate δ9,=Vp;(I Vp,)Σδ,jWji(t−
1) Calculate (17), and update the weight values of h layer and i layer according to the following: △W=t, (t)
Calculate.
続いて重み変更部76は前記(16)式および(18)
式で算出した更新量に従って次の更新サイクルのための
重み値を
Wji(t) =WJ、(t−1)+ΔWji(t)
(19)W = h (t) ’= W = h
(t 1)+Δw i 1.(t)として決定する
。Next, the weight change unit 76 uses the above equation (16) and (18).
The weight value for the next update cycle is determined according to the update amount calculated using the formula Wji(t) = WJ, (t-1)+ΔWji(t)
(19) W = h (t)' = W = h
(t 1)+Δw i 1. (t).
以上の重み値の更新を学習用の入カバターンに対する出
カバターンypjが教師パターンd 9、に−致する重
み値が得られるように学習処理を繰り返す。The above learning process is repeated so that a weight value is obtained in which the output pattern ypj corresponding to the learning input pattern matches the teacher pattern d9.
一方、第16図の階層ネットワークを構成するユニット
が線形ユニットであった場合には、前記(14)式は
y p== x pJ(20)
と表わされる。この線形関数ユニットにおける前記(1
5)式および(17)式は
δpJ= d pJ−y pj
(21)δ2、=Σδ、;Wに(t−1)
(22)と表わされる。On the other hand, when the units constituting the hierarchical network of FIG. 16 are linear units, the above equation (14) is expressed as y p == x pJ (20). The above (1
Equations 5) and (17) are δpJ=d pJ−y pj
(21) δ2, = Σδ,; in W (t-1)
(22).
(本発明の重み学習処理)
第17図は第5図に示した本発明のルール部全結合ニュ
ーロに対しパックプロパゲーション法により行なう重み
学習の処理フロー図である。(Weight Learning Process of the Present Invention) FIG. 17 is a processing flow diagram of weight learning performed by the pack propagation method on the rule part fully connected neuron of the present invention shown in FIG.
この学習処理フローにおける各部のパラメータは第18
図に示すように定めている。The parameters of each part in this learning process flow are the 18th
It is defined as shown in the figure.
第18図は第5図のルール部全結合ニューロの階層構造
を概略的に示したもので、図示のように第1層から第6
層までの6層構造をもっており、第1層および第3層が
シグモイド関数ユニットで構成され、残りは線形関数ユ
ニットで構成されている。また、学習対象となるのは第
1層から第4層までであり、最終段の重心計算実現部1
日における第6層は重み学習の対象から外される。Figure 18 schematically shows the hierarchical structure of the rule section fully connected neuron in Figure 5, with layers 1 to 6 as shown.
It has a six-layer structure, with the first and third layers made up of sigmoid function units, and the rest made up of linear function units. In addition, the learning target is from the first layer to the fourth layer, and the final stage is the centroid calculation realization unit 1.
The sixth layer on the day is excluded from weight learning.
ここで、ルール部全結合ニューロによるファジィルール
の実現で出力されるファジィ制御値、すなわち制御出力
値をy6としており、学習処理は第6層から第5層、第
4層、第3層、第2層、第1層というように順次行なう
。この階層毎の学習の進行はiカウンタで示される。す
なわち、初期状態でiカウンタはi層6にセットされて
いる。Here, the fuzzy control value output by realizing the fuzzy rule by the fully connected neuron of the rule part, that is, the control output value, is y6, and the learning process is performed from the 6th layer to the 5th layer, the 4th layer, the 3rd layer, and Perform the second layer, first layer, and so on sequentially. The progress of learning for each layer is indicated by an i counter. That is, the i counter is set in the i layer 6 in the initial state.
さらに説明を簡単にするため、Wi、i−1とΔWi+
i−1はマトリックスを示し、大きさは(i層目のニュ
ーロン数)X(i−1層目のニューロン数)となる。さ
らにまたδiとyiはベクトルを示し、大きさはi番目
の層のニューロン数と同じになる。To further simplify the explanation, Wi, i-1 and ΔWi+
i-1 indicates a matrix, and the size is (number of neurons in the i-th layer) x (number of neurons in the i-1th layer). Furthermore, δi and yi represent vectors whose size is the same as the number of neurons in the i-th layer.
この第18図に示す各部のパラメータを前提に第17図
の重み学習処理フローを説明すると次のようになる。The weight learning process flow shown in FIG. 17 will be explained based on the parameters of each part shown in FIG. 18 as follows.
まず、ステップSl(以下「ステップ」は省略して単に
31として記述する)で学習対象層を設定するカウンタ
iをイニシャライズする。具体的には第18図に示した
ように6層構成であることから、カウンタiを1−6に
初期設定する。この初期設定により第6層目が学習対象
として指定される。First, in step Sl (hereinafter "step" will be omitted and simply described as 31), a counter i for setting a learning target layer is initialized. Specifically, since the device has a six-layer configuration as shown in FIG. 18, the counter i is initially set to 1-6. With this initial setting, the sixth layer is designated as the learning target.
次にS2に進み、シグモイド関数ユニットか否か判定す
る。この場合、線形関数ユニットであることから314
に進み最終段の階層か否か判定し、6層目が最終段であ
ることから315に進み、そのとき得られている教師信
号dと制御出力y6を使用して差分値δ6を求める。Next, the process proceeds to S2, where it is determined whether the unit is a sigmoid function unit. In this case, since it is a linear function unit, 314
The process proceeds to step 315, where it is determined whether the layer is the final layer, and since the sixth layer is the final layer, the process proceeds to step 315, where the difference value δ6 is obtained using the teacher signal d and control output y6 obtained at that time.
次に36に進み、重みを学習するユニットか否か判定す
る。このとき第6層は学習対象から外されているため(
具体的には結線に設けられた学習調整器80の学習フラ
グがオフとなっているため)、S8に進んで重み値更新
量△wbsを△W b s = OとしてS9に進み、
この場合、△W6S−〇であることから重み値W6Sの
更新は行なわない。続いてS12に進んでカウンタi=
1か否か、すなわち全ての階層の学習が終了したか否か
判定し、このときi=6であることから313に進んで
カウンタiを1つデクリメントしてi=5とし、S2に
戻って次の第5層の学習に進む。Next, the process proceeds to step 36, where it is determined whether the unit is to learn weights. At this time, the 6th layer is excluded from the learning target (
Specifically, since the learning flag of the learning adjuster 80 provided in the connection is off), the process proceeds to S8, sets the weight value update amount △wbs to △W b s = O, and proceeds to S9.
In this case, the weight value W6S is not updated because it is ΔW6S−〇. Next, proceed to S12 and count the counter i=
1, that is, whether learning of all the layers has been completed, and since i=6 at this time, the process proceeds to 313, decrements the counter i by 1 to make i=5, and returns to S2. Proceed to learning the next 5th layer.
第5層についても線形関数ユニットであることから82
から314に進むが、最終段階層でないことから316
に進み、1つ前の6層の学習処理で得られた差分値δ6
と重み値W65とから前記(22)式と同様の式に従っ
て差分値δ5を求める。Since the fifth layer is also a linear function unit, 82
Proceeds to 314, but since it is not the final stage layer, it goes to 316
Proceed to step 6 and calculate the difference value δ6 obtained in the learning process of the previous 6 layers.
The difference value δ5 is determined from the weight value W65 and the weight value W65 according to a formula similar to the above formula (22).
次に86に進んで学習対象となっているか否か判定し、
第5層は本発明にあっては学習対象となっていないから
、重み値W6.を更新しない(38→S9→S12→5
13)。Next, proceed to 86 to determine whether it is a learning target,
Since the fifth layer is not a learning target in the present invention, the weight value W6. (38 → S9 → S12 → 5
13).
4層の全ユニットについて処理しくS 16→S6→S
7→S9→S12→513)、4層の処理が終了すると
3層に進む。Process all units in 4 layers S 16 → S 6 → S
7→S9→S12→513) When the processing of the 4th layer is completed, the process proceeds to the 3rd layer.
第3層の処理に進むと、第3層にシグモイド関数ユニッ
トを使用していることから32から33に進み、最終段
の階層ユニットでないことから、S5でシグモイド関数
ユニット固有の差分値δ3を前記(17)式と同様の演
算式により求める。この第3層も学習対象となっている
ことから36から87に進んでS5で算出した差分値δ
3を使用して重み更新量△W、2を算出し、S9で更新
する。Proceeding to the third layer processing, since a sigmoid function unit is used in the third layer, the process proceeds from 32 to 33, and since it is not the final layer unit, in S5, the difference value δ3 unique to the sigmoid function unit is calculated as above. It is determined using an arithmetic expression similar to equation (17). Since this third layer is also a learning target, proceed from 36 to 87 and calculate the difference value δ in S5.
The weight update amount ΔW,2 is calculated using 3 and updated in S9.
この3層の最終ユニットまで同様な処理を繰り返し、2
層に進んで線形関数ユニットに関する学習、さらに第1
層に進んでシグモイド関数ユニットに関する学習を行な
うことになるが、ここではルール部のみを学習させるの
で第2層、第1層の学習処理は行なわれない。そして、
第1層の最終ユニットの処理が終了して310から81
2に進むと、このときカウンタiはi=1となっている
ことから全ての階層の学習が終了したことを判定して一
連の処理を終了する。Repeat the same process up to the final unit of these three layers, and
Proceed through the layers to learn about linear function units, and then learn about the first layer.
Proceeding to the layer, learning regarding the sigmoid function unit is performed, but here, only the rule part is learned, so learning processing for the second layer and the first layer is not performed. and,
Processing of the last unit of the first layer is completed and 310 to 81
When proceeding to step 2, since the counter i is now i=1, it is determined that learning of all layers has been completed, and the series of processing is ended.
フェーズ1での学習は、以上で終了するが、次にフェー
ズ2の学習を行なうため、再びカウンタiをi=6にセ
ットして、上述の処理を繰り返す。Learning in phase 1 ends here, but in order to perform learning in phase 2 next, counter i is set to i=6 again and the above-described process is repeated.
このフェーズ2では第4層〜第1層についての学習処理
が行なわれる。In this phase 2, learning processing for the fourth layer to the first layer is performed.
(乱数を用いた重み初期設定)
次に、第19図の動作フロー図を参照して本発明の学習
方法の他の実施例を説明する。(Initial Setting of Weights Using Random Numbers) Next, another embodiment of the learning method of the present invention will be described with reference to the operation flow diagram of FIG. 19.
第19図の動作フロー図に示す学習処理にあっては、3
1.S2.S3で行なうルール部全結合ニューロの前件
部メンバシップ関数実現部10、ルール部12および後
件部メンバシップ関数実現部14に対する重み値(閾値
を含む)の初期設定として、乱数を使用したことを特徴
とする。それ以外の34.35.36の処理は第2図の
第1の実施例と同じである。In the learning process shown in the operation flow diagram of FIG.
1. S2. Random numbers were used as the initial setting of weight values (including thresholds) for the antecedent membership function realization unit 10, rule unit 12, and consequent membership function realization unit 14 of the rule unit fully connected neuro in S3. It is characterized by The other processes at 34, 35, and 36 are the same as in the first embodiment shown in FIG.
また部分的に予め持っている知識があるときには、この
知識に基づいた設定を行なってもよい。Furthermore, if there is some knowledge that is previously held, settings may be made based on this knowledge.
(その他)
尚、上記の具体的な実施例は第5図に示したように2つ
の制御入力X+、Xzを対象としたファジィルールを実
現するルール部全結合ニューロを例にとるものであった
が、制御入力は1または3以上の適宜の入力数としても
よいことは勿論である。(Others) The above-mentioned specific example was an example of a rule section fully connected neuron that realizes a fuzzy rule targeting two control inputs X+ and Xz, as shown in FIG. However, it goes without saying that the number of control inputs may be one or three or more.
また、上記の実施例にあっては第7.8図に示した
y= 1/ (1+e−′X”) (23
)となるメンバシップ関数を例にとるものであったが、
第20図に示すように2つのシグモイド関数ユニット9
11.94−2のユニット出力を減算ユニット96に与
えて同図(b)のシグモイド関数を実現するようにして
もよい。この場合のユニット出力yは、
Y = 1 /(1−e−””” )−1/(1−e−
12””) (24)と表現することができる。In addition, in the above embodiment, y= 1/ (1+e-'X") (23
) was taken as an example of the membership function, but
Two sigmoid function units 9 as shown in FIG.
The unit output of 11.94-2 may be applied to the subtraction unit 96 to realize the sigmoid function shown in FIG. The unit output y in this case is Y = 1/(1-e-”””)-1/(1-e-
12””) (24).
[発明の効果]
以上説明したように本発明によれば、前件部メンバシッ
プ関数実現部、ルール部、後件部メンバシップ関数実現
部のそれぞれに予め持っている知識に基づく初期設定ま
たは乱数を用いた初期設定またはその複合設定を行なっ
た後にルール部全結合ニューロのルール部を学習させた
後、前件部メンバシップ関数実現部とルール部とを同時
に学習させることで、効率の良い学習が可能となり、任
意のファジィ制御適応システムに使用するファジィルー
ル実現のためのより効率的な結線の重み解析を実現する
ことができる。[Effects of the Invention] As explained above, according to the present invention, initial settings or random numbers based on knowledge held in advance in each of the antecedent membership function realization unit, the rule unit, and the consequent membership function realization unit are After making the initial settings using or a combination thereof, learning the rule part of the fully connected neuron, and then learning the antecedent membership function realization part and the rule part at the same time, efficient learning can be achieved. This makes it possible to realize more efficient connection weight analysis for realizing fuzzy rules used in any fuzzy control adaptive system.
第1図は本発明の原理説明図、 第2図は本発明の学習
動作フロー図、 第3図はルール部全結合ニューロの定
義の説明図、 第4図は基本ユニット説明図・ 第
5図は本発明のルール部全結合ニューロの具体的実施例
を示巳た構成図、第6図はニューロングループおよび結
線グループの説明図、 第7図は本発明の前件部メン
バシップ関数実現部の初期設定説明図、
第8図は前件部のメンバシップ関数説明図、第9図は本
発明のルール部ユニット説明図、第10図は本発明の後
件部メンバシップ関数実現部の初期設定説明図、第11
図は本発明の重心計算実現部の初期設定説明図、第12
図は本発明のフェーズ・グループ対応表およびグループ
・結線対応表の設定説明図、第13図は本発明の学習処
理フロー図、第14図は本発明による学習処理の装置構
成図、第15図は第14回の結線毎に設けた学習調整器
構成図、第16図は一般的な階層ニューラル・ネットワ
ーク説明図、第17図は本発明の重み学習処理フロー図
、第18図は第17図の各部のパラメータ説明図、第1
9図は本発明の他の実施例を示した動作フロー図、第2
0図は本発明に用いる他のメンバシップ関数の説明図で
ある。
10・・・・・・前件部メンバシップ関数実現部、12
・・・・・・ルール部、14・・・・・・後件部メンバ
シップ関数実現部、16・・・・・・入力部、18・・
・・・・重心計算実現部、20・・・・・・基本ユニッ
ト、22・・・・・・乗算部、24・・・・・・加算部
、26・・・・・・閾値処理部、28−128−2.3
2−1〜31−4.38−1〜389.40−1.40
−2・・・・・・線形関数ユニット、30−1〜30−
2.3/11〜34−5,941.94−2・・・・・
・シグモイド関数ユニット、40・・・・・・重心決定
要素出力装置、42・・・・・・重心算出装置、50・
・・・・・学習指示ユニット、52・・・・・・学習ス
ケジューラ、54・・・・・・学習信号格納部、56・
・・・・・フェーズ・グループ対応テーブル、58・・
・・・・グループ・フェーズ対応テーブル、60・・・
・・・学習収束判定部、70・・・・・・学習ユニット
、72・・・・・・学習指示読取部、74・・・・・・
学習フラグ設定部、76・・・・・・重み変更部、80
・・・・・・学習調整器、82・・・・・・フラグ保存
部、84・・・・・・重み変更情報読取部、86・・・
・・・重み変更量調整部、88・・・・・・重み演算部
、90・・・・・・重み保存部、92・・・・・・重み
変更量保存部、96・・・・・・減算ユニット、1(1
0・・・・・・ルール部全結合ニューロ。Figure 1 is an explanatory diagram of the principle of the present invention. Figure 2 is a flowchart of the learning operation of the present invention. Figure 3 is an explanatory diagram of the definition of the rule part fully connected neuron. Figure 4 is an explanatory diagram of the basic unit. Figure 5 is a block diagram showing a specific embodiment of the rule section fully connected neuron of the present invention, FIG. 6 is an explanatory diagram of neuron groups and connection groups, and FIG. 7 is a diagram of the antecedent section membership function realization section of the present invention. An explanatory diagram of initial settings. FIG. 8 is an explanatory diagram of the membership function of the antecedent part. FIG. 9 is an explanatory diagram of the rule part unit of the present invention. FIG. 10 is an illustration of the initial settings of the membership function realization part of the consequent part of the present invention. Explanatory diagram, 11th
The figure is an explanatory diagram of the initial settings of the center of gravity calculation implementation unit of the present invention, No. 12
The figure is an explanatory diagram of the settings of the phase/group correspondence table and group/connection correspondence table of the present invention, Figure 13 is a flowchart of the learning process of the present invention, Figure 14 is a diagram of the device configuration of the learning process of the present invention, and Figure 15 16 is an explanatory diagram of a general hierarchical neural network, FIG. 17 is a flowchart of the weight learning process of the present invention, and FIG. Parameter explanatory diagram of each part, 1st
FIG. 9 is an operation flow diagram showing another embodiment of the present invention.
FIG. 0 is an explanatory diagram of another membership function used in the present invention. 10...Antecedent part membership function realization part, 12
...Rule part, 14...Consequent part Membership function realization part, 16...Input part, 18...
... Center of gravity calculation realization section, 20 ... Basic unit, 22 ... Multiplication section, 24 ... Addition section, 26 ... Threshold processing section, 28-128-2.3
2-1~31-4.38-1~389.40-1.40
-2...Linear function unit, 30-1 to 30-
2.3/11~34-5,941.94-2...
- Sigmoid function unit, 40... Center of gravity determining element output device, 42... Center of gravity calculation device, 50.
...Learning instruction unit, 52...Learning scheduler, 54...Learning signal storage unit, 56.
...Phase/group correspondence table, 58...
...Group phase correspondence table, 60...
...Learning convergence determination unit, 70...Learning unit, 72...Learning instruction reading unit, 74...
Learning flag setting unit, 76... Weight changing unit, 80
... Learning adjuster, 82 ... Flag storage section, 84 ... Weight change information reading section, 86 ...
... Weight change amount adjustment section, 88 ... Weight calculation section, 90 ... Weight storage section, 92 ... Weight change amount storage section, 96 ...・Subtraction unit, 1 (1
0...Rule part fully connected neuro.
Claims (5)
出力する基本ユニットを複数設けることににより構成さ
れる前件部メンバシップ関数実現部(10)と、 前段の処理層の出力する演算結果値と該演算結果値に対
応付けられる内部結合の重み値との乗算値を入力として
、割り付けられる演算に従って演算結果値を算出して出
力する少なくとも一つの基本ユニットにより構成される
処理層を1段または複数段備え、かつ、隣接する前後段
の処理層の基本ユニットの間と、最前段の処理層の基本
ユニットと上記前件部メンバシップ関数実現部(10)
の基本ユニットとの間で相互に内部結合する構成を採る
ことにより構成されるルール部(12)のと、該ルール
部(12)の最後段の処理層の対応する基本ユニットの
出力する演算結果値を入力として、出力信号のメンバー
シップ関数値に応じて導出される出力信号値を算出して
出力する少なくとも一つの基本ユニットにより構成され
る後件部メンバシップ関数実現部(14)とより成る階
層ネットワークを有し、入力される制御状態量(X_1
〜X_n)に対応する制御操作量(Y_1〜Y_m)を
出力するルール部全結合ニューロにおいて、 前記前件部メンバシップ関数実現部(10)、ルール部
(12)、および後件部メンバシップ関数実現部(14
)の各々に重みおよび閾値初期値を設定する第1過程と
、 予め準備された学習データを使用して前記ルール部(1
2)の重みを学習させる第2過程と、前件部メンバシッ
プ関数実現部(10)、およびルール部(12)の重み
を同時に学習させる第3過程仁、を備えたことを特徴と
するルール部全結合ニューロの学習方法。1. An antecedent membership function realization unit (10) configured by providing a plurality of basic units that calculate and output the membership function value of an input signal, and a calculation result value output from the preceding processing layer. One or more stages of processing layers each consisting of at least one basic unit that calculates and outputs a calculation result value according to the assigned operation by inputting the multiplication value of the calculation result value and the weight value of the internal connection associated with the calculation result value. between the basic units of the processing layers in the preceding and adjacent stages, the basic unit of the processing layer in the first stage, and the antecedent membership function realization unit (10).
The rule part (12) is configured by adopting a configuration in which the basic units are mutually internally coupled, and the calculation results output by the corresponding basic unit of the last stage processing layer of the rule part (12). a consequent membership function realization unit (14) constituted by at least one basic unit that receives a value as an input and calculates and outputs an output signal value derived according to the membership function value of the output signal. It has a hierarchical network, and the input control state quantity (X_1
~X_n) In the fully connected rule unit neuron that outputs the control operation amount (Y_1 to Y_m) corresponding to Realization part (14
), and a first process of setting weights and initial threshold values for each of the rule units (1) using pre-prepared learning data.
2); and a third process that simultaneously learns the weights of the antecedent membership function realization unit (10) and the rule unit (12). A learning method for fully connected neurons.
よび後件部メンバシップ関数実現部の重みおよび閾値の
初期値の設定は、予め持っている知識に基づいて作成さ
れた重みおよび閾値の初期値を設定することにより行な
い、ルール部の重みおよび閾値は乱数を用いて設定する
ことを特徴とする請求項1記載のルール部全結合ニュー
ロの学習方法。2. The initial values of the weights and thresholds of the antecedent membership function realization unit and the consequent membership function realization unit of the first process are set using initial values of weights and thresholds created based on knowledge held in advance. 2. The learning method of a fully connected rule part neuron according to claim 1, wherein the learning method is performed by setting the rule part, and the weight and threshold value of the rule part are set using random numbers.
、乱数を用いて作成された初期値を設定することを特徴
とする請求項1記載のルール部全結合ニューロの学習方
法。3. 2. The method for learning a fully connected rule part neuron according to claim 1, wherein initial values of the weights and thresholds in the first step are set using random numbers.
、予め持っている知識で設定可能な重みおよび閾値は該
知識で初期設定し、その他は乱数を用いて重みおよび閾
値の初期値を設定することを特徴とする請求項1記載の
ルール部全結合ニューロの学習方法。4. In setting the initial values of the weights and thresholds in the first process, the weights and thresholds that can be set using prior knowledge are initialized using this knowledge, and the initial values of the other weights and thresholds are set using random numbers. 2. The method of learning rule part fully connected neurons according to claim 1.
ンバシップ関数実現部(10)、ルール部(12)、の
階層ネットワークの結線毎に学習の有無を決める学習フ
ラグを設定し、該結線に設定された学習フラグに基づい
て重み値を学習処理により最適化することを特徴とする
請求項1記載のルール部全結合ニューロの学習方法。5. At the time of starting learning in the second process, a learning flag is set for each connection of the hierarchical network of the antecedent membership function realization unit (10) and the rule unit (12), and is set on the connection. 2. The method for learning a fully connected rule part neuron according to claim 1, wherein the weight values are optimized through a learning process based on the learned flags.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2174608A JPH0464134A (en) | 1990-07-03 | 1990-07-03 | Learning method for neural unit with fully coupled rule part |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2174608A JPH0464134A (en) | 1990-07-03 | 1990-07-03 | Learning method for neural unit with fully coupled rule part |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0464134A true JPH0464134A (en) | 1992-02-28 |
Family
ID=15981564
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2174608A Pending JPH0464134A (en) | 1990-07-03 | 1990-07-03 | Learning method for neural unit with fully coupled rule part |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0464134A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008296572A (en) * | 2007-05-29 | 2008-12-11 | Samsung Electronics Co Ltd | Inkjet printhead and method for manufacturing the same |
JP2010503236A (en) * | 2006-09-06 | 2010-01-28 | 東京エレクトロン株式会社 | Substrate cleaning method and substrate cleaning apparatus |
-
1990
- 1990-07-03 JP JP2174608A patent/JPH0464134A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010503236A (en) * | 2006-09-06 | 2010-01-28 | 東京エレクトロン株式会社 | Substrate cleaning method and substrate cleaning apparatus |
JP4874394B2 (en) * | 2006-09-06 | 2012-02-15 | 東京エレクトロン株式会社 | Substrate cleaning method and substrate cleaning apparatus |
JP2008296572A (en) * | 2007-05-29 | 2008-12-11 | Samsung Electronics Co Ltd | Inkjet printhead and method for manufacturing the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5579439A (en) | Fuzzy logic design generator using a neural network to generate fuzzy logic rules and membership functions for use in intelligent systems | |
US5828812A (en) | Recurrent neural network-based fuzzy logic system and method | |
US5524176A (en) | Fuzzy expert system learning network | |
Chiang et al. | A self-learning fuzzy logic controller using genetic algorithms with reinforcements | |
Jang et al. | Neuro-fuzzy modeling and control | |
Lin et al. | A neural fuzzy system with linguistic teaching signals | |
Khan et al. | Neufuz: Neural network based fuzzy logic design algorithms | |
WO1991014226A1 (en) | Neuro-fuzzy fusion data processing system | |
Chakroborty et al. | Calibrating the membership functions of the fuzzy inference system: instantiated by car-following data | |
Aliev et al. | Soft computing based multi-agent marketing decision support system | |
JPH0464134A (en) | Learning method for neural unit with fully coupled rule part | |
Renders et al. | Genetic algorithms for process control: A survey | |
Madey et al. | Integration of neurocomputing and system simulation for modeling continuous improvement systems in manufacturing | |
JPH0464132A (en) | Learning method for neural unit with fully coupled rule part | |
JPH0464135A (en) | Learning method for neural unit with fully coupled rule part | |
JPH0464136A (en) | Learning method for neural unit with fully coupled rule part | |
JPH0464137A (en) | Learning method for neural unit with fully coupled rule part | |
JPH0464133A (en) | Learning method for neural unit with fully coupled rule part | |
JPH0424737A (en) | Learning method for prewired neuro of rule part | |
Takhavova et al. | Neural networks for the moving objects control | |
JP2501932B2 (en) | Center of gravity determining element output device by neural network | |
JPH0424740A (en) | Learning method for prewired neuro of rule part | |
Chang et al. | Stable direct adaptive neural controller of nonlinear systems based on single auto-tuning neuron | |
JPH0424739A (en) | Learning method for prewired neuro of rule part | |
Ismael et al. | Fuzzy neural network implementation of self tuning PID control systems |