JPH0464135A - ルール部全結合ニューロの学習方法 - Google Patents

ルール部全結合ニューロの学習方法

Info

Publication number
JPH0464135A
JPH0464135A JP2174609A JP17460990A JPH0464135A JP H0464135 A JPH0464135 A JP H0464135A JP 2174609 A JP2174609 A JP 2174609A JP 17460990 A JP17460990 A JP 17460990A JP H0464135 A JPH0464135 A JP H0464135A
Authority
JP
Japan
Prior art keywords
learning
unit
membership function
rule
weights
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2174609A
Other languages
English (en)
Inventor
Akira Kawamura
旭 川村
Nobuo Watabe
信雄 渡部
Arimichi Oowada
大和田 有理
Ryusuke Masuoka
竜介 益岡
Kazuo Asakawa
浅川 和雄
Shigenori Matsuoka
松岡 成典
Hiroyuki Okada
浩之 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Fuji Facom Corp
Original Assignee
Fujitsu Ltd
Fuji Facom Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, Fuji Facom Corp filed Critical Fujitsu Ltd
Priority to JP2174609A priority Critical patent/JPH0464135A/ja
Publication of JPH0464135A publication Critical patent/JPH0464135A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Devices For Executing Special Programs (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [概 要] 前件部メンバシップ関数実現部、ルール部および後件部
メンバシップ関数実現部で成るファジィ制御ルールを実
現する階層ネットワーク構造に従って入力に対応する制
御出力を生ずるルール部全結合ニューロの学習方法に関
し、 対象システムに適合した制御を行なうための学習を効率
良く行なうことを目的とし、 前件部メンバシップ関数実現部、ルール部および後件部
メンバシップ関数実現部の各々に、予め持っている知識
の導入または乱数の利用またはその併用で重みおよび閾
値の初期値を設定した後、予め準備されたシステム学習
データを使用してネットワーク全体を学習させるように
構成する。
[産業上の利用分野] 本発明は、ファジィ制御とニューラルネットワークを融
合させたルール部全結合ニューロの学習方法に関する。
ニューロを用いた情報処理にあっては、対象とするシス
テムの入カバターンと、その入カバターンに対する望ま
しい出カバターンとの組でなる学習データを階層型ニュ
ーラルネットワークに提示して学習させ適応的な処理を
行なわせる。この学習処理には特にバックプロパゲーシ
ョン法と呼ばれる処理方式が、その実用性の高さから注
目されている。
一方、ファジィ理論は、1960年にZadehにより
提案され、温度が「低い」とか「高い」といった人間が
行なっている曖昧さに基づく思考や判断の過程をモデル
化する理論である。このファジィ理論では曖昧さを表わ
すためにメンバシップ関数を導入したファジィ集合論を
数学的基礎としている。
ファジィ理論の応用としては1974年にMaqmda
n iがスチームエンジンの制御に用いたのを最初に、
各種のファジィ制御が行なわれている。
このファジィ制御を実行するシステムは不確定なものを
扱うものであることから、制御アルゴリズムの調整や変
更等に対して適応的に対応できるような構成にしていく
必要がある。
「従来の技術フ 一般に、ファジィ制御システムを構築するには、以下の
ような手続きを取る。
■熟練操作員の持つ「もし温度が高ければ、火を小さく
する」等の曖昧な制御規則を得る。
■制御規則の中の言葉(命題)の意味をメンバシップ関
数という形で定量化し、制御規則をrIF−THEN部
」 型のルール表現で記述する。
■シミュレーションや現地テストによる検査を行なう。
■検査結果を評価し、メンバシップ関数や規則の改良を
行なう。
さらに詳細に説明すると、ファジィ制御ルールは、例え
ば、 rif XI is big and X2 is s
mall thenVIis big 」 と記述される。ここでIF部は前件部と呼ばれ、温度等
の制御状態量(制御入力)についての条件を記述する部
分である。また、THEN部は後件部と呼ばれ、操作端
等の制御操作量(制御出力)についての条件を記述する
部分である。
ファジィ制御では、対象システムの制御理論として用意
される複数のファジィ制御ルールを管理すると共に、各
ファジィ制御ルール中に記述される「大きい」とか「小
さい」とかいうような曖昧な言語表現の意味をメンバシ
ップ関数として定量化して管理する。
完成したファジィ制御システムの制御手順は次のように
なる。
■制御対象から温度等の制御状態量が入力されると、設
定している前件部のメンバシップ関数に従って真理値を
算出する。
■次に、最小値を選択する等の前件部演算に従って、各
ファジィ制御ルールにおける後件部に対しての適用値を
決定する処理を実行する。
例えば、 rx、 is big J  の真理値=0.8「Xz
jssllall」の真理値−0,5である場合には、
最小値を選択する前件部演算に従って、真理値=0.5
をそのファジィ制御ルールの後件部に対しての適用値と
して出力するように処理する。
■続いて、同一の制御操作量となる後件部のメンバーシ
ップ関数に対する前件部からの入力値(適用値)から出
力適用値を決定する処理を実行する。
例えば、2つのファジィ制御ルールにより、「Y+ i
s big Jの適用値=0.5”V+ is big
 Jの適用値=0.6が得られた場合、最大値を選択す
る後件部演算に従って、適用値=0.6を選択決定する
■続いて、決定された適用値に従って制御操作量のメン
バシップ関数を縮小(または拡大)するト共に、同一の
制御操作量についてのメンバシップ関数の関数和の図形
の重心を求める等の処理を行なってファジィ推論値であ
る制御操作量を算出して出力する。
ところで、ファジィ制御ルールは、熟練操作員の持つ知
識に従って生成されることを予定しており、最初から最
適制御を実現できるファジィ制御ルールを確立すること
は困難である。従って、生成したファジィ制御ルールを
シミュレーションや現地テストにより評価しながら試行
錯誤的に改良していくという手順をとらざるを得ない。
そこで本願発明者等にあっては、ニューロの適用により
ファジィ制御ルールを実現する階層ネットワーク構造、
すなわちルール部ブリワイヤニュ−口を使用した適用型
のファジィ制御システムを提案している(特願平2−6
0256号「階層ネットワーク構成データ処理装置及び
データ処理システム])。
すなわち、ルール部ブリワイヤニューロは、前件部メン
バシップ関数実現部、ルール部および後件部メンバシッ
プ関数で成るファジィ制御ルールを実現する階層ネット
ワーク構成をもつ。
このルール部ブリワイヤニューロによるファジィ制御ル
ールの自動抽出を考えると、以下のような手続きを取れ
ばよい。
■ルール部ブリワイヤニューロのメンバシップ関数を設
定する。
■ルール部プリワイヤニューロに、対象システムの入カ
バターンとその入カバターンに対する望ましい出カバタ
ーンの組とを提示して学習させる。
■ルール部の結線の重みを解析することにより対象シス
テムについての最適ファジィ制御ルールを抽出する。
[発明が解決しようとする課題] しかしながら、ルール部全結合ニューロについてファジ
ィ制御ルールを抽出させるために行なわれる学習は、前
件部メンバシップ関数部、ルール部および後件部メンバ
シップ関数実現部の重みを含め、どのようにして学習を
行なわせるかの学習方法が決まっておらず、ルール部全
結合ニューロの性能を最大限に引き出すことのできる効
率の良い学習法の構築が必要となっている。
本発明は、このような状況に鑑みてなされたもので、対
象システムに適合した制御を行なうための学習を効率良
く行なうことのできるルール部全結合ニューロの学習方
法を提供することを目的としている。
[課題を解決するための手段] 第1図は本発明の原理説明図であって、(a)は請求項
1の発明に、(b)は請求項2の発明に、(C)は請求
項3の発明に対応している。
まず、本発明は、前件部メンバシップ関数実現部10,
1または複数階層でなるルール部12および後件部メン
バシップ関数実現部14でなる階層ネットワーク構造を
有し、ルール部12の内部の層同士の間および前段の前
件部メンバシップ関数実現部10および後段の後件部メ
ンバシップ関数実現部14との間で全ユニット間を内部
結合して成り、入力される制御状態量(xl、χ2.・
・・X、1)に対応する1または複数の制御操作量(Y
)を出力するルール部全結合ニューロを対象とする。
このようなルール部全結合ニューロの学習方法として本
発明にあっては、 〈第1過程〉 前件部メンバシップ関数実現部10、ルール部12およ
び後件部メンバシップ関数実現部14の各々に重みおよ
び閾値の初期値を設定する。
〈第2過程〉〜〈第4過程〉 予め準備された学習データを使用して前件部メンバシッ
プ関数実現部10、ルール部12および後件部メンバシ
ップ関数実現部14を請求項1〜3の方法で学習させる
とする処理過程を備えた学習方法を構成する。
ここで第1過程の重みおよび閾値の初期値の設定方法と
しては、予め持っている知識(図中は「先験的知識」と
して示す)に基づいて作成された初期値を設定する。
また第1過程の重みおよび閾値の初期値の他の設定方法
としては、乱数を用いて作成された初期値を設定する。
さらに第1過程の重みおよび閾値の初期値の設定は、予
め持っている知識で設定可能なものは該知識で初期設定
し、その他は乱数を用いて初期値を設定する場合もある
さらにまた、第2過程〜第4過程の学習開始時には、前
件部メンバシップ関数実現部10、ルール部12および
後件部メンバシップ関数実現部14でなる階層ネットワ
ーク構造の結線毎に学習の有無を決める学習フラグを設
定し、結線に設定された学習フラグに基づいて重み値を
学習処理により最適化する。
[作 用1 このような構成を備え第3図によって定義されるような
ルール部全結合ニューロについての本発明による学習方
法によれば、次の作用が得られる。
まず、対象システムのファジィ制御ルールを実現する前
件部メンバシップ関数実現部、ルール部および後件部メ
ンバシップ関数実現部で成る階層ネットワーク構成のル
ール部全結合ニューロに対し、予め持っている知識に基
づいた重みおよび閾値の初期値の設定または乱数に基づ
いた重みおよび閾値の初期値の設定あるいは両者の併用
を行なつ。
続いて、学習処理を起動し、学習用の入カバターンをル
ール部全結合ニューロに提示し、ルール部全結合ニュー
ロからの出カバターンが、入カバターンに対し望ましい
出カバターンとなる学習用カバターン(教師信号)に略
一致するように初期設定した重み値を修正する例えばバ
ックプロパゲーション法による学習を行なう。
また、予め持っている知識を導入した前件部メンバシッ
プ関数実現部、および後件部メンバシップ関数実現部の
重みおよび閾値の初期設定により、学習効率を高めるこ
とができる。
さらに、乱数を利用した前件部メンバシップ関数実現部
、ルール部および後件部メンバシップ関数実現部の重み
および閾値の初期設定により、ネットワークの性能を最
大限引き出すことができる。
[実施例] 第2図は本発明によるルール部全結合ニューロの学習方
法の第1の実施例としての処理手順を示した学習動作フ
ロー図である。この第2図の手順による学習方法の対象
となるルール部全結合ニューロは、例えば第5図に示す
ような前件部メンバシップ関数実現部10、ルール部1
2、および後件部メンバシップ関数実現部14(重心計
算実現部18を含む)で成るファジィ制御ルールを実現
するための階層ネットワーク構造を有する。
第2図の学習処理にあっては、次のステップ31〜S6
から成る処理を行なう。
くステップSL> 前件部メンバシップ関数実現部10の重みCab。
Cbcを与えられたメンバシップ関数を実現するように
予め持っている知識を導入して初期設定する。
〈ステップ32> ルール部12の重みCcd、  Cdeを乱数を用いて
初期設定する。
〈ステップS3> 後件部メンバシップ関数実現部14の重みCefを与え
られたメンバシップ関数を実現するように予め持ってい
る知識を導入して初期設定する。
〈ステップS4> 重心計算実現部18の重みCfgを、重心計算を実現す
るように初期設定する。尚、第5図では後件部メンバシ
ップ関数実現部14に含まれている。
〈ステップ35> 学習処理を行なうフェーズ毎のグループ対応表(学習対
象となるニューロンのグループ、すなわち階層を指定す
るテーブル)および各グループの結線対応表(ユニット
のグループに入力する結線のグループを示すテーブル〕
の設定を行なう。
〈ステップS6> 学習スケジューラを起動してバックプロパゲーション法
により学習処理を行なう。
以下、第2図の動作フローに示したステップ31〜S6
をそれぞれに分けて詳細に説明する。
(ルール部全結合ニューロの構成) 本発明の対象となるルール部全結合ニューロは、例えば
、第5図に示すファジィ制御ルールを実現可能とするた
めの階層ネットワーク構成を有する。
第5図において、各部に示したノードは1つの基本ユニ
ットを構成しており、基本ユニットは黒丸で示すシグモ
イド関数ユニットと、白丸で示す線形関数ユニットの2
種が使用されている。
第4図は第5図のルール部全結合ニューロにおける基本
ユニットの構成を取り出して示したものである。
第4図において、基本ユニット20は多大力1出力系を
構成しており、複数の入力に対し各々の内部結合の重み
値を乗算する乗算部22と、乗算部22の乗算結果を加
算する加算部24と、加算部24の出力に閾値処理を施
す閾値処理部26とで構成される。
ここで前段層をh層、後段層をi層とすると、乗算部2
2と加算部24は下記の(1)式の演算を実行し、また
閾値処理部26では下記の(2)式の演算を実行する。
Xpi=Σy phWih           (1
)ypi= 1/ ((1+ e−(xp″−〇”) 
    (2)但し、 h :h層のユニット番号 i :i層のユニット番号 p :入力信号のパターン番号 θ□ :i層の1番ユニットの閾値 W4h:h−i層間の内部結合の重み値x、=:h層の
各ユニットからi層の1番ユニットへの入力の積和 yph’P番目パターンの入力信号に対するh層のh番
ユニットからの出力 yい、=p番目パターンの入力信号に対するi層の1番
ユニットからの出力 ここで前記(2)式はシグモイド関数として知られてお
り、第5図のルール部全結合ニューロに示した黒丸の基
本ユニットの閾値処理部26が前記(2)式のシグモイ
ド関数に従った閾値処理を行なう。
これに対し閾値処理部26に Y pi =  X pi となる線形関数を設定したものが第5図における白丸の
線形関数ユニットとなる。但し、前件部メンバシップ関
数実現部lOの最初のユニットとなる入力部は除く。こ
の第4図の基本ユニットを構成するハードウェアとして
は特願昭63−216865号の「ネットワーク構成デ
ータ処理装置」が使用できる。
再び第5図を参照してルール部全結合ニューロの各部の
構成を説明する。
まず前件部メンバシップ関数実現部10は、各入力変数
X、、X2を入力とし、入力変数Xl〜Xnのメンバシ
ップ関数のグレード値を出力する。
図では簡単のため各メンバシップ関数は1変数関数とし
ているが、多変数関数であってもよい。つまり変数X1
とX2を入力として X、、&X2 (SA) というメンバシップ関数であっても良い。
ルール部は階層型ニューラルネットワークである。入力
変数x1.χ2のメンバシップ関数のグレード値を入力
として、出力変数Yのメンバシップ関数のグレード値を
出力とする。
さらに後件部メンバシップ関数実現部14(重心決定部
を含む)は、出力変数のメンバシップ関数y (SA)
〜y (LA)のグレード値を入力して、出力変数Yの
値を出力する。
第5図では各ユニットを1つのニューロンとして説明し
ているが、ルール部以外の部分についてユニットの機能
が特定できているものはニューロンとせずにユニット機
能を実現するゲート回路、演算器等としてもよい。
第5図においては、入力X、、X2の2つを与えて制御
出力Yを得る場合を例にとっており、同図を参照して各
部の構成を詳細に説明すると次のようになる。
入力部16は分離ユニット28−1.28−2で構成さ
れ、入力X+ 、X2を2つに分けて前件部メンバシッ
プ関数実現部10に与える。前件部メンバシップ関数実
現部10は4つのシグモイド関数ユニット30−1〜3
0−4と各シグモイド関数ユニッl−3(]−1〜30
−4の出力を入力した同じく4つの線形関数ユニット3
2−1〜323で構成される。
ルール部12はシグモイド関数ユニット34−1〜34
−5を備え、各シグモイド関数ユニット34−1〜34
−5に対する前件部メンバシップ関数実現部10からは
総てのユニットに対して結線が行なわれている。シグモ
イド関数ユニット34−1〜34−5の出力は後件部演
算を行なう線形関数ユニット36−1〜36−2との間
で各ユニ・ノド間が総て結線されている。
後件部メンバシップ関数実現部14は9つの線形関数ユ
ニッ)38−1〜38−9で構成されており、ルール部
12から出力される2種の出力値(グレード値)に基づ
いてメンハシツブ関数を縮小(または拡大)すると共に
縮小した2種のメンバシップ関数の関数和を算出する。
さらに重心計算実現部18は重心決定要素出力装置40
と重心算出装置42で構成され、後件部メンバシップ関
数実現部14からの出力の重み付は総和を重心決定要素
出力装置40に設けられた2つの線形関数ユニット40
−1.4(12のそれぞれで演算して2つの重心算出要
素Yl、Ytを求め、最終的に重心算出装置42で2つ
の重心算出要素Y、、Y、から重心を算出して制御出力
Yを生ずる。
第6図は第5図のルール部全結合ニューロについて、本
発明による学習方法を実現するためのニューロングルー
プと結線グループを示す。
第6図において、ニューロングループはGa−Ggの7
つであるが、この内、入力部のニューロングループGa
と重心計算実現部工8のニューロングループGgの2つ
については単なる分離および加算合成を行なうにすぎな
いことから、本発明による学習対象からは除いており、
従って本発明の学習対象に入るニューロングループはG
 b 、Gc。
Cd、GeおよびGfの5つとなる。一方、各二ニーロ
ングループを結ぶ結線グループはCab〜Cfgの6つ
であり、学習対象となるニューロングループの前段に位
置する入力結線の重み値をバックプロパゲーション法に
より修正する学習を行なうことから、結線グループCa
b−Cefが本発明による学習処理の対象となる。
この第5図、第6図に示した構成のルール部全結合ニュ
ーロを対象とした第2図の動作フローによる学習処理に
つき、まず各部に対する重み値の初期設定を説明すると
次のようになる。
(前件部メンバシップ関数実現部の初期設定)この前件
部メンバシップ関数実現部10に対する重み値の初期設
定は第6図に示す前件部メンバシップ関数実現部の結線
グループCabおよびCbcにおける各結線の重みを、
与えられたメンハシツブ関数を実現するように初期設定
する。
第7図は第5図の前件部メンバシップ関数実現部10に
おける制御入力X1側を取り出して示したものである。
第7図において、シグモイド関数ユニット301.30
−2より出力される出力値yはy=1/(1+e−’讐
・x−’ ) )    (3)で表わされる。
本発明の前件部メンバシップ関数実現部10に対する重
み値の初期設定にあっては、予め持っている知識に基づ
き、例えばシグモイド関数ユニット30−1の入力結線
に重み値Wとして、W=−20 を設定し、且つシグモイド関数ユニット30−1に閾値
θとして、θ=−10を設定する。
またもう1つのシグモイド関数ユニット3〇−2の入力
結線には重み値Wとして、 を設定し、同時にシグモイド関数ユニッl−30−2に
閾値θとして、 θ−10 を設定する。尚、線形関数ユニット32−1.32−2
の入力結線の重み値は重み初期値1を設定している。
このようにシグモイド関数ユニット30−1に、Wく0
.θ〈0 となる重み値および閾値を初期設定した場合には、第8
図の特性曲線44に示す制御入力X、に対するユニット
出力値X、(SS)、すなわち制御入力Xが大きくなる
とユニット出力値x、(SS)が小さくなるという関数
形状のメンバシップ関数の真理値算出機能を設定するこ
とができる。
またシグモイド関数ユニット30−2に、W〉0.θ〉
0 となる重み値および閾値を初期設定することで第7図の
特性曲線46に示す制御入力X1に対するユニット出力
値X、(LA) 、すなわち制御入力Xが大きい程ユニ
ット出力値X 、  (L A )が大きくなるという
関数形状のメンバシップ関数の真理値を算出する機能が
実現できる。
この第7図に示すシグモイド関数ユニット30−1.3
0−2に対する重み値および閾値の初期設定は、前件部
メンバシップ関数実現部10における残りのシグモイド
関数ユニット3(1−2,30−4側についても所望の
前件部メンバシップ関数を実現するように予め持ってい
る知識に基づいて初期設定する。
(ルール部の初期設定) 第3図はルール部12に対する重み値の初期設定は、第
6図に示すルール部に含まれる結線グループCcdおよ
びCdeに属する各結線の重み値を、一定の条件の基で
発生した乱数(例えば+1〜1の範囲)を用いて初期設
定する。ルール部12におけるシグモイド関数ユニット
34−1〜34−8の入力結線に初期設定する重み値と
ユニット自体に設定する閾値に基づくファジィ論理演算
の関数を説明すると次のようになる。
第9図はルール部12に設けられる1つのシグモイド関
数ユニット34を取り出して示したもので、前段に位置
する前件部メンバシップ関数実現部10よりグレートイ
直X、  (SS)〜X2 (LA)を入力し、積和演
算および閾値処理により出力値yのグレード値y (S
S)〜y (LA)を生ずる。
上記 X 1 (S S ) = x + 、 χ+ 
 (LA)=X2 。
Xz  (SS)=X3 、X2  (LA) −X4
としたとき 第9図のシグモイド関数ユニット34より出力される出
力値yは、 5−Wx+ ’ X+ +Wxz’ Xz +wX3−
 x、、+WX4・X、−θ          (4
)y=1/ (1+e−’)          (5
)として算出される。この(5)式で与えられるユニッ
ト出力値yは、入力結線の重み値W X I〜Wつ。
および閾値θを任意に設定することで適宜の関数形状を
実現することができる。
尚、ルール部の最終段に設けられた線形関数ユニット3
6−1.36−2に対する結線の重み値は1に初期設定
されており、また閾値処理については線形関数であり、
閾値θ−〇が設定される。
(後件部メンバシップ関数実現部の初期設定)第5図の
後件部メンバシップ関数実現部14に対する重み値の初
期設定は、第6図の結線グループCefに属する結線の
重み値を予め持っている知識に基づき、与えられたメン
バシップ関数を実現するように初期設定する。
第10図は後件部メンバシップ関数実現部14に対する
重み値の初期設定を具体的に示した説明図である。
第10図において、後件部メンバシップ関数実現部14
に設けられた9つの線形関数ユニット38−1〜38−
9に対しては、前段のルール部12の線形関数ユニッl
−36−1〜36−2より図示のように結線入力が行な
われている。この9つのユニット38−1〜38−9は
、制御出力Yの練直線上のO〜1の範囲の点に等間隔に
対応している。
この線形関数ユニット38−1〜38−9に対する入力
結線に対する重み値の初期設定は、ルール部12のユニ
ット36−1からの出力y (SS)の結線重み値につ
いては右側に示す横軸を制御出力Y、縦軸をユニット出
力値としたグラフの特性曲線46に従ってユニット38
−1側からユニット38−9側に重み値、 1、 1. 1. 0.75. 0.5. 0.25.
  O,0,0を初期設定する。
逆にユニット出力y (LA)を生ずるルール部12の
線形関数ユ二ッ)36−2からの結線については、特性
曲線48に従ってユニット38−1から38−9に向け
て重み値、 0、 0. 0.0.25.0.5.0.75. 1.
、 1. 1を初期設定する。
さらに線形関数ユニット38−1〜38−9は非線形閾
値処理を行なわず、閾値θはθ−〇に設定する。
このような後件部メンバシップ関数実現部14における
重み値の初期設定により、ルール部の線形関数ユニッ)
36−1.36−2から出力されたユニット出力値y 
(SS)およびy (LA)は、重み初期値の乗算によ
り縮小された後に加算され、次の重心計算実現部18に
出力される。
尚、第10図にあっては、ユニット出力を縮小するよう
に1以下の重み値を初期設定しているが、1以上の重み
値を設定して拡大することも有り得る。
(重心計算実現部の初期設定) 第5図の重心計算実現部18に対する重み値の初期設定
は、第6図に示す結線グループCfgに対し重心計算を
実現するように初期設定する。
第11図は重心計算実現部18の重心決定要素出力装置
40に対して行なわれる重心計算を実現するための重み
値の初期設定の具体例を示す。
重心決定要素出力装置40に設けられた2つの線形関数
ユニッ)40−1.40−2に対しては、前段の後件部
メンバシップ関数実現部14に設けられた9つの線形関
数ユニット38−1〜389のそれぞれが結線される。
そして、この入力結線に対し図示のように重心計算に使
用する2つの重心導出値Y+、Yzを算出するための重
み値が設定される。
ファジィ制御にあっては、次式に従って同一制御出力に
ついての縮小されたメンバシップ関数の関数和の図形の
重心を求めることでファジィ推論値である制御出力Yを
算出する方法を採用することが多い。
Y = S grade(y)ydy/ S grad
e(y)dy     (6)この(6)式を実現する
ため、線形関数ユニット40−1に対する後件部メンバ
シップ関数実現部14に設けた線形関数ユニット38−
1〜38−9からの結線に対する重み値として、制御出
力Yの最小値Y=Oを起点に最大値Y=1まで等間隔を
もって0から増加する重み値を割り付ける。
一方、線形関数ユニット40−2に対しては、制御出力
Yの最大値Y=1を起点に最小値Y=Oまでの間に0か
ら上記と同じ等間隔をもって、例えば−1に減少する重
み値を割り付ける。
このような線形関数ユニッ)40−1.40−2に対す
る入力結線の重み付けにより、前段の線形関数ユニッ)
38−1〜38−9のユニット出力値をC7〜C7とす
ると、線形関数ユニット401は、 Y、 = I C,+0.875 Cz +0.75C
+0.625C,+0.5 Cs +0.375C6十
0.25C?+0.125Ce+OCq  (7)を出
力し、また線形関数ユニット40−2は、y、 =OC
,−0,125C,−0,25C。
−0,375C,−0,5Cs −0,625C6−0
,75C,−0,875C,−I C,(8)を出力す
る。
線形関数ユニット40−1.40−2から出力される重
心導出値Y、、Y2は重心算出袋?I42に与えられ、 Y=Y2 / (yz −Yl )        (
9)を使用して重心、すなわちファジィ推論値である制
御出力Yが算出される。
前記(9)式に前記(7)式および(8)式を代入する
と、(9)式のYは、(6)式のYと一致することがわ
かる。
以上の処理で第2図のS1〜S4に示したルール部全結
合ニューロに対する重み値の初期設定が終了し、ステッ
プS5に進む。
(学習スケジュールの設定) 第2図にステップS5にあっては、初期設定の終了に続
いてルール部全結合ニューロに学習処理を行なわせるた
めの学習計画、すなわち、学習スケジュールの設定を行
なう。この学習スケジュールの設定は第12図(a)〜
(C)に示すようなフェーズ・グループ対応表の設定と
、同図(d)に示すグループ・結線対応表の設定の2つ
を行なつ。
まず、フェーズ・グループ対応表は学習フェーズの進行
に対し各フェーズで学習対象となるニューロングループ
を指定する。本発明の内請求項1の発明にあっては、重
み初期値の設定後に前件部メンバシンブ関数実境部10
、ルール部12の学習を行なった後、後件部メンバシッ
プ関数実現部14、の学習を行なうことから、第12図
(a)に示すように、フェーズ1に学習対象グループと
して第5図に示すニューロングループGb、Geを、ま
た、フェーズ2にGfを設定する。一方、請求項2の発
明においては、同図(b)に示すようにフェーズ1にG
d、Geを、フェーズ2にcbGcを、フェーズ3にG
fを、設定する。
また、請求項3の発明においては、同図(C)に示すよ
うにフェーズ1にGd、Geを、フェーズ2にGb、G
c、Gd、Geを、フェーズ3にGfを設定する。
一方、グループ・結線対応表は、ルール部全結合ニュー
ロにおけるニューロングループGa=Ggと入力結線グ
ループの対応関係を設定するもので、第12図(d)に
示すようにニューロングループGb−Ggに対し入力結
線グループCab=Cgfのそれぞれが対応付けられる
 (第6図参照)。
このようなフェーズ・グループ対応表およびグループ・
結線対応表の設定が終了すると、第2回の86に進んで
学習スケジューラを起動し、実際にルール部全結合ニュ
ーロに対し学習データを与えて、バックプロパゲーショ
ン法により入力結線の重み値を変更する学習を行なわせ
る。
(学習スケジューラの処理と構成) 第13図は本発明のルール部全結合ニューロの学習処理
フロー図を示す。この動作フロー図は例えば第14図に
示す装置構成により実現することができる。
まず、学習処理のための装置構成を説明すると、第14
図において、ルール部全結合ニューロ100に対しては
学習指示ユニット50と学習ユニット70が設けられる
学習指示ユニット50は学習スケジューラ52を有し、
学習スケジューラ52に対しては制御入力とその制御入
力に対する望ましい制御出力との対でなる学習信号を格
納した学習信号格納部54、第12図に示したフェーズ
・グループ対応表を格納したフェーズ・グループ対応チ
ーフル56、およびグループ・結線対応表を格納したグ
ループ・結線対応テーブル5日が接続される。また、学
習スケジューラ52に対しては学習収束判定部60が設
けられる。
一方、学習ユニット70には学習指示読取部72、学習
フラグ設定部74およびバックプロパゲーション法によ
り重み値を変更する重み変更部76が設けられる。
さらに、第14図における装置構成の特徴は、ルール部
全結合ニューロ100における各ユニットを結ぶ結線に
学習調整器80が設けられている点である。
学習調整器80は第15図に示す構成を有する。
尚、学習調整器80と共に重み変更部76を示している
学習調整器80にはフラグ保存部82、重み変更情報読
取部84および重み変更量調整部86が設けられる。
一方、重み変更部76にはバックプロパゲーション法に
よる重み演算を実行する重み演算部88、重み保存部9
0および重み変更量保存部92が設けられる。
このように、ルール部全結合ニューロの結線毎に学習調
整器80を設けることで、学習指示ユニット50の学習
スケジューラ52によりルール部全結合ニューロ100
に対し結線の重み値を変更するか否かを決定する学習フ
ラグを設定することができ、学習フラグが有効、すなわ
ちフラグオンとなっている結線に対してのみ重みの変更
、すなわち学習を行なうことが可能となる。
また、学習調整器80に対するフラグセットは、第2図
に示したようなファジィルールを実現可能なネットワー
ク構造をもたない一般的な階層ネットワークに対し、フ
ァジィルールを実行可能な前件部メンバシップ関数実現
部10、ルール部12および後件部メンバシップ関数実
現部14で成る階層ネットワークを特定する際にも使用
される。
ファジィルールに適合した階層ネットワークを構成した
状態でバックプロパゲーション法により実際に学習させ
る際の重み値の調整は次のように行なわれる。
第15図において、学習調整器80の重み変更情報読取
部84に重み変更部76の重み変更量保存部92に対し
重み演算部88より重みの変更量が書き込まれているこ
とを監視している。重み変更情報読取部84で重みの変
更があったことを検知すると、その旨を重み変更量調整
部86に伝える。重み変更量調整部86はフラグ保存部
82の学習フラグを調べ、学習フラグがオンであれば何
もしない。一方、学習フラグがオフであれば、重み変更
量調整部86は重み変更部76の重み変更量保存部92
にゼロを設定し、重み変更を無効とする。この学習スケ
ジューラを構成するハードウェアは特願昭63−227
825号の「ネットワーク構成データ処理装置の学習方
式」に示される。
次に、第13図の学習処理フローを参照して、第14図
の装置構成に従ったルール部全結合ニューロの学習処理
を説明する。
まず学習指示ユニット50の学習スケジューラ52が起
動されると、まずSlで学習フェーズの進行を示すフェ
ーズカウンタiをi−1にセットしてS2に進み、フェ
ーズ・グループ対応テーブル56に格納されている対応
表を参照して学習フェーズi=1に対応するニューロン
グループ番号を読み出す。例えば請求項3の発明にあっ
ては、第13図に示すようにフェーズ1にルール部全結
合ニューロ100のルール部12のニューロングループ
Cd、Geが、また、フェーズ2に、前件部メンバシッ
プ関数実現部10、および、ルール部12のニューロン
グループGb−Geが、さらに、フェーズ3に後件部メ
ンバシップ関数実現部Gfが設定されている。
続いてS3に進み、ニューロングループ番号に対応した
結線番号をグループ・結線対応テーブル58を参照して
読み出す。
続いてS4に進み、結線グループ番号を出力して結線グ
ループ番号に属する結線に設けられた学習調整器80の
学習フラグをオンする。
具体的には、学習指示ユニット50の学習スケジューラ
52から学習ユニット70の学習指示読取部72に対し
結線グループ番号を出力し、学習指示読取部72で結線
グループ番号を読み取って学習フラグ設定部74に与え
る。学習フラグ設定部74は学習指示を受けた結線グル
ープ番号に属する結線に設けられている学習調整器80
のフラグ保存部82に対しフラグオンを指令して学習フ
ラグをセットする。
続いてS5に進んで、学習スケジューラ52は学習実行
指令を出して学習処理を開始させる。この学習処理は学
習指示ユニット50の学習信号格納部54に準備されて
いる制御入力Xと、制御入力Xに対する望ましい制御出
力となる教師信号dを読み出し、制御入力Xをルール部
全結合ニューロ100に与え、教師信号dは重み変更部
76および学習収束判定部60に与える。そして、学習
入力Xによりルール部全結合ニューロ100から出力さ
れる制御出力Yを重み変更部76および学習収束判定部
60に取り込み、重み変更部76にあってはバックプロ
パゲーション法に従って重み値の変更を行ない、学習収
束判定部60で教師信号dに対する制御出力Yの誤差が
規定値以下となったとき学習終了を判定して学習処理を
終了する。
S5の学習実行指令に基づいて学習処理が終了すると、
S6でフェーズカウンタiを1つインクリメントし、S
7で学習フェーズの終わりをチエツクする。本発明にお
いては、請求項1の発明ではフェーズ2まで、請求項2
.3の発明にあってはフェーズ3までの学習処理を行な
うことから、設定された最終フェーズの学習処理が終っ
たとき一連の処理を終了することになる。
(バックプロパゲーション法による学習原理)次に本発
明のバックプロパゲーション法による学習原理を階層型
ネットワークと共に説明する。
第16図は一般的な階層型ニューラルネットワークを示
したもので、ユニットと呼ばれる一種のノードと重みを
もつ内部結合とから構成される。
第16図では入力装置としてのh層、中間層としてのi
層、出力層としてのj層を示している。ここでは、中間
層としてのi層は1層であるが、複数の中間層があって
も同じである。各ユニットは第4図に示したように複数
の各々の入力に対し各々の内部結合の重みを乗する乗算
部22と、乗算部22の全乗算結果を加算する加算部2
4と、加算結果に閾値処理を施して1つの出力を出す閾
値処理部26とをもっている。このユニットで行なわれ
る演算は基本ユニット20について示した前記(1)(
2)式となる。バックプロパゲーション法では階層ネッ
トワークの重み値Wihと閾値θiとを誤差のフィード
バックにより適応的に自動調整して学習する。前記(1
)(2)式から明らかなように、重み値Wihと閾値θ
iとの調節は同時に実行される必要があるが、この作業
は相互に干渉する難しい作業となる。そこで、本願出願
人にあっては通常のユニット以外に、入力側のh層に常
に出力値が1であるユニットを設け、この出力値1のユ
ニットの出力に対し閾値θiを重み値として割り付ける
ことで、閾値θiを重み値Wihの中に組み込んで閾値
θiを重み値として扱うことができるパックプロパゲー
ション法を提案している(特願昭62−333484号
)。
このようにすることで、前記(1)(2)式はXpi”
ΣyいW、、          (11)”! +>
i = 1 / (1+exp(−x p;))   
  (12)で表わされることとなり、閾値θiは表わ
れてこない。
前記(11)(12)式からの展開によって次の(13
)(14)式が得られる。
Xpj−Σy pi W Jr         (1
3)1 / (1+expC−x 、J))    (
14)ypJ″: 但し、 J   : Wll: Xpj’ j層のユニット番号 i−j層間の内部結合の重み値 i層の各ユニットからj層の1番ユニットへの入力の積
和 VpjCP番目のパターンの入力信号に対するj層の1
番ユニットからの出力 第14図の重み変更部76では学習用の入カバターンX
が提示されたときに出力層jから出力される出カバター
ンy、Jと出カバターンypjのとるべき信号である教
師パターンd pjを受けると、両者の差分値 (dp=−ypi) を算出し、次に、 δpi=ypJ(1y□)  (dpJ)’pj)  
 (15)を算出する。続いて、 ΔW=h(t)=ε Σ δptyい+ζΔWih(t
−1)p                  (18
)に従ってh層とi層の重み値の更新量ΔWi+、(t
)を算出する。
続いて重み変更部76は前記(16)式および(18)
式で算出した更新量に従って次の更新サイクルのための
重み値を 但し、ε:学習定数 ζ:モーメンタム t:学習回数 に従ってi層と38間の重み値の更新量ΔWji(t)
を算出する。ここで、前記(16)式右辺第2項で、前
回の更新サイクル時に決定された重み値の更新量を加算
するのは、学習の高速化を図るためである。
続いて、重み値変更部76は前記(15)式で算出した
δ1を用いて、 wih(t)  −wih(t−i)  +ΔWi+、
(t)として決定する。
以上の重み値の更新を学習用の入カバターンに対する出
カバターンy2Jが教師パターンd pjに一致する重
み値が得られるように学習処理を繰り返す。
一方、第16図の階層ネットワークを構成するユニット
が線形ユニットであった場合には、前記(14)式は、 ypi=xpJ(20) と表わされる。この線形関数ユニットにおける前記(1
5)式及び(17)式は δpJ= dpj−ypJ(21) δ2.=Σδ、、JWJ、(t−1)(22)と表わさ
れる。
(本発明の重み学習処理) 第17図は第5図に示した本発明のルール部全結合ニュ
ーロに対しバックプロパゲーション法により行なう重み
学習の処理フロー図である。
この学習処理フローにおける各部のパラメータは第18
図に示すように定めている。
第18図は第5図のルール部全結合ニューロの階層構造
を概略的に示したもので、図に示すように第1層から第
6層までの6層構造をもっており、第1層および第3層
がシグモイド関数ユニットで構成され、残りは線形関数
ユニットで構成されている。また、学習対象となるのは
第1層から第5層までであり、最終段の重心計算実現部
18における第6層は重み学習の対象から外される。
ここで、ルール部全結合ニューロによるファジィルール
の実現で出力されるファジィ制御値、すなわち制御出力
値をyhとしており、学習処理は第6層から第5層、第
4層、第3層、第2層、第1層というように順次行なう
。この階層毎の学習の進行はiカウンタで示される。す
なわち、初期状態でiカウンタはi=6にセットされて
いる。
さらに説明を簡単にするため、WLi−1とΔW、。
、−1はマトリックスを示し、大きさは(i層目のニュ
ーロン数)x(i−1層目のニューロン数)となる。さ
らにまたδiとyiはヘクトルを示し、大きさはi番目
の層のニューロン数と同じになる。
この第18図に示す各部のパラメータを前提に請求項1
の発明の場合を例に採って、第17図の重み学習処理フ
ローを説明すると次のようになる。
まず、ステップSL(以下「ステップ」は省略して単に
51として記述する)で学習対象層を設定するカウンタ
iをイニシャライズする。具体的には第18図に示した
ように6層構成であることから、カウンタiをi=6に
初期設定する。この初期設定により第6層目が学習対象
として指定される。
次に32に進み、シグモイド関数ユニットか否か判定す
る。この場合、線形関数ユニットであることから314
に進み最終段の階層か否か判定し、6層目が最終段であ
ることから315に進み、そのとき得られている教師信
号dと制御出力y6を使用して差分値δ、を求める。
次に86に進み、重みを学習するユニットか否か判定す
る。このとき第6層は学習対象から外されているため(
具体的には結線に設けられた学習調整器80の学習フラ
グがオフとなっているため)、S8に進んで重み値更新
量ΔW6.をΔW6s=OとしてS9に進み、この場合
、ΔW65=Oであることから重み値Wb、の更新は行
なわない。続いてS12に進んでカウンタi−1か否か
、すなわち全ての階層の学習が終了したか否か判定し、
このときi=6であることから313に進んでカウンタ
iを1つデクリメントしてi=5とし、S2に戻って次
の第5層の学習に進む。
第5層についても線形関数ユニットであることからS2
からS14に進むが、最終段階層でないことからS16
に進み、1つ前の6層の学習処理で得られた差分値δ6
と重み値W6.とから前記(22)式と同様の式に従っ
て差分値δ、を求める。
次に、S6に進んで学習対象となっているか否か判定し
、第5層は本発明にあっては学習対象となっていないか
ら、重み値W6.を更新しない(S8→S9→S12→
513)。
次に第4層の全ユニットについて処理しくS16→S 
6 →S 7 →S 9 →S 12−313 ) 、
第4層の処理が終了すると第3層に進む。
第3層の処理に進むと、第3Nにシグモイド関数ユニッ
トを使用していることがらs2から33に進み、最終段
の階層ユニットでないことがら、S5でシグモイド関数
ユニット固有の差分値δ3を前記(17)式と同様の演
算式により求める。
この第3層も学習対象となっていることがらs6から3
7に進んでs5で算出した差分値δ3を使用して重み更
新量ΔW3□を算出し、s9で更新する。
この3層の最終ユニットまで同様な処理を繰り返し、2
層に進んで線形関数ユニットに関する学習さらに第1層
に進んでシグモイド関数ユニットに関する学習を行なう
ことになるが、ここではルール部のみを学習させるので
第2層、第1層の学習処理は行なわれない。そして、第
1層の最終ユニットの処理が終了して310からSL2
に進むと、このときカウンタiはi=1となっているこ
とから全ての階層の学習が終了したことを判定して一連
の処理を終了する。フェーズ1での学習は、以上で終了
するが、次にフェーズ2の学習を行なうため、再びカウ
ンタiをi=6にセットして、上述の処理を繰り返す。
このフェーズ2では第5層、についての学習処理が行な
われる。
(乱数を用いた重み初期設定) 次に、第19図の動作フロー図を参照して本発明の学習
方法の他の実施例を説明する。
第19図の動作フロー図に示す学習処理にあっては、S
L、S2.S3で行なうルール部全結合ニューロの前件
部メンバシップ関数実現部10、ルール部12および後
件部メンバシップ関数実現部14に対する重み(閾値を
含む)値の初期設定として、乱数を使用したことを特徴
とする。それ以外の34.S5.S6の処理は第2図の
第1実施例と同じである。
また部分的に予め持っている知識があるときには、この
知識に基づいた設定を行なってもよい。
(その他) 尚、上記の具体的な実施例は第5図に示したように2つ
の制御入力X+、Xzを対象としたファジィルールを実
現するルール部全結合ニューロを例にとるものであった
が、制御入力は1または3以上の適宜の入力数としても
よいことは勿論である。
また、上記の実施例にあっては第7,8図に示した y=1/(1十e−に÷θ )       (23)
となるメンバシップ関数を例にとるものであったが、第
20図に示すように2つのシグモイド関数ユニント91
−1.91−2のユニット出力を減算ユニット96に与
えて同図(b)のシグモイド関数を実現するようにして
もよい。この場合のユニット出力yは、 y =1/(1−e−””’J −1/(1−e−lZ
X+θ2)と表現することができる。
[発明の効果] 以上説明してきたように本発明によれば、前件部メンバ
シップ関数実現部、ルール部、後件部メンバシップ関数
実現部のそれぞれに予め持っている知識に基づく初期設
定または乱数を用いた初期設定またはその複合設定を行
なった後にルール部全結合ニューロ全体を学習させるこ
とで、効率の良い学習が可能となり、任意のファジィ制
御適応システムに使用するファジィルール実現のための
より効率的な結線の重み解析を実現することができる。
【図面の簡単な説明】
第1図は本発明原理説明図、第2図は本発明の学習動作
フロー図、第3図はルール部全結合ニューロの定義の説
明図、第4図は基本ユニット説明図、第5図は本発明の
ルール部全結合ニューロの具体的実施例を示した構成図
、第6図はニューロングループおよび結線グループの説
明図、第7図は本発明の前件部メンバシップ関数実現部
の初期設定説明図、第8図は前件部のメンバシップ関数
説明図、第9図は本発明のルール部ユニット説明図、第
10図は本発明の後件部メンバシップ関数実現部の初期
設定説明図、第11図は本発明の重心計算実現部の初期
設定説明図、第12図は本発明のフェーズ・グループ対
応表およびグループ・結線対応表の設定説明図、第13
図は本発明の学習処理フロー図、第14図は本発明によ
る学習処理の装置構成図、第15図は第14図の結線毎
に設けた学習調整器構成図、第16図は一般的な階層ニ
ューラル・ネットワーク説明図、第17図は本発明の重
み学習処理フロー図、第18図は第17図の各部のパラ
メータ説明図、第19図は本発明の他の実施例を示した
動作フロー図、第20図は本発明に用いる他のメンバシ
ップ関数の説明図である。 10・・・・・・前件部メンバシップ関数実現部、12
・・・・・・ルール部、 14・・・・・・後件部メンバシップ関数実現部、16
・・・・・・入力部、 18・・・・・・重心計算実現部、 20・・・・・・基本ユニット、 22・・・・・・乗算部、 24・・・・・・加算部、 26・・・・・・閾値処理部、 28−1.28−2.32−1〜32−4゜38−1〜
3B−9,40−1,40−2・・・・・・線形関数ユ
ニット 30−1〜30−2.31−1〜34−5゜94−1.
91−2・・・・・・シグモイド関数ユニット40・・
・・・・重心決定要素出力装置、42・・・・・・重心
算出装置、 50・・・・・・学習指示ユニット、 52・・・・・・学習スケジューラ、 54・・・・・・学習信号格納部、 56・・・・・・フェーズ・グループ対応テーブル、5
8・・・・・・グループ・フェーズ対応チーフル、60
・・・・・・学習収束判定部、 70・・・・・・学習ユニット、 72・・・・・・学習指示読取部、 74・・・・・・学習フラグ設定部、 76・・・・・・重み変更部、 80・・・・・・学習調整器、 82・・・・・・フラグ保存部、 84・・・・・・重み変更情報読取部、86・・・・・
・重み変更量調整部、 88・・・・・・重み演算部、 90・・・・・・重み保存部、 92・・・・・・重み変更量保存部、 96・・・・・・減算ユニット、 100・・・・・・ルール部全結合ニューロ。

Claims (7)

    【特許請求の範囲】
  1.  1.入力信号の持つメンバーシップ関数値を算出して
    出力する基本ユニットを複数設けることにより構成され
    る前件部メンバシップ関数実現部(10)と、 前段の処理層の出力する演算結果値と該演算結果値に対
    応付けられる内部結合の重み値との乗算値を入力として
    、割り付けられる演算に従って演算結果値を算出して出
    力する少なくとも一つの基本ユニットにより構成される
    処理層を1段または複数段備え、かつ、隣接する前後段
    の処理層の基本ユニットの間と、最前段の処理層の基本
    ユニットと上記前件部メンバシップ関数実現部(10)
    の基本ユニットとの間で相互に内部結合する構成を採る
    ことにより構成されるルール部(12)と、該ルール部
    (12)の最後段の処理層の対応する基本ユニットの出
    力する演算結果値を入力として、出力信号のメンバーシ
    ップ関数値に応じて導出される出力信号値を算出して出
    力する少なくとも一つの基本ユニットにより構成される
    後件部メンバシップ関数実現部(14)とより成る階層
    ネットワークを有し、入力される制御状態量(X_1〜
    X_n)に対応する制御操作量(Y_1〜Y_m)を出
    力するルール部全結合ニューロにおいて、 前記前件部メンバシップ関数実現部(10)、ルール部
    (12)、および後件部メンバシップ関数実現部(14
    )の各々に重みおよび閾値の初期値を設定する第1過程
    と、 予め準備された学習データを使用して前記ルール部(1
    2)の重みを学習させる第2過程と、後件部メンバシッ
    プ関数実現部の重みを学習させる第3過程とを備えたこ
    とを特徴とするルール部全結合ニューロの学習方法。
  2.  2.前記ルール部全結合ニューロの第1過程終了後の
    学習方法として、 予め準備された学習データを使用して前記ルール部(1
    2)の重みを学習させる第2過程と、前件部メンバシッ
    プ関数実現部(10)の重みを学習させる第3過程と、 後件部メンバシップ関数実現部(14)の重みを学習さ
    せる第4過程とを備えたことを特徴とするルール部全結
    合ニューロの学習方法。
  3.  3.前記ルール部全結合ニューロの第1過程終了後の
    学習方法として、 予め準備された学習データを使用して前記ルール部(1
    2)の重みを学習させる第2過程と、前件部メンバシッ
    プ関数実現部(10)およびルール部(12)の重みを
    同時に学習させる第3過程と、後件部メンバシップ関数
    実現部(14)の重みを学習させる第4過程とを備えた
    ことを特徴とするルール部全結合ニューロの学習方法。
  4.  4.前記第1過程の前件部メンバシップ関数実現部お
    よび後件部メンバシップ関数実現部の重みおよび閾値の
    初期値の設定は、予め持っている知識に基づいて作成さ
    れた重みおよび閾値の初期値を設定することにより行な
    い、ルール部の重みおよび閾値は乱数を用いて設定する
    ことを特徴とする請求項1〜3記載のルール部全結合ニ
    ューロの学習方法。
  5.  5.前記第1過程の重みおよび閾値の初期値の設定は
    、乱数を用いて作成された初期値を設定することを特徴
    とする請求項1〜3記載のルール部全結合ニューロの学
    習方法。
  6.  6.前記第1過程の重みおよび閾値の初期値の設定は
    、予め持っている知識で設定可能な重みおよび閾値は該
    知識で初期設定し、その他は乱数を用いて重みおよび閾
    値の初期値を設定することを特徴とする請求項1記載の
    ルール部全結合ニューロの学習方法。
  7.  7.前記第2過程による学習開始時に、前記前件部メ
    ンバシップ関数実現部(10)、ルール部(12)、お
    よび後件部メンバシップ関数実現部(14)でなる階層
    ネットワークの結線毎に学習の有無を決める学習フラグ
    を設定し、該結線に設定された学習フラグに基づいて重
    み値を学習処理により最適化することを特徴とする請求
    項1記載のルール部全結合ニューロの学習方法。
JP2174609A 1990-07-03 1990-07-03 ルール部全結合ニューロの学習方法 Pending JPH0464135A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2174609A JPH0464135A (ja) 1990-07-03 1990-07-03 ルール部全結合ニューロの学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2174609A JPH0464135A (ja) 1990-07-03 1990-07-03 ルール部全結合ニューロの学習方法

Publications (1)

Publication Number Publication Date
JPH0464135A true JPH0464135A (ja) 1992-02-28

Family

ID=15981581

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2174609A Pending JPH0464135A (ja) 1990-07-03 1990-07-03 ルール部全結合ニューロの学習方法

Country Status (1)

Country Link
JP (1) JPH0464135A (ja)

Similar Documents

Publication Publication Date Title
US5579439A (en) Fuzzy logic design generator using a neural network to generate fuzzy logic rules and membership functions for use in intelligent systems
Lin et al. Reinforcement structure/parameter learning for neural-network-based fuzzy logic control systems
Jang et al. Neuro-fuzzy modeling and control
Chiang et al. A self-learning fuzzy logic controller using genetic algorithms with reinforcements
US5524176A (en) Fuzzy expert system learning network
US5828812A (en) Recurrent neural network-based fuzzy logic system and method
Lin et al. A neural fuzzy system with linguistic teaching signals
Jain et al. Hybrid intelligent engineering systems
WO1991014226A1 (en) Neuro-fuzzy fusion data processing system
Khan et al. Neufuz: Neural network based fuzzy logic design algorithms
Lin et al. Nonlinear system control using self-evolving neural fuzzy inference networks with reinforcement evolutionary learning
Chakroborty et al. Calibrating the membership functions of the fuzzy inference system: instantiated by car-following data
JPH0464135A (ja) ルール部全結合ニューロの学習方法
JPH0464134A (ja) ルール部全結合ニューロの学習方法
JPH0464132A (ja) ルール部全結合ニューロの学習方法
JPH0464137A (ja) ルール部全結合ニューロの学習方法
JPH0464136A (ja) ルール部全結合ニューロの学習方法
JPH0464133A (ja) ルール部全結合ニューロの学習方法
JPH0424738A (ja) ルール部プリワイヤニューロの学習方法
JPH0424737A (ja) ルール部プリワイヤニューロの学習方法
JPH0424740A (ja) ルール部プリワイヤニューロの学習方法
JP2501932B2 (ja) ニュ―ラルネットワ―クによる重心決定要素出力装置
Hamzei et al. On-line learning of fuzzy decision trees for global path planning
JPH0424741A (ja) ルール部プリワイヤニューロの学習方法
JPH0424744A (ja) ルール部プリワイヤニューロの学習方法