JPH0464136A - ルール部全結合ニューロの学習方法 - Google Patents

ルール部全結合ニューロの学習方法

Info

Publication number
JPH0464136A
JPH0464136A JP2174610A JP17461090A JPH0464136A JP H0464136 A JPH0464136 A JP H0464136A JP 2174610 A JP2174610 A JP 2174610A JP 17461090 A JP17461090 A JP 17461090A JP H0464136 A JPH0464136 A JP H0464136A
Authority
JP
Japan
Prior art keywords
learning
unit
membership function
rule
function realization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2174610A
Other languages
English (en)
Inventor
Akira Kawamura
旭 川村
Kazuo Asakawa
浅川 和雄
Nobuo Watabe
信雄 渡部
Ryusuke Masuoka
竜介 益岡
Arimichi Oowada
大和田 有理
Shigenori Matsuoka
松岡 成典
Hiroyuki Okada
浩之 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Fuji Facom Corp
Original Assignee
Fujitsu Ltd
Fuji Facom Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, Fuji Facom Corp filed Critical Fujitsu Ltd
Priority to JP2174610A priority Critical patent/JPH0464136A/ja
Publication of JPH0464136A publication Critical patent/JPH0464136A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [概 要〕 前件部メンバシップ関数実現部、ルール部および後件部
メンバシップ関数実現部で成るファジィ制御ルールを実
現する階層ネットワーク構造に従って入力に対応する制
御出力を生ずるルール部全結合ニューロの学習方法に関
し、 対象システムに適合した制御を行なうための学習を効率
良く行なうことを目的とし、 前件部メンバシップ関数実現部、ルール部および後件部
メンバシップ関数実現部の各々に、予め持っている知識
の導入または乱数の利用またはその併用で重みおよび閾
値の初期値を設定した後、予め準備されたシステム学習
データを使用してネットワーク全体を学習させるように
構成する。
[産業上の利用分野] 本発明は、ファジィ制御とニューラルネットワークを融
合させたルール部全結合ニューロの学習方法に関する。
ニューロを用いた情報処理にあっては、対象とするシス
テムの入カバターンと、その入カバターンに対する望ま
しい出カバターンとの組でなる学習データを階層型ニュ
ーラルネットワークに提示して学習させ適応的な処理を
行なわせる。この学習処理には特にバックプロパゲーシ
ョン法と呼ばれる処理方式が、その実用性の高さから注
目されている。
一方、ファジィ理論は、1960年にZadehにより
提案され、温度が「低い」とか「高い」といった人間が
行なっている曖昧さに基づく思考や判断の過程をモデル
化する理論である。このファジィ理論では曖昧さを表わ
すためにメンバシップ関数を導入したファジィ集合論を
数学的基礎としている。
ファジィ理論の応用としては、1974年にMaqmd
aniがスチームエンジンの制御に用いたのを最初に、
各種のファジィ制御が行なわれている。
このファジィ制御を実行するシステムは不確定なものを
扱うものであることから、制御アルゴリズムの調整や変
更等に対して適応的に対応できるような構成にしていく
必要がある。
[従来の技術] 一般に、ファジィ制御システムを構築するには、以下の
ような手続きを取る。
■熟練操作員の持つ「もし温度が高ければ、火を小さく
する」等の曖昧な制御規則を得る。
■制御規則の中の言葉(命題)の意味をメンバシップ関
数という形で定量化し、制御規則をrlF〜THEN〜
」 型のルール表現で記述する。
■シミュレーションや現地テストによる検査を行なう。
■検査結果を評価し、メンバシップ関数や規則の改良を
行なう。
さらに詳細に説明すると、ファジィ制御ルールは、例え
ば、 rif x、 is big and Xi ts s
mall theny+ is big J と記述される。ここでIF部は前件部と呼ばれ、温度等
の制御状態量(制御入力)についての条件を記述する部
分である。またTHEN部は後件部と呼ばれ、操作端等
の制御操作量(制御出力)についての条件を記述する部
分である。
ファジィ制御では、対象システムの制御理論として用意
される複数のファジィ制御ルールを管理すると共に、各
ファジィ制御ルール中に記述される「大きい」とか「小
さい」とかいうような曖昧な言語表現の意味をメンバシ
ップ関数として定量化して管理する。
完成したファジィ制御システムの制御手順は次のように
なる。
■制御対象から温度等の制御状態量が人力されると、設
定している前件部のメンバシップ関数に従って真理値を
算出する。
■次に、最小値を選択する等の前件部演算に従って、各
ファジィ制御ルールにおける後件部に対しての適用値を
決定する処理を実行する。
例えば、 rx+ is big J  の真理値;0.8rx2
 is small jの真理値−0,5である場合に
は、最小値を選択する前件部演算に従って、真理値−0
,5をそのファジィ制御ルールの後件部に対しての適用
値として出力するように処理する。
■続いて、同一の制御操作量となる後件部のメンバーシ
ップ関数に対する前件部からの入力値(適用値)から出
力適用値を決定する処理を実行する。
例えば、2つのファジィ制御ルールにより、ryl i
s big Jの適用値=0.5ry+ is big
 Jの適用値=0.6が得られた場合、最大値を選択す
る後件部演算に従って、適用値−0,6を選択決定する
■続いて、決定された適用値に従って制御操作量のメン
バシップ関数を縮小(または拡大)すると共に、同一の
制御操作量についてのメンバシップ関数の関数部の図形
の重心を求める等の処理を行なってファジィ推論値であ
る制御操作量を算出して出力する。
ところで、ファジィ制御ルールは、熟練操作員の持つ知
識に従って生成されることを予定しており、最初から最
適制御を実現できるファジィ制御ルールを確立すること
は困難である。従って、生成したファジィ制御ルールを
シミュレーションや現地テストにより評価しながら試行
錯誤的に改良していくという手順をとらざるを得ない。
そこで本廓発明者等にあっては、ニューロの適用により
ファジィ制御ルールを実現する階層ヱソトワーク構造、
すなわちルール部プリワイヤニューロを使用した適用型
のファジィ制御システムを提案している(特願平2−6
0256号F階層ネットワーク構成データ処理装置およ
びデータ処理システム])。すなわち、ルール部ブリワ
イヤニューロは、前件部メンバシップ関数実現部、ルー
ル部および後件部メンバシップ関数で成るファジィ制御
ルールを実現する階層ネットワーク構成をもつ。
このルール部プリワイヤニューロによるファジィ制御ル
ールの自動抽出を考えると、以下のような手続きを取れ
ばよい。
■ルール部ブリワイヤニューロのメンバシップ関数を設
定する。
■ルール部プリワイヤニューロに、対象システムの入カ
バターンとその入カバターンに対する望ましい出カバタ
ーンの組とを提示して学習させる。
■ルール部の結線の重みを解析することにより対象シス
テムについての最適ファジィ制御ルールを抽出する。
U発明が解決しようとする課題] しかしながら、ルール部全結合ニューロについてファジ
ィ制御ルールを抽出させるために行なわれる学習は、前
件部メンバシップ関数部、ルール部および後件部メンバ
シップ関数実現部の重みを含め、どのようにして学習を
行なわせるかの学習方法が決っておらず、ルール部全結
合ニューロの性能を最大限に引き出すことのできる効率
の良い学習法の構築が必要となっている。
本発明は、このような状況に鑑みてなされたもので、対
象システムに適合した制御を行なうための学習を効率良
く行なうことのできるルール部全結合ニューロの学習方
法を提供することを目的としている。
[課題を解決するための手段] 第1図は本発明の原理説明図であって、(a)は請求項
1の発明に、巾)は請求項2の発明に、(C)は請求項
3の発明に、(d)は請求項4の発明に、(elは請求
項5の発明に、(f)は請求項6の発明に対応している
まず本発明は、前件部メンバシップ関数実現部10、■
または複数階層でなるルール部12および後件部メンハ
シノブ関数実現部14でなる階層ネットワーク構造を有
し、ルール部12の内部の層同士の間および前段の前件
部メンバシップ関数実現部10および後段の後件部メン
バシップ関数実現部14との間で全ユニット間を内部結
合せずに制御ルールに従って一部を内部結合して成り、
入力される制御状態量(X、、X、、・・・X、)に対
応する1または複数の制御操作量(Y)を出力するルー
ル部全結合ニューロを対象とする。
このようなルール部全結合ニューロの学習方法として本
発明にあっては、 く第1過程〉 前件部メンバシップ関数実現部10、ルール部12およ
び後件部メンバシップ関数実現部14の各々に重みおよ
び閾値の初期値を設定する。
く第2過程〉〜〈第5過程〉 予め準備された学習データを使用して前件部メンバシッ
プ関数実現部10、ルール部12および後件部メンバシ
ップ関数実現部14を請求項1〜6の方法で学習させる
とする処理過程を備えた学習方法を構成する。
ここで第1過程の重みおよび閾値の初期値の設定方法と
しては、予め持っている知識(図中は「先験的知識」と
して示す)に基づいて作成された重みおよび閾値の初期
値を設定する。
また第1過程の重みおよび閾値の初期値の他の設定方法
としては、乱数を用いて作成された初期値を設定する。
さらに第1過程の重みおよび閾値の初期値の設定は、予
め持っている知識で設定可能なものは該知識で初期設定
し、その他は乱数を用いて初期値を設定する場合もある
さらにまた、第2過程〜第5過程の学習開始時には、前
件部メンバシ・ノブ関数実現部10、ルール部12およ
び後件部メンバシップ関数実現部14でなる階層ネット
ワーク構造の結線毎に学習の有無を決める学習フラグを
設定し、結線に設定された学習フラグに基づいて重み値
を学習処理により最適化する。
[作 用] このような構成を備え第3図によって定義されるような
ルール部全結合ニューロについての本発明による学習方
法によれば、次の作用が得られる。
まず、対象システムのファジィ制御ルールを実現する前
件部メンバシップ関数実現部、ルール部および後件部メ
ンバシップ関数実現部で成る階層ネットワーク構成のル
ール部全結合ニューロに対し、予め持っている知識に基
づいた重みおよび閾値の初期値の設定または乱数に基づ
いた重みおよび閾値の初期値の設定あるいは両者の併用
を行なう。
続いて、学習処理を起動し、学習用の入カバターンをル
ール部全結合ニューロに提示し、ルール部全結合ニュー
ロからの出カバターンが、人カバターンに対し望ましい
出カバターンとなる学習用カバターン(教師信号)に略
一致するように初期設定した重み値を修正する例えばバ
ックプロパゲーション法による学習を行なう。
また予め持っている知識を導入した前件部メンバシップ
関数実現部、および後件部メンバシップ関数実現部の重
みおよび閾値の初期設定により、学習効率を高めること
ができる。
さらに、乱数を利用した前件部メンバシップ関数実現部
、ルール部および後件部メンバシップ関数実現部の重み
および閾値の初期設定により、ネットワークの性能を最
大限引き出すことができる。
[実施例] 第2図は本発明によるルール部全結合ニューロの学習方
法の第1の実施例としての処理手順を示した学習動作フ
ロー図である。この第2図の手順による学習方法の対象
となるルール部全結合ニューロは、例えば第5図に示す
ような前件部メンバシップ関数実現部10、ルール部1
2、および後件部メンバシップ関数実現部14(重心計
算実現部18を含む)で成るファジィ制御ルールを実現
するための階層ネットワーク構造を有する。
第2図の学習処理にあっては、次のステップ81〜S6
から成る処理を行なう。
くステップSl> 前件部メンバシップ関数実現部IOの重みCabCbc
を与えられたメンバシップ関数を実現するように予め持
っている知識を導入して初期設定する。
〈ステップS2> ルール部12の重みCcd、  Cdeを乱数を用いて
初期設定する。
〈ステップS3) 後件部メンバシップ関数実現部14の重みCefを与え
られたメンバシップ関数を実現するように予め持ってい
る知識を導入して初期設定する。
〈ステップS4> 重心計算実現部18の重みCfgを、重心計算を実現す
るように初期設定する。尚、第5図では後件部メンバシ
ップ関数実現部14に含まれている。
〈ステップS5) 学習処理を行なうフェーズ毎のグループ対応表(学習対
象となるニューロンのグループ、すなわち階層を指定す
るテーブル)および各グループの結線対応表(ユニット
のグループに入力する結線のグループを示すテーブル)
の設定を行なう。
〈ステ・ノブS6> 学習スケジューラを起動してパンクプロパゲーション法
により学習処理を行なう。
以下、第2図の動作フローに示したステップ81〜S6
をそれぞれに分けて詳細に説明する。
(ルール部全結合ニューロの構成) 本発明の対象となるルール部全結合ニューロは、例えば
第5図に示すファジィ制御ルールを実現可能とするため
の階層ネットワーク構成を有する。
第5図において、各部に示したノードは1つの基本ユニ
ットを構成しており、基本ユニ・ノドは黒丸で示すシグ
モイド関数ユニットと、白丸で示す線形関数ユニットの
2種が使用されている。
第4図は第5図のルール部全結合ニューロにおける基本
ユニットの構成を取り出して示したものである。
第4図において、基本ユニット20は多大力1出力系を
構成しており、複数の入力に対し各々の内部結合の重み
値を乗算する乗算部22と、乗算部22の乗算結果を加
算する加算部24と、加算部24の出力に閾値処理を施
す閾値処理部26とで構成される。
ここで前段層をh層、後段層をi層とすると、乗算部2
2と加算部24は下記の(1)式の演算を実行し、また
閾値処理部26では下記の(2)式の演算を実行する。
X、i=ΣyいW、、           (1))
’pi= 1 /  ((1+ e−αパ−むゝ )(
2)但し、 h :h層のユニット番号 i :i層のユニット番号 p :人力信号のパターン番号 θ、:iJiの1番ユニットの閾値 W;、:h−i層間の内部結合の重み値x2□:h層の
各ユニットからi層の1番ユニットへの入力の積和 yph:I)番目パターンの入力信号に対するh層のh
番ユニットからの出力 ypi:p番目パターンの入力信号に対するi層の1番
ユニットからの出力 ここで前記(2)式はシグモイド関数として知られてお
り、第5図のルール部全結合ニューロに示した黒丸の基
本ユニットの閾値処理部26が前記(2)式のシグモイ
ド関数に従った閾値処理を行なう。
これに対し閾値処理部26に )’ pi =  X pi となる線形関数を設定したものが第5図における白丸の
線形関数ユニットとなる。但し、前件部メンバシップ関
数実現部10の最初のユニットとなる入力部は除く。こ
の第4図の基本ユニー/ )を構成するハードウェアと
しては特願昭63−216865号の「ネットワーク構
成データ処理装置」が使用できる。
再び第5図を参照してルール部全結合ニューロの各部の
構成を説明する。
まず前件部メンバシップ関数実現部10は、各入力変数
X+、Xzを入力とし、入力変数X1〜Xnのメンバシ
ップ関数のグレード値を出力する。
図では簡単のため各メンバシップ関数は1変数関数とし
ているが、多変数関数であってもよい。つまり変数X、
とX2を入力として X、hXt  (SA) というメンバシップ関数であっても良い。
ルール部は階層型ニューラルネットワークである。入力
変数X+、Xzのメンバシップ関数のグレード値を入力
として、出力変数Yのメンバシップ関数のグレード値を
出力する。
後件部メンバシップ関数実現部14(重心決定部を含む
)は、出力変数のメンバシップ関数y(SA)〜y (
LA)のグレード値を入力して、出力変数Yの値を出力
する。
第5図では各ユニットを1つのニューロンとして説明し
ているが、ルール部以外の外部についてユニットの機能
が特定できているものはニューロンとせずにユニット機
能を実現するゲート回路、演算器等としてもよい。
また、第5図においては、入力X、、X2の2つを与え
て制御出力Yを得る場合を例にとっており、同図を参照
して各部の構成を詳細に説明すると次のようになる。
入力部16は分離ユニット28−1.28−2で構成さ
れ、入力X+、Xzを2つに分けて前件部メンバシップ
関数実現部10に与える。前件部メンバシップ関数実現
部10は4つのシグモイド関数ユニット30−1〜30
−4と各シグモイド関数ユニッl−30−1〜30−4
の出力を入力した同じく4つの線形関数ユニッ)32−
1〜32−3で構成される。
ルール部12はシグモイド関数ユニット341〜34−
5を備え、各シグモイド関数ユニット34−1〜34−
5に対する前件部メンハシ、プ関数実境部10からは総
てのユニットに対して結線が行なわれている。シグモイ
ド関数ユニット34−1〜34−5の出力は後件部演算
を行なう線形関数ユニッ!−36−1〜36−2との間
で各ユニット間が総て結線されている。
後件部メンバシップ関数実現部14は9つの線形関数ユ
ニン)38−1〜38−9で構成されており、ルール部
12から出力される2種の出力値(グレード値)に基づ
いてメンバシップ関数を縮小(または拡大)すると共に
縮小した2種のメンバシップ関数の関数和を算出する。
さらに重心計算実現部18は重心決定要素出力装置40
と重心算出装置42で構成され、後件部メンバシップ関
数実現部14からの出力の重み付は総和を重心決定要素
出力装置40に設けられた2つの線形関数ユニット40
−1.40−2のそれぞれで演算して2つの重心算出要
素Yl 、 Ytを求め、最終的に重心算出装置42で
2つの重心算出要素Y、、Y、から重心を算出して制御
出力Yを生ずる。
第6図は第5図のルール部全結合ニューロについて、本
発明による学習方法を実現するためのニューロングルー
プと結線グループを示す。
第6図において、ニューロングループはGa−Ggの7
つであるが、この内、入力部のニューロングループGa
と重心計算実現部18のニューロングループGgの2つ
については単なる分離および加算合成を行なうにすぎな
いことから、本発明による学習対象からは除いており、
従って本発明の学習対象に入るニューロングループはG
b、Gc。
Gd、GeおよびGfの5つとなる。一方、各ニューロ
ングループを結ぶ結線グループはCab〜Cfgの6つ
であり、学習対象となるニューロングループの前段に位
置する入力結線の重み値をパックプロパゲーション法に
より修正する学習を行なうことから、結線グループCa
b−Cefが本発明による学習処理の対象となる。
この第5図、第6図に示した構成のルール部全結合ニュ
ーロを対象とした第2図の動作フローによる学習処理に
つき、まず各部に対する重み値の初期設定を説明すると
次のようになる。
(前件部メンバシップ関数実現部の初期設定)この前件
部メンバシップ関数実現部10に対する重み値の初期設
定は第6図に示す前件部メンバシンプ関数実境部の結線
グループCabおよびCbcにおける各結線の重みを、
与えられたメンバシップ関数を実現するように初期設定
する。
第7図は第5図の前件部メンバシンプ関数実境部10に
おける制御入力X、側を取り出して示したものである。
第7図において、シグモイド関数ユニット3゜−1,3
0−2より出力される出力値yはy=1/(1+e−(
1)°Xづ’)    (3)で表わされる。
本発明の前件部メンバシップ関数実現部1oに対する重
み値の初期設定にあっては、予め持っている知識に基づ
き、例えばシグモイド関数ユニット30−1の入力結線
に重み値Wとして、一−20 を設定し、且つシグモイド関数ユニ7)30 1に閾値
θとして、θ=−10を設定する。
またもう1つのシグモイド関数ユニット30−2の入力
結線には重み値Wとして、 W=20 を設定し、同時にシグモイド関数ユニット3〇−2に閾
値θとして、 θ==10 を設定する。尚、線形関数ユニン)32−1,322の
入力結線の重み値は重み初期値lを設定している。
このようにシグモイド関数ユニット30−1に、W〈0
.θ〈0 となる重み値および閾値を初期設定した場合には、第8
図の特性曲Na44に示す制御入力X1に対するユニッ
ト出力値X+(SS)、すなわち制御人力Xが大きくな
るとユニット出力値X+  (SS)が小さくなるとい
う関数形状のメンバシップ関数の真理値算出機能を設定
することができる。
またシグモイド関数ユニット30−2 ニ、W>Q、 
 θ〉0 となる重み値および閾値を初期設定することで第7図の
特性曲線46に示す制御入力X1に対するユニット出力
値x、  (LA) 、すなわち制御人力Xが大きい程
ユニット出カ値X+  (LA)が太き(なるという関
数形状のメンバシップ関数の真理値を算出する機能が実
現する。
この第7図に示すシグモイド関数ユニット30〜1.3
0−2に対する重み値および閾値の初期設定は、前件部
メンバシップ関数実現部loにおける残りのシグモイド
関数ユニッ1−30〜2,30−4側についても所望の
前件部メンバシップ関数を実現するように予め持ってい
る知識に基づいて初期設定する。
(ルール部の初期設定) 第3図はルール部12に対する重み値の初期設定は、第
6図に示すルール部に含まれる結線グループCcdおよ
びCdeに属する各結線の重み値を、一定の条件の基で
発生した乱数(例えば+1〜1の範囲)を用いて初期設
定する。ルール部12におけるシグモイド関数ユニット
34−1〜34−8の入力結線に初期設定する重み値と
ユニット自体に設定する閾値に基づくファジィ論理演算
の関数を説明すると次のようになる。
第9図はルール部12に設けられる1つのシグモイド関
数ユニット34を取り出して示したもので、前段に位置
する前件部メンバシップ関数実現部10よりグレート値
X+  (SS) 〜xz  (LA)を入力し、積和
演算および閾値処理により出力値yのグレード値y(S
S)〜y (L4)を生ずる。
上記 X+ (SS)=x、、Xl (LA)=xz 
Xz  (SS)=X3 、Xz  (LA)=xaと
したとき 第9図のシグモイド関数ユニット34より出力される出
力値yは、 S =W、1−XI  +WX2 ・Xz +WK! 
・X3 +W114−x3−〇          (
4)y=1/ (1+e−s)          (
5)として算出される。この(5)弐で与えられるユニ
ット出力値yは、入力結線の重み値WX、〜WX4およ
び閾値θを任意に設定することで適宜の関数形状を実現
することができる。
尚、ルール部の最終段に設けられた線形関数ユニフ)3
6−1.36−2に対する結線の重み値は1に初期設定
されており、また閾値処理については線形関数であり、
閾値θ−0が設定される。
(後件部メンバシップ関数実現部の初期設定)第5図の
後件部メンバシップ関数実現部14に対する重み値の初
期設定は、第6図の結線グループCefに属する結線の
重み値を予め持っている知識に基づき、与えられたメン
バシップ関数を実現するように初期設定する。
第10図は後件部メンバシップ関数実現部14に対する
重み値の初期設定を具体的に示した説明図である。
第10図において、後件部メンバシップ関数実現部14
に設けられた9つの線形関数ユニット381〜38−9
に対しては、前段のルール部12の線形関数ユニット3
6−1〜36−2より図示のように結線入力が行なわれ
ている。この9つのユニット38−1〜38−9は、制
御出力Yの練直線上のO〜1の範囲の点に等間隔に対応
している。
この線形関数ユニソl−38−1〜38−9に対する入
力結線に対する重み値の初期設定は、ルール部12のユ
ニット36−1からの出力y(SS)の結線重み値につ
いては右側に示す横軸を制御出力Y、縦軸をユニット出
力値としたグラフの特性曲線46に従ってユニット38
−1側からユニ・シト38〜9側に重み値、 1、 1. 1. 0.75. 0.5. 0.25.
  O,0,0を初期設定する。
逆にユニット出力y(LA)を生ずるルール部12の線
形関数ユニソ)36−2からの結線については、特性曲
線48に従ってユニ・ノ)38−1から38−9に向け
て重み値、 0、O,0,0,25,0,5,0,75,1,1,1
を初期設定する。
さらに線形関数ユニット38−1〜38−9は非線形閾
値処理を行なわず、閾値θはθ=Oに設定する。
このような後件部メンバシップ関数実現部14における
重み値の初期設定により、ルール部の線形関数ユニット
36−1.36−2から出力されたユニット出力値y 
(SS)およびy (LA)は、重み初期値の乗算によ
り縮小された後に加算され、次の重心計算実現部18に
出力される。
尚、第10図にあっては、ユニット出力を縮小するよう
に1以下の重み値を初期設定しているが、1以上の重み
値を設定して拡大することも有り得る。
(重心計算実現部の初期設定) 第5図の重心計算実現部18に対する重み値の初期設定
は、第6図に示す結線グループCfgに対し重心計算を
実現するように初期設定する。
第11図は重心計算実現部18の重心決定要素出力装置
40に対して行なわれる重心計算を実現するための重み
値の初期設定の具体例を示す。
重心決定要素出力装置40に設けられた2つの線形関数
ユニット40−1.40−2に対しては、前段の後件部
メンバシップ関数実現部14に設けられた9つの線形関
数ユニッ)38−1〜389のそれぞれが結線される。
そして、この入力結線に対し図示のように重心計算に使
用する2つの重心導出値Y+ 、Yzを算出するだめの
重み値が設定される。
ファジィ制御にあっては次式に従って同一制御出力につ
いての縮小されたメンバシップ関数の関数和の図形の重
心を求めることでファジィ推論値である制御出力Yを算
出する方法を採用することが多い。
Y=  grade(y)ydy/  grade(y
)dy    (6)この(6)式を実現するため、線
形関数ユニット40−1に対する後件部メンバシップ関
数実現部14に設けた線形関数ユニット38−1〜38
9からの結線に対する重み値として、制褌出力Yの最小
値y=oを起点に最大値Y=1まで等間隔をもってOか
ら増加する重み値を割り付ける。
一方、線形関数ユニット40−2に対しては、制御出力
Yの最大値Y=1を起点に最小値Y=Oまでの間にOか
ら上記と同じ等間隔をもって、例えば−1に減少する重
み値を割り付ける。
このような線形関数ユニット40−1,402に対する
入力結線の重み付けにより、前段の線形関数ユニット3
8−1〜38−9のユニット出力値をC8〜C9とする
と、線形関数ユニット401は、 Yl = I CI + 0.875 CZ + 0.
75C3+ 0.625C4+ 0.5 cs + 0
.3750&+ 0.25 C7+ 0.125Cs+
 OC,r  (7)を出力し、また線形関数ユニット
40−2は、Yz ” OCI   0.125Cz 
−0,25Ci−0,375C,−0,5C3−0,6
25C。
−0,75C,−0,875cm+ I C,(8)を
出力する。
線形関数ユニソ)40−1.40−2から出力される重
心導出値Y+ 、Ytは重心算出装置42に与えられ、 Y=Yz / (y、−Yl )        (9
)を使用して重心、すなわちファジィ推論値である制御
出力Yが算出される。
前記(9)式に前記(7)式および(8)式を代入する
と、(9)式のYは、(6)式のYと一致することがわ
かる。
以上の処理で第2図の81〜S4に示したルール部全結
合ニューロに対する重み値の初期設定が終了し、ステッ
プS5に進む。
(学習スケジュールの設定) 第2図のステップS5にあっては、初期設定の終了に続
いてルール部全結合ニューロに学習処理を行なわせるた
めの学習計画、すなわち、学習スケジュールの設定を行
なう。この学習スケジュールの設定は第12図(a)〜
(f)に示すフェーズ・グループ対応表の設定と、同図
(g)に示すグループ・結線対応表の設定の2つを行な
う。
まず、フェーズ・グループ対応表は学習フェーズの進行
に対し各フェーズで学習対象となるニューロングループ
を特徴する請求項1の発明の場合を例に採って説明する
と、重み初期値の設定後に先ずルール部12の重みを、
次いで前件部メンバシップ関数実現部10、ルール部1
2.後件部メンバシップ関数実現部14、全体の学習を
行なうことから、第12図(a)に示すように、フェー
ズIに学習対象グループとして第6図に示すニューロン
グループGd、Ge、の2つを設定し、さらに、フェー
ズ2にGb、Gc、Gd、Ge。
Gfの5つを設定する。
同様に、請求項2の発明においては、同図(b)に示す
ように、フェーズ1にGd、Geを、フェーズ2にGb
、Gcを、フェーズ3にGb、 Gc。
Gd、Ge、Gfを特徴する 請求項3の発明においては、同図(C)に示すように、
フェーズ1にGd、Geを、フェーズ2にGb、Gc、
Gd、Geを、フェーズ3にGb。
Gc、Cd、Ge、Gfを特徴する 請求項4の発明においては同図(d)に示すように、フ
ェーズ1にGd、Geを、フェーズ2にGfを、フェー
ズ3にGb、Gc、Gd、Ge。
Ofを特徴する 請求項5の発明においては同図(e)に示すようにフェ
ーズ1にGd、Geを、フェーズ2にGb、Gcを、フ
ェーズ3にGfを、フェーズ4にGb、Gc、Gd、G
e、Gfを特徴する請求項6の発明においては同図(f
)に示すようにフェーズ1にGd、Geを、フェーズ2
にGb、Gc、Gd、Geをフェーズ3にGfを、フェ
ーズ4にGb、Gc、Gd、Ge、Gfを設定する。
一方、グループ・結線対応表は、ルール部全結合ニュー
ロにおけるニューロングループGa〜Ggと入力結線グ
ループの対応関係を設定するもので、第12図(g)に
示すようにニューロングループGb〜Ggに対し入力結
線グループCab〜Cgfのそれぞれが対応付けられる
(第6図参照)。
このようなフェーズ・グループ対応表およびグループ・
結線対応表の設定が終了すると、第2図の86に進んで
学習スケジューラを起動し、実際にルール部全結合ニュ
ーロに対し学習データを与えて、ハックプロパゲーショ
ン法により入力結線の重み値を変更する学習を行なわせ
る。
(学習スケジューラの処理と構成) 第13図は本発明のルール部全結合ニューロの学習処理
フロー図を示す。この動作フロー図は例えば第14図に
示す装置構成により実現することができる。
まず、学習処理のための装置構成を説明すると、第14
図において、ルール部全結合ニューロ100に対しては
学習指示ユニット50と学習ユニット70が設けられる
学習指示ユニット50は学習スケジューラ52を有し、
学習スケジューラ52に対しては制御入力とその制御入
力に対する望ましい制御出力との対でなる学習信号を格
納した学習信号格納部54、第12図に示したフェーズ
・グループ対応表を格納したフェーズ・グループ対応テ
ーブル56、およびグループ・結線対応表を格納したグ
ループ・結線対応テーブル58が接続される。また、学
習スケジューラ52に対しては学習収束判定部60が設
けられる。
一方、学習ユニッ1−70には学習指示読取部72学習
フラグ設定部74およびバックプロパゲーション法によ
り重み値を変更する重み変更部76が設けられる。
さらに、第14図における装置構成の特徴は、ルール部
全結合ニューロ100における各ユニットを結ぶ結線に
学習調整器80が設けられている点である。
学習調整器80は第15図に示す構成を有する。
尚、学習調整器80と共に重み変更部76を示している
学習調整器80にはフラグ保存部82、重み変更情報読
取部84および重み変更量調整部86が設けられる。
一方、重み変更部76にはバンクプロパゲーション法に
よる重み演算を実行する重み演算部88、重み保存部9
0および重み変更量保存部92が設けられる。
このように、ルール部全結合ニューロの結線毎に学習調
整器80を設けることで、学習指示ユニット50の学習
スゲジューラ52によりルール部全結合ニューロ100
に対し結線の重み値を変更するか否かを決定する学習フ
ラグを設定することができ、学習フラグが有効、すなわ
ちフラグオンとなっている結線に対してのみ重みの変更
、すなわち学習を行なうことが可能となる。
また、学習調整器80に対するフラグセットは、第2図
に示したようなファジィルールを実現可能なネットワー
ク構造をもたない一般的な階層ネットワークに対し、フ
ァジィルールを実行可能な前件部メンバシップ関数実現
部10、ルール部12および後件部メンバシップ関数実
現部14で成る階層ネットワークを特定する際にも使用
される。
ファジィルールに適合した階層ネットワークを構成した
状態でバックプロパゲーション法により実際に学習させ
る際の重み値の調整は次のように行なわれる。
第15図において、学習調整器800重み変更情報読取
部84が重み変更部76の重み変更量保存部92に対し
重み演算部88より重みの変更量が書き込まれているこ
とを監視している。重み変更情報読取部84で重みの変
更があったことを検知すると、その旨を重み変更量調整
部86に伝える。重み変更量調整部86はフラグ保存部
82の学習フラグを調べ、学習フラグがオンであれば何
もしない。一方、学習フラグがオフであれば、重み変更
量調整部86は重み変更部76の重み変更量保存部92
にゼロを設定し、重み変更を無効とする。この学習スケ
ジューラを構成するハードウェアは特願昭63−227
825号の「ネットワーク構成データ処理装置の学習方
式」に示される。
次に、第13図の学習処理フローを参照して、第14図
の装置構成に従ったルール部全結合ニューロの学習処理
を説明する。
まず学習指示ユニット50の学習スケジューラ52が起
動されると、まずSlで学習フェーズの進行を示すフェ
ーズカウンタiをi層1にセットしてS2に進み、フェ
ーズ・グループ対応テーブル56に格納されている対応
表を参照して学習フェーズi=1に対応するニューロン
グループ番号を読み出す。例えば請求項1の発明にあっ
ては、フェーズ1にルール部全結合ニューロ100のル
ール部12のニューロングループGd、Geがまた、フ
ェーズ2に、前件部メンバシップ関数実現部10、およ
び、ルール部12、後件部メンバシップ関数実現部14
のニューロングループGb〜Gfが設定されている。
続いてS3に進み、ニューロングループ番号に対応した
結線番号をグループ・結線対応テーブル58を参照して
読み出す。
続いてS4に進み、結線グループ番号を出力して結線グ
ループ番号に属する結線に設けられた学習調整器80の
学習フラグをオンする。
具体的には、学習指示ユニット50の学習スケジューラ
52から学習ユニット70の学習指示読取部72に対し
結線グループ番号を出力し、学習指示読取部72で結線
グループ番号を読み取って学習フラグ設定部74に与え
る。学習フラグ設定部74は学習指示を受けた結線グル
ープ番号に属する結線に設けられている学習調整器80
のフラグ保存部82に対しフラグオンを指令して学習フ
ラグをセットする。
続いてS5に進んで、学習スケジューラ52は学習実行
指令を出して学習処理を開始させる。この学習処理は学
習指示ユニット50の学習信号格納部54に準備されて
いる制御人力Xと、制御人力Xに対する望ましい制御出
力となる教師信号dを読み出し、制御人力Xをルール部
全結合ニューロ100に与え、教師信号dは重み変更部
76および学習収束判定部60に与える。そして、学習
人力Xによりルール部全結合ニューロエ00から出力さ
れる制御出力Yを重み変更部76および学習収束判定部
60に取り込み、重み変更部76にあってはバックプロ
パゲーション法に従って重み値の変更を行ない、学習収
束判定部60で教師信号dに対する制御出力Yの誤差が
規定値以下となったとき学習終了を判定して学習処理を
終了する。
S5の学習実行指令に基づいて学習処理が終了すると、
S6でフェーズカウンタiを1つインクリメントし、S
7で学習フェーズが終わりか否かをチエツクする。学習
フェーズが終了していなければ、S2に戻って再び学習
を行ない、フェーズが終了しているならば、そのまま一
連の処理を終了する。
(バックプロパゲーション法による学習原理)次に本発
明のバックプロパゲーション法による学習原理を階層型
ネットワークと共に説明する。
第16図は一般的な階層型ニューラルネットワークを示
したもので、ユニットと呼ばれる一種のノードと重みを
もつ内部結合とから構成される。
第16図では入力装置としてのh層、中間層としてのi
層、出力層としてのj層を示している。ここでは、中間
層としてのi層は1層であるが、複数の中間層があって
も同じである。各ユニットは第4図に示したように複数
の各々の入力に対し各々の内部結合の重みを乗する乗算
部22と、乗算部22の全乗算結果を加算する加算部2
4と、加算結果に閾値処理を施して1つの出力を出す閾
値処理部26とをもっている。このユニットで行なわれ
る演算は基本ユニット20について示した前記(1)(
2)式となる。バックプロパゲーション法では階層ネッ
トワークの重み値Wfbと閾値θiとを誤差のフィード
バックにより適応的に自動調整して学習する。前記(1
)(2)式から明らかなように、重み値Wihと閾値θ
iとの調節は同時に実行される必要があるが、この作業
は相互に干渉する難しい作業となる。そこで、本願出願
人にあっては通常のユニット以外に、入力側のh層に常
に出力値が1であるユニットを設け、この出力値1のユ
ニットの出力に対し閾値θiを重み値として割り付ける
ことで、閾値θiを重み値Wihの中に組み込んで閾値
θiを重み値として扱うことができるバックプロパゲー
ション法を提案している(特願昭62−333484号
)。
このようにすることで、前記(1)(2)式はXpi−
Σ yphW;h           (11)y 
pi = 1 / (1+exp(−x pt))  
   (12)で表わされることとなり、閾値θiは表
われてこない。
前記(11)  (12)式からの展開によって次の(
13)  (14)式が得られる。
Xpj=ΣypiWji          (13)
VpJ= 1 / (1+exp(xpJ))    
 (14)但し、 j :j層のユニット番号 W74:i−j層間の内部結合の重み値x、、:i層の
各ユニットからj層の1番ユニ。
トへの入力の積和 ypj’p番目のパターンの入力信号に対するj層の1
番ユニットからの出力 第14図の重み変更部76では学習用の入カバターンX
が提示されたときに出力層jから出力される出カバ名−
ン3’pjと出カバターンypjのとるべき信号である
教師パターンd、Jを受けると、両者の差分値 (dp=  3’pj) を算出し、次に、 δp、−ypi (1−ypJ)  (dp、−y□)
   (15)を算出する。続いて、 但し、ε:学習定数 ζ:モーメンタム t:学習回数 に従ってi層とj層間の重み値の更新量ΔW、1(t)
を算出する。ここで、前記(16)式右辺第2項で、前
回の更新サイクル時に決定された重み値の更新量を加算
するのは、学習の高速化を図るためである。
続いて、重み値変更部76は前記(15)式で算出した
dpjを用いて を算出し、次に に従ってh層とi層の重み値の更新量ΔW=h(t)を
算出する。
続いて重み変更部76は前記(16)式および(18)
式で算出した更新量に従って次の更新サイクルのための
重み値を w、h(t)  =w、(t−1)  +ΔW!h(t
)として決定する。
以上の重み値の更新を学習用の入カバターンに対する出
カバターンYpiが教師パターンdpJに一致する重み
値が得られるように学習処理を繰り返す。
一方、第16図の階層ネットワークを構成するユニット
が線形ユニットであった場合には、前記(14)式は ypJ=xps               (20
)と表わされる。この線形関数ユニットにおける前記(
15)式および(エフ)式は δ2、= dpj−3’pJ(21) δ2.− Σ δ、、W、1(t−1)       
   (22)と表わされる。
(本発明の重み学習処理) 第17図は第5図に示した本発明のルール部全結合ニュ
ーロに対しバックプロパゲーション法により行なう重み
学習の処理フロー図である。
この学習処理フローにおける各部のパラメータは第18
図に示すように定めている。
第18図は第5図のルール部全結合ニューロの階層構造
を概略的に示したもので、図示のように第1層から第6
層までの6層構造をもっており、第1層および第3層が
シグモイド関数ユニットで構成され、残りは線形関数ユ
ニットで構成されている。また、学習対象となるのは第
1層から第4層までであり、最終段の重心計算実現部1
8における第6層は重み学習の対象から外される。
ここで、ルール部全結合ニューロによるファジィルール
の実現で出力されるファジィ制御値、すなわち制御出力
値をy、としており、学習処理は第6層から第5層、第
4層、第3層、第2層、第1層というように順次行なう
。この階層毎の学習の進行はiカウンタで示される。す
なわち、初期状態でiカウンタはt=6にセットされて
いる。
さらに説明を簡単にするため、W t + i −1と
ΔW1゜8−3はマトリックスを示し、大きさは(i層
目のニューロン数)x(i−1層目のニューロン数)と
なる。さらにまたδiとyiはベクトルを示し、大きさ
はi番目の層のニューロン数と同じになる。
この第18図に示す各部のパラメータを前提に請求項1
の発明の場合を例に採って、第17図の重み学習処理フ
ローを説明すると次のようになる。
まず、ステップSl(以下「ステップ」は省略して単に
81として記述する)で学習対象層を設定するカウンタ
iをイニシャライズする。具体的には第18図に示した
ように6層構成であることから、カウンタiをi=6に
初期設定する。この初期設定により第6層目が学習対象
として指定される。
次に82に進み、シグモイド関数ユニットか否か判定す
る。この場合、線形関数ユニットであることから314
に進み最終段の階層か否か判定し、6層目が最終段であ
ることから515に進み、そのとき得られている教師信
号dと制御出力y、を使用して差分値δ、を求める。
次に36に進み、重みを学習するユニットか否か判定す
る。このとき第6層は学習対象から外されているため(
具体的には結線に設けられた学習調整器80の学習フラ
グがオフとなっているため)S8に進んで重み値更新量
ΔW6SをΔW6’、=OとしてS9に進み、この場合
、ΔWbs=Oであることから重み値W65の更新は行
なわない。続いてS12に進んでカウンタi=1か否か
、すなわち全ての階層の学習が終了したか否か判定し、
このときi=5であることから313に進んでカウンタ
iを1つデクリメントしてi=5とし、S2に戻って次
の第5層の学習に進む。
第5層についても線形関数ユニットであることから82
から314に進むが、最終段階層でないことから316
に進み、1つ前の6層の学習処理で得られた差分値δ、
と重み値w8.とがら前記(22)式と同様の式に従っ
て差分値δ、を求める。
次に86に進んで学習対象となっているが否が判定し、
第5層は本発明にあっては学習対象となっていないので
重み値WaSを更新しない(s8−89→S12→51
3)。
次に、第4層の全ユニットについて処理しくSl 6 
→S 6−37−59 →S 12−313) 、第4
層の処理が終了すると第3層に進む。
第3層の処理に進むと、第3層にシグモイド関数ユニッ
トを使用していることがらs2から83に進み、最終段
の階層ユニットでないことがら、S5でシグモイド関数
ユニット固有の差分値δ。
を前記(17)式と同様の演算式により求める。
この第3層も学習対象゛となっていることから86から
87に進んでS5で算出した差分値δ、を使用して重み
更新量ΔW3zを算出し、s9で更新する。
この3層の最終ユニットまで同様な処理を繰り返し、2
層に進んで線形関数ユニットに関する学習さらに第1層
に進んでシグモイド関数ユニットに関する学習を行なう
ことになるが、ここではルール部のみを学習させるので
第2層、第1層の学習処理は行なわれない。そして、第
1層の最終ユニットの処理が終了して310から312
に進むと、このときカウンタjはi=1となっているこ
とから全ての階層の学習が終了したことを判定して一連
の処理を終了する。
フェーズ1での学習は、以上で終了するが、次にフェー
ズ2の学習を行なうため、再びカウンタiをi=5にセ
ットして、上述の処理を繰り返す。
このフェーズ2では第5層〜第1Nについての学習処理
が行なわれる。
(乱数を用いた重み初期設定) 次に、第19図の動作フロー図を参照して本発明の学習
方法の他の実施例を説明する。
第19図の動作フロー図に示す学習処理にあっては、S
l、S2.S3で行なうルール部全結合ニューロの前件
部メンバシップ関数実現部1o、ルール部12および後
件部メンバシップ関数実現部14に対する重み値(閾値
を含む)の初期設定として、乱数を使用したことを特徴
とする。それ以外の34.S5.S6の処理は第2図の
第1の実施例と同じである。
また部分的に予め持っている知識があるときには、この
知識に基づいた設定を行なってもよい。
が、第20図に示すように2つのシグモイド関数ユニッ
ト94−1.94−2のユニット出力を減算ユニット9
6に与えて同図(b)のシグモイド関数を実現するよう
にしてもよい。この場合のユニット出力yは、 y =1/(1−e−”””) −1/(1−e−+z
x″#2)と表現することができる。
(その他) 尚、上記の具体的な実施例は第5図に示したように2つ
の制御人力X+、Xzを対象としたファジィルールを実
現するルール部全結合ニューロを例にとるものであった
が、制御入力は1または3以上の適宜の入力数としても
よいことは勿論である。
また、上記の実施例にあっては第7.8図に示した y=1/(1+e−”’  )         (2
3)となるメンバシップ関数を例にとるものであった[
発明の効果] 以上説明したように本発明によれば、前件部メンバシッ
プ関数実現部、ルール部、後件部メンバシップ関数実現
部のそれぞれに予め持っている知識に基づく初期設定ま
たは乱数を用いた初期設定またはその複合設定を行なっ
た後に、ルール部等の学習を行なわせ、その後さらに、
ルール部全結合ニューロ全体を学習させることで、効率
の良い学習が可能となり、任意のファジィ制御適応シス
テムに使用するファジィルール実現のためのより効率的
な結線の重み解析を実現することができる。
【図面の簡単な説明】
第1図は本発明の原理説明図、第2図は本発明の学習動
作フロー図、第3図はルール部全結合ニューロの定義の
説明図、第4図は基本ユニット説明図、第5図は本発明
のルール部全結合ニューロの具体的実施例を示した構成
図、第6図はニューロングループおよび結線グループの
説明図、第7図は本発明の前件部メンバシップ関数実現
部の初期設定説明図、第8図は前件部のメンバシップ関
数説明図、第9図は本発明のルール部ユニー/ ト説明
図、第10図は本発明の後件部メンバシップ関数実現部
の初期設定説明図、第11図は本発明の重心計算実現部
の初期設定説明図、第12図は本発明のフェーズ・グル
ープ対応表およびグループ・結線対応表の設定説明図、
第13図は本発明の学習処理フロー図、第14図は本発
明による学習処理の装置構成図、第15図は第14図の
結線毎に設けた学習調整器構成図、第16図は一般的な
階層ニューラル・ネットワーク説明図、第17図は本発
明の重み学習処理フロー図、第18図は第17図の各部
のパラメータ説明図、第19図は本発明の他の実施例を
示した動作フロー図、第20図は本発明に用いる他のメ
ンバシップ関数の説明図である。 10・・・・・・前件部メンバシップ関数実現部、12
・・・・・・ルール部、 14・・・・・・後件部メンバシップ関数実現部、16
・・・・・・入力部、 18・・・・・・重心計算実現部、 20・・・・・・基本ユニット、 22・・・・・・乗算部、 24・・・・・・加算部、 26・・・・・・閾値処理部、 28−1.28−2,311〜32−4゜38−1〜3
8−9.40−1.40−2・・・・・・線形関数ユニ
ット 30−1〜30−2.34−1〜34−5゜94−1.
94−2・・・・・・シグモイド関数ユニット40・・
・・・・重心決定要素出力装置、42・・・・・・重心
算出装置、 50・・・・・・学習指示ユニット、 52・・・・・・学習スケジューラ、 54・・・・・・学習信号格納部、 56・・・・・・フェーズ・グループ対応テーブル、5
8・・・・・・グループ・フェーズ対応テーブル、60
・・・・・・学習収束判定部、 70・・・・・・学習ユニット、 72・・・・・・学習指示読取部、 74・・・・・・学習フラグ設定部、 76・・・・・・重み変更部、 80・・・・・・学習調整器、 82・・・・・・フラグ保存部、 84・・・・・・重み変更情報読取部、86・・・・・
・重み変更量調整部、 88・・・・・・重み演算部、 90・・・・・・重み保存部、 92・・・・・・重み変更量保存部、 96・・・・・・MXLニット、

Claims (10)

    【特許請求の範囲】
  1.  1.入力信号の持つメンバーシップ関数値を算出して
    出力する基本ユニットを複数設けることにより構成され
    る前件部メンバシップ関数実現部(10)と、 前段の処理層の出力する演算結果値と該演算結果値に対
    応付けられる内部結合の重み値との乗算値を入力として
    、割り付けられる演算に従って演算結果値を算出して出
    力する少なくとも一つの基本ユニットにより構成される
    処理層を1段または複数段備え、かつ、隣接する前後段
    の処理層の基本ユニットの間と、最前段の処理層の基本
    ユニットと上記前件部メンバシップ関数実現部(10)
    の基本ユニットとの間で相互に内部結合する構成を採る
    ことにより構成されるルール部(12)と、該ルール部
    (12)の最後段の処理層の対応する基本ユニットの出
    力する演算結果値を入力として、出力信号のメンバーシ
    ップ関数値に応じて導出される出力信号値を算出して出
    力する少なくとも一つの基本ユニットにより構成される
    後件部メンバシップ関数実現部(14)とより成る階層
    ネットワークを有し、入力される制御状態量(X_1〜
    X_n)に対応する制御操作量(Y_1〜Y_m)を出
    力するルール部全結合ニューロにおいて、 前記前件部メンバシップ関数実現部(10)、ルール部
    (12)、および後件部メンバシップ関数実現部(14
    )の各々に重みおよび閾値の初期値を設定する第1過程
    と、 予め準備された学習データを使用して前記ルール部(1
    2)の重みを学習させる第2過程と、予め準備された学
    習データを使用して前記前件部メンバシップ関数実現部
    (10)、ルール部(12)、および後件部メンバシッ
    プ関数実現部(14)の全体を学習させる第3過程とを
    備えたことを特徴とするルール部全結合ニューロの学習
    方法。
  2.  2.前記ルール部全結合ニューロの第1過程終了後の
    学習方法として、 予め準備された学習データを使用して前記ルール部(1
    2)の重みを学習させる第2過程と、前件部メンバシッ
    プ関数実現部(10)の重みを学習させる第3過程と、 予め準備された学習データを使用して前記前件部メンバ
    シップ関数実現部(10)、ルール部(12)、および
    後件部メンバシップ関数実現部(14)の全体を学習さ
    せる第4過程とを備えたことを特徴とするルール部全結
    合ニューロの学習方法。
  3.  3.前記ルール部全結合ニューロの第1過程終了後の
    学習方法として、 予め準備された学習データを使用して前記ルール部(1
    2)の重みを学習させる第2過程と、前件部メンバシッ
    プ関数実現部(10)およびルール部(12)の重みを
    同時に学習させる第3過程と、予め準備された学習デー
    タを使用して前記前件部メンバシップ関数実現部(10
    )、ルール部(12)、および後件部メンバシップ関数
    実現部(14)の全体を学習させる第4過程とを備えた
    ことを特徴とするルール部全結合ニューロの学習方法。
  4.  4.前記ルール部全結合ニューロの第1過程終了後の
    学習方法として、 予め準備された学習データを使用して前記ルール部(1
    2)の重みを学習させる第2過程と、後件部メンバシッ
    プ関数実現部の重みを学習させる第3過程と、 予め準備された学習データを使用して前記前件部メンバ
    シップ関数実現部(10)、ルール部(12)、および
    後件部メンバシップ関数実現部(14)の全体を学習さ
    せる第4過程とを備えたことを特徴とするルール部全結
    合ニューロの学習方法。
  5.  5.前記ルール部全結合ニューロの第1過程終了後の
    学習方法として、 予め準備された学習データを使用して前記ルール部(1
    2)の重みを学習させる第2過程と、前件部メンバシッ
    プ関数実現部(10)の重みを学習させる第3過程と、 後件部メンバシップ関数実現部(14)の重みを学習さ
    せる第4過程と、 予め準備された学習データを使用して前記前件部メンバ
    シップ関数実現部(10)、ルール部(12)、および
    後件部メンバシップ関数実現部(14)の全体を学習さ
    せる第5過程とを備えたことを特徴とするルール部全結
    合ニューロの学習方法。
  6.  6.前記ルール部全結合ニューロの第1過程終了後の
    学習方法として、 予め準備された学習データを使用して前記ルール部(1
    2)の重みを学習させる第2過程と、前件部メンバシッ
    プ関数実現部(10)およびルール部(12)の重みを
    同時に学習させる第3過程と、後件部メンバシップ関数
    実現部(14)の重みを学習させる第4過程と、 予め準備された学習データを使用して前記前件部メンバ
    シップ関数実現部(10)、ルール部(12)、および
    後件部メンバシップ関数実現部(14)の全体を学習さ
    せる第5過程とを備えたことを特徴とするルール部全結
    合ニューロの学習方法。
  7.  7.前記第1過程の重みおよび閾値の初期値の設定は
    、予め持っている知識に基づいて作成された重みおよび
    閾値の初期値を設定することを特徴とする請求項1〜6
    記載のルール部全結合ニューロの学習方法。
  8.  8.前記第1過程の重みおよび閾値の初期値の設定は
    、乱数を用いて作成された初期値を設定することを特徴
    とする請求項1〜6記載のルール部全結合ニューロの学
    習方法。
  9.  9.前記第1過程の重みおよび閾値の初期値の設定は
    、予め持っている知識で設定可能な重みおよび閾値は該
    知識で初期設定し、その他は乱数を用いて重みおよび閾
    値の初期値を設定することを特徴とする請求項1〜6記
    載のルール部全結合ニューロの学習方法。
  10.  10.前記第2過程による学習開始時に、前記前件部
    メンバシップ関数実現(10)、ルール部(12)、お
    よび後件部メンバシップ関数実現部(14)でなる階層
    ネットワークの結線毎に学習の有無を決める学習フラグ
    を設定し、該結線に設定された学習フラグに基づいて重
    み値を学習処理により最適化することを特徴とする請求
    項1〜6記載のルール部全結合ニューロの学習方法。
JP2174610A 1990-07-03 1990-07-03 ルール部全結合ニューロの学習方法 Pending JPH0464136A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2174610A JPH0464136A (ja) 1990-07-03 1990-07-03 ルール部全結合ニューロの学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2174610A JPH0464136A (ja) 1990-07-03 1990-07-03 ルール部全結合ニューロの学習方法

Publications (1)

Publication Number Publication Date
JPH0464136A true JPH0464136A (ja) 1992-02-28

Family

ID=15981601

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2174610A Pending JPH0464136A (ja) 1990-07-03 1990-07-03 ルール部全結合ニューロの学習方法

Country Status (1)

Country Link
JP (1) JPH0464136A (ja)

Similar Documents

Publication Publication Date Title
Jang et al. Neuro-fuzzy modeling and control
US5579439A (en) Fuzzy logic design generator using a neural network to generate fuzzy logic rules and membership functions for use in intelligent systems
US5828812A (en) Recurrent neural network-based fuzzy logic system and method
Chiang et al. A self-learning fuzzy logic controller using genetic algorithms with reinforcements
Juang A TSK-type recurrent fuzzy network for dynamic systems processing by neural network and genetic algorithms
US5524176A (en) Fuzzy expert system learning network
Hunt et al. Extending the functional equivalence of radial basis function networks and fuzzy inference systems
Lin et al. Reinforcement structure/parameter learning for neural-network-based fuzzy logic control systems
Lin et al. A neural fuzzy system with linguistic teaching signals
Jain et al. Hybrid intelligent engineering systems
Kottas et al. Fuzzy cognitive network: A general framework
WO1991014226A1 (en) Neuro-fuzzy fusion data processing system
Lee et al. A fuzzy neural network model for fuzzy inference and rule tuning
Renders et al. Genetic algorithms for process control: A survey
JPH0464136A (ja) ルール部全結合ニューロの学習方法
JPH0464134A (ja) ルール部全結合ニューロの学習方法
JPH0464132A (ja) ルール部全結合ニューロの学習方法
JPH0464137A (ja) ルール部全結合ニューロの学習方法
JPH0464135A (ja) ルール部全結合ニューロの学習方法
JPH0464133A (ja) ルール部全結合ニューロの学習方法
JPH0424737A (ja) ルール部プリワイヤニューロの学習方法
JPH0424740A (ja) ルール部プリワイヤニューロの学習方法
Bystrov et al. Practice. Neuro-Fuzzy Logic Systems Matlab Toolbox Gui
JP2501932B2 (ja) ニュ―ラルネットワ―クによる重心決定要素出力装置
Hamzei et al. On-line learning of fuzzy decision trees for global path planning