JPH03268077A - ニューラルネットワークによる重心決定要素出力装置 - Google Patents

ニューラルネットワークによる重心決定要素出力装置

Info

Publication number
JPH03268077A
JPH03268077A JP2066851A JP6685190A JPH03268077A JP H03268077 A JPH03268077 A JP H03268077A JP 2066851 A JP2066851 A JP 2066851A JP 6685190 A JP6685190 A JP 6685190A JP H03268077 A JPH03268077 A JP H03268077A
Authority
JP
Japan
Prior art keywords
value
center
gravity
layer
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2066851A
Other languages
English (en)
Other versions
JP2501932B2 (ja
Inventor
Ryusuke Masuoka
竜介 益岡
Nobuo Watabe
信雄 渡部
Akira Kawamura
旭 川村
Arimichi Oowada
大和田 有理
Kazuo Asakawa
浅川 和雄
Shigenori Matsuoka
松岡 成典
Hiroyuki Okada
浩之 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Fuji Facom Corp
Original Assignee
Fujitsu Ltd
Fuji Facom Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2066851A priority Critical patent/JP2501932B2/ja
Application filed by Fujitsu Ltd, Fuji Facom Corp filed Critical Fujitsu Ltd
Priority to EP91905520A priority patent/EP0471857B1/en
Priority to PCT/JP1991/000334 priority patent/WO1991014226A1/ja
Priority to CA002057078A priority patent/CA2057078C/en
Priority to US07/773,576 priority patent/US5875284A/en
Priority to AU74509/91A priority patent/AU653146B2/en
Priority to KR1019910701593A priority patent/KR950012380B1/ko
Publication of JPH03268077A publication Critical patent/JPH03268077A/ja
Application granted granted Critical
Publication of JP2501932B2 publication Critical patent/JP2501932B2/ja
Priority to US09/253,705 priority patent/US6456989B1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔概  要] ファジィ制御の推論法lの最終ステップにおいてファジ
ィ集合のメンバーシップ関数の重心座標を求めるための
ニューラルネットワークによる重心決定要素出力装置に
関し、 ファジィモデルを全てニューロモデルで実現する目的で
ファジィモデルの後件部の計算において重心を求めるた
めに、重心を決定する2つの要素を出力するニューラル
ネットワークを提供することを目的とし、 数直線上の複数の座標値とそれぞれ1対1に対応する複
数個のユニットからなる入力層と、該座標値を用いて計
算される重みによって該入力層のユニットと結合され、
前記数直線上の複数の各座標値に対応するユニットへの
入力値と該名産標値とから決定される重心を計算するた
めに必要となる2つの数値を重心決定要素としてそれぞ
れ出力する2つのユニットからなる出力層とを備えるよ
うに構成する。
〔産業上の利用分野] 本発明はファジィ制御システムに係り、さらに詳しくは
例えばファジィ制御の推論法1の最終ステップにおいて
ファジィ集合のメンバーシップ関数の重心座標を求める
ためのニューラルネットワークによる重心決定要素出力
装置に関する。
近年ニューラルネットワーク等を使ったパターン認識装
置や適応フィルタなどが広範に研究されている。さらに
プラントの制御など、従来ファジィモデルが適用されて
きた分野でも、ファジィモデルのニューロモデルでの実
現が行われている。
ファジィモデルでは後件部の計算において重心計算が行
われることが多い。ファジィモデルを全てニューロモデ
ルで実現するためには重心を決定する要素を出力するよ
うなニューラルネットワークが望まれている。
〔従来の技術〕
新しい制御処理方式として、ファジィ制御が普及しつつ
ある。このファジィ制御は、人間の判断等のあいまいさ
を含む制御アルゴリズムを1f−then形式で表現し
、ファジィ推論に従ってこの制御アルゴリズムを実現し
ていくことで、検出される制御状態量から制御操作量を
算出して制御対象を制御していくものである。このファ
ジィ制御を実現していくためには、ファジィ制御ルール
中に記述される[あいまいな言語表現」を数値化して表
現するメンバーシップ関数を制御対象に適合するものに
チューニングしていく必要がある。
例えば、 if x、 is big and X2 is sm
all then y is bigの形式(if部は
前件部、then部は後件部と称せられている)で記述
されるファジィ制御ルールの生成は、従来、制御対象の
制御に熟知しているオペレータの対象プロセスに関する
知識に従って、先ず最初に、制御状態量及び制御操作量
の値に関しての言語的な意味をメンバーシップ関数とし
て定量化し、次に、これらのメンバーシップ関数の間の
関係付けを記述することでファジィ制御ルールの粗いモ
デルを生成する。そして、この生成した粗いファジィ制
御ルールのモデルをシミュレーションや現地テストによ
り評価しながらメンバーシップ関数も含めてチューニン
グしていくことで、制御対象に適合したファジィ制御ル
ールに完成させていくという方法により実現されていた
このように、従来では、ファジィ制御ルールの生成処理
と、そのルール中に記述されるメンバーシップ関数のチ
ューニング処理は、ファジィ制御器を構築しようとする
設計者と制御対象の制御に熟知しているオペレータとの
共同作業に従い手作業で行われていた。このファジィ制
御ルールの生成とそのメンバーシップ関数のチューニン
グのための作業は、ノウハウを駆使しながら試行錯誤的
に実行していく必要があるため、通常短くても数カ月を
要することになる。そして、制御対象に関する制御知識
が少ない場合には、この期間は更に長期間のものとなる
以上のような背景から最近では学習機能を有するニュー
ラルネットワークを用いたファジィシステム、すなわち
ファジィニューロ融合システムが実現されるようになっ
ている。従来のプログラム内蔵方式のコンピュータでは
全ての場合について動作を指定する必要があったが、ニ
ューラルネットワークにおいては代表的な学習パターン
を何回か提示することにより学習が行われ、与えられて
いないパターンに対しても適切な解を出力することが可
能になる。ニューラルネットワークの代表的な構造と学
習方法としては、階層型ネットワクとハシクプロバゲー
ション法があることが広く知られている。
〔発明が解決しようとする課題〕
上述のようなファジィニューロ融合システムにおいても
、ファジィ制御の推論法を用いる必要がある。例えばフ
ァジィ制御の代表的な推論法において、推論のプロセス
はファジィ規則の前件部の適合度を人力について計算す
る第1のステップ、個々のファジィ規則の推論結果を求
める第2のステップ、および各規則による推論結果の適
合度による重み付は平均、すなわち重心として全体の推
論結果を求める第3のステップからなり、最後の第3の
ステップでは重心の計算を行う必要がある2゜しかしな
がら従来は重心を計算するための適当な構造を持ったニ
ューラルネットワークは存在せず、ファジィモデルをニ
ューロモデルで完全に実現することが困難であるという
問題点があった。
本発明は、ファジィモデルを全て二1−口モデルで実現
する目的でファジィモデルの後件部の44算において重
心を求めるために、重心を決定する2つの要素を出力す
るニューラルネットワークを提供することを目的とする
〔課題を解決するための手段〕
第1図(a)は、第1の発明の原理ブロック図である。
同図は例えばファジィニューロ融合システムの後件部の
計算における重心計算に必要となる2つの重心決定要素
を出力する、ニューラルネットワークによる重心決定要
素出力装置の原理ブロック図である。同図において入力
層2内の複数個のユニット、例えば二1−[]ン1a,
1b,  ・は数直線上の複数の座標値とそれぞれ1対
1に対応するものであり、各ユニットには入力値が与え
られる。
出力層4を構成する2つのユニッ1−3a、3bは、前
述の数直線−1−1の複数の座(を値を用いて計算され
る重みによって入力層2のユユッ)1a、1b、・・・
と結合され、これら人力層2内のユニットへの人力値と
各ユニットに対応する数直線1−の各座標値とから決定
される、重心を計算するために必要となる2つの数値を
それぞれ出力する。
〔作   用〕
第1図(b)は第2の発明の機能ブロック図である。
同図は数直線上の複数の座標値と、各座標値に対する人
力値とから重心の値を求めるための、重心計算方法の機
能ブロック図である。同図において5では数直線Fの複
数の座標値のうち最大の座標値、例えばx (n)と他
の各座標値、例えばX(i)との差が各座標値に対する
第1の重み、複数の座標値のうちで最小の座標値、例え
ばx (1)と各座標値に(i)との差が第2の重みと
して求められる。なお第1の重みと第2の重みはx (
n)とx (i)の差、X(1)とx N)との差にそ
れぞれ任意定数、例えばCを乗して求めてもよい。
次に6で複数の各座標値に対する入力と5ご求められた
第1の重みとの積の総和が第1の重心決定要素として、
また各座標値に対する人力と第;シの重みとの積の総和
が第2の重心決定要素として求められる。ここで第1の
重心決定要素と第2の重心決定要素は、第1図(a)に
おける出力層4のユーテヘット3a、3bからの出力に
相当する。
第1図(a)の出力層4内のコーニノl−3a3bがら
出力される2つの重心決定要素を用いて重心の計算が行
われる。すなわち第1図(■))において、7で数直線
トの複数の座標値のうちで最大の座標値x (n)と最
小の座標値x (1)との差に第2の重心決定要素の値
が乗じられ1,8でその乗算結果が第1の重心決定要素
と第2の重心決定要素との差で割られ、9でその除算結
果が最小の座標値X(1)から引かれて重心の値として
求められる。
以上のように、本発明においてはファジィニューロ融合
システムにおける重心の計算に必要な2つの要素がニュ
ーラルネットワークを用いて計算されることになる。
〔実  施  例] 第2図は本発明の重心決定要素出力装置を用いるファジ
ィニューロ融合システムの全体構成ブロック図である。
同図において10−hは階層ネットワーク部11の人力
層を構成する複数の入カニニット、10−1は階層ネッ
トワーク部11の中間層(複数段備えられる)を構成す
る複数の基本ユニット、10−jは階層ネットワーク部
11の出力層を構成する1つ又は複数の基本ユニット、
12は階層ネットワーク構成データ処理装置、13は重
み値格納部であって、階層ネットワーク部11の内部結
合に割り付けられる重み値を管理するものである。
21は学習信号格納部であって、重み値の学習のために
用いられる学習用の制御データを格納するもの、22は
学習信号提示部であって、学習信号格納部21から学習
用の制御データを読み出して、その内の制御提示データ
を階層ネットワーク部11に提示するとともに、対をな
すもう一方の制御教師データを後述する重み値変更部1
4と次に説明する学習収束判定部23に提示するもの、
23は学習収束判定部であって、階層ネットワーク部1
1から出力される制御量データと学習信号提示部22か
らの制御教師データとを受けて、階層ネットワーク部1
1のデータ処理機能の誤差が許容範囲に入ったか否かを
判定してその判定結果を学習信号提示部22に通知する
ものである。
14は重み値変更部であって、学習信号提示部22から
の制御教師データと階層ネットワーク部11のネットワ
ーク出力データとを受けて、バック・プロパゲーション
法に従って重み値の更新量を算出して重み値を更新して
いくことで重み値を収束値にと収束させるべく学習する
ものである。
本発明におけるファジィニューロ融合システムの詳細な
説明に入る前に、この階層ネットワーク部11の内部結
合に割り付けられる重み値を学習するために、重み値変
更部14が実行する学習アルゴリズムであるところのバ
ック・プロパゲーション法(D、E、Rumelhar
t、 G、E、旧nton、and R,J、Will
iams、“Learning  Internal 
 Representatoions  by Err
or Propagation  、PARALLEL
 DISTRIBUTED PROCESSING、 
Vol、1. PP、31B−364,The MIT
 Press、1986)について詳述する。
階層ネットワーク部11は、基本的には、基本ユニット
と呼ばれる一種のノードと、重み値を持つ内部結合とか
ら階層ネットワークを構成している。第3図に、基本ユ
ニッ1−10の構成を示す。
この基本ユニット10は、多大カー出力系となっており
、複数の入力に対し夫々の内部結合の重み値を乗算する
乗算処理部15と、それらの全乗算結果を加算する累算
処理部16と、この累算値に非線型の闇値処理を施して
一つの最終出力を出力する閾値処理部17とを備える。
h層を前段層としi層を後段層とすると、この累算処理
部16では下記の(1)式の演算を実行し、闇値処理部
17では下記の(2)式の演算を実行する。
xpi−Σyい w t h           (
t)式ypt= 1/ (1+exp  (Xpi十〇
、 ) )(2)式但し、 h :h層のユニット番号 i :i層のユニット番号 p :入力信号のパターン番号 θ1 :i層の1番ユニットの闇値 W++、ih  i層間の内部結合の重み値XptFh
層の各ユニットからi層の1番ユニットへの入力の積和 )’phiP番目パターンの入力信号に対するh層のh
番ユニットからの出力 ypi’P番目パターンの入力信号に対するi層の1番
ユニットからの出力 そして、階層ネットワーク部11では、このような構成
の多数の基本ユニット10が、入力信号値をそのまま分
配して出力する入カニニット】Ohを入力層として、第
4図に示すように階層的に接続されることで階層ネット
ワークを構成して、人カバターン(入ツノ信−号)を対
応する出カバターン(出力信号)に変換するという並列
的なデータ処理機能を発揮することになる。
バック・プロパゲーション法では、階層ネットワークの
重み値WAhと閾値θ嶽とを誤差のフィードバックによ
り適応的に自動調節して学習することになる。(1)(
21式から明らかなように、重み値W、hと閾値θ、と
の調節は同時に実行される必要かあるが、この作業は相
互に干渉する難しい作業となる。そこで、本出願人は、
先に出願の[特願昭62333484号(昭和62年1
2月28日出願: “ネットワーク構成データ処理装置
゛°)」で開示したように、。
入力側のh層に常に°°1′′を出力するとともにその
出力に対して閾値θ1を重み値として割りイ4けるユニ
ットを設けることで、閾値θ1を重み値W1hの中に組
み込んで閾値θ1を重み値として扱うようにすることを
提案した。このようにすることで、上述の(1)、 (
21式は、 Xpl−Σyph  Wih           (
3)式)+9.= 1 / (1+−exp  (xp
t) )    (4)式で表されることになる。
次に、この(3)、 (4)式の記述形式のものに従っ
て、バンク・プロパゲージシン法による重み値の学習処
理方式について説明する。ここで、この説明は、階層ネ
ットワーク部11が、第4図に示すh層i層−j層とい
う3層構造の階層ネットワークをもつもので行う。
(3)、 (4)式からの類推によって次の(5)、 
(6)式が得られる。すなわち、 Xpj””Σypi  Wj+           
(5)弐遣 ypj=1/ (1+exp  (Xpj) )   
 (6)式j :j層のユニット番号 W71:i−j層間の内部結合の重み値xpj:i層の
各ユニットからj層の3番ユニットへの入力の積和 ’!pJ:T’番目パターンの入力信号に対するj層の
3番ユニットからの出力 重み値変更部14では、学習用の入カバターンが提示さ
れたときに出力される出力層からの出カバターンy0と
、その出カバターン3’1llJのとるべき信号である
教師パターンdpj(p番目パターンの入力信号に対す
るj層j番目ユニットへの教師信号)とを受は取ると、
先ず最初に、出カバターン3’pJと教師パターンdp
jとの差分値(dpJ  ypj)を算出し、次に、 αpJ=ypj (1)’pj)  (dpJ)’pJ
) (7)式を算出し、続いて、 ΔwJt(t)−εΣα2.+ζΔWjt(t  1)
(8)式 %式%: : に従って、i層−j層間の重み値の更新量ΔWjI(1
)を算出する。ここで、「ζΔWji(t−1)」とい
う前回の更新サイクル時に決定された重み値の更新量に
係るものを加算するのは学習の高速化を図るためである
続いて、重み値変更部14は、算出したα2.を用いて
、先ず最初に、 β9J=3’pJ (I  Vpj)ΣαI、、W月1
.−利)(9)弐 を算出し、次に、 ΔWih(t) = eΣβplyph + (ΔWt
h (t  1 )00)弐 に従って、h層−1層間の重み値の更Xh量ΔWい(1
,)を算出する。
続いて、重み値変更部14は、この算出した更新量の従
って次の更新サイクルのための重み(―Wji(t) 
=WJi (t  I )十△Wjt(t)Wih(t
)=Wih(t  1)十Δw+h(t)を決定してい
く方法を繰り返していくことで、学習用の入カバターン
が提示されたときに出力される出力層からの出カバター
ンypjと、その出カバターンypJのとるべき信号で
ある教師パターンd、pJとが一致することになる重み
値W J I 、 W i hを学習するよう処理して
いる。
そして、階層ネットワーク部11が8層−h層:N−j
層という4層構造の階層ネットワークをもつときには、
重み値変更部14は、先ず最初に、 Tph=yph (1yph)  ΣβptWth(t
   1)(10式 を算出し、次に、 ΔWh9(L) =εΣT ph >’ p9+ζΔw
h*(t−t)0り式 に従ってg層−h層間の重み値の更新量ΔWh*(L)
を算出するというように、前段側の層間の重み値の更新
量ΔWを、出力側の後段から求まる値とネットワーク出
力データとを使いながら決定していくよう処理するので
ある。
本発明において、階層ネットワーク部11の中間層が4
層から成るものとする。
メンバーシップ関数のチューニングの実行時において、
例えば前件部が制御状態量に関しての条件を記述し、後
件部が制御操作量に関しての条件を記述するファジィ制
御ルールを処理対象とするときには、階層ネットワーク
部11の最前段の中間層の基本ユニット10を利用して
、チューニング対象とされる制′御状態量についてのメ
ンバーシップ関数の真理値を算出して出力する機能(前
件部メンバーシップ関数の真理値の算出機能)が実現さ
れるとともに、第4番目に位置する中間層の基本ユニッ
ト10を利用して、チューニング対象とされる制御操作
量についてのメンバーシップ関数の真理値を出力する機
能(後件部メンバーシップ関数の真理値の出力機能)が
実現される。
第5図に、メンバーシップ関数の一例を図示する。前件
部メンバーシップ関数の真理値の算出機能は、具体的に
は、基本ユニット10より出力される出力値y が、第6図(a)に示すように、 ω<Q、  θ〈0 であるときには、第5図の「温度が低い」というメンバ
ーシップ関数と類似する関数形状となり、また、 ω〉0.θ〉0 であるときには、第5図の「温度が高い」というメンバ
ーシップ関数と類似する関数形状となることに着目して
、第6図(b)に示すように、この基本ユニット10の
入力に対する重み値ω及び閾値θを適切に設定すること
で、第5図の「温度が低いJや「温度が高い」という関
数形状のメンバーシップ関数が実現されることになる。
また、2つの基本ユニット10より出力される出力値の
差分値y 1+exp  (−ω2  X+θ2 )が、第7図(
a)に示すように、第5図の「温度が普通」というメン
バーシップ関数と類似する関数形状となることに着目し
て、第7図(b)に示すように、2個の基本ユニットl
Oと、この2個の基本ユニット10の出力値に重み値°
°1”°及び“−1°゛を乗じたものを入力とし、かつ
闇値処理部17を備えない基本ユニット10により構成
される減算器10a(この構成に従い、この2個の基本
ユニット10の出力値の差分値を算出するよう動作する
)とを備えて、この2個の基本ユニット10の入力に対
する重み値ω2.ω2及び閾値θ1.θ2を適切にする
ことで、第5図の「温度が普通」という関数形状のメン
バーシップ関数の割付処理が実現されることになる。
このような構成を採ることにより、これらの基本ユニッ
ト10の入力値に対する重み値及び闇値を変更すること
で、その前件部メンバーシップ関数の関数形状を変更で
きることになる。
また、後件部メンバーシップ関数の真理値の出力機能は
、具体的には、第8図(a)に示すように、後件部メン
バーシップ関数を細かく区画して各区画の真理値yiを
特定し、次に、第8図(b)に示すように、闇値処理部
17を備えない基本ユニット10により構成される真理
値出力器lObをこの真理値の個数(n個)分用量して
、この処理値出力器10bの入力に対して重み値“II
を設定することで実現される。ここで、第8図(b)に
示すように、例えばバルブへの開度といった同一種別の
制御操作量に係る後件部メンバーシップ関数の真理値は
、用意される同一の真理値出力器10bに入力される構
成が採られ、これらの真理値出力器10bは、割り付け
られる制御操作量についての縮小されたメンバーシップ
関数の真理値の関数和を出力するよう構成されることに
なる。
このような構成を採ることから、これらの真理値出力器
10bの入力値に対する重み値を変更することで、その
後件部メンバーシップ関数の関数、形状を変更できるこ
とになる。
次に、階層ネットワーク部11の第2番目に位置する中
間層の基本ユニット10を利用しての処理対象のファジ
ィ制御ルールの前件部演算機能の実現と、第3番目に位
置する中間層の基本ユニット10を利用しての処理対象
のファジィ制御ルールの後件部演算機能の実現について
説明する。
この前件部演算機能は、処理対象のファジィ制御ルール
のもつ前件部演算機能に整合させて実現される。従って
、前件部演算機能が入力値の平均値を算出して出力する
ものであるときには、例えば第9図(a)に示すように
、重み稙゛′1/入力点数”。
を乗しないものを入力とし、かつ闇値処理部17を備え
ない基本ユニット10により構成される平均値算出器1
0cを備えることで実現される。同様に、この後件部演
算機能は、処理対象のファジィ制御ルールのもつ後件部
演算機能に整合させて実現されることになる。従って、
後件部演算機能が入力値の加算値を算出して出力するも
のであるときには、例えば、第9図(b)に示すように
、重み値“1′°を乗じたものを入力とし、かつ闇値処
理部17を備えない基本ユニットlOにより構成される
加算値算出器10cl備えることで実現される。
以下、説明の便宜上、平均値算出器10cを備えること
で前件部演算機能を実現し、加算値算出器10dを備え
ることで後件部演算機能を実現する例で説明することに
する。
続いて、処理対象のファジィ制御ルールの記述に従う形
式でもって、前件部メンバーシップ関数の割り付けられ
た基本ユニット10と前件部演算適用値が定まることに
なる。そして、最も一般的には、下式に従って、この縮
小されたメンバーシップ関数の関数和の図形の重心を求
めることで、ファジィ推論値であるバルブAの開度Yを
算出する構成が採られている。
第11図はファジィ制御ルールが写像されたファジィニ
ューロ融合システムの全体構成ブロック図である。同図
において記号のつかない○印は基本ユニット10を示し
、基本ユニット10.入力ユニッl−10−h、基本ユ
ニットが1部変形されたユニット10a〜10dとによ
って、前件部メンバーシップ関数値算出機能24、前件
部演算機能25、後件部演算機能26、および後件部メ
ンバーシップ関数値出力機能27がニューラルネットワ
ークとして構成される。また図中のXI(SA)は、X
Iという制御状態量についてのメンバーシップ関数SA
(小さい)によって求められるXlの真理値を表す。カ
ッコ内のMMは“普通。
を、またLAは°大きい゛を表す。さらにL HS−1
は前件部演算の演算結果値を表し、Y (SA)はYと
いう制御操作量についてのメンバーシップ関数SA(小
さい)に対応づけられることを表している。
第11図の重心決定要素出力装置28が本発明の対象と
してニューラルネットワークによる重心決定要素出力装
置であり、この装置が第4図の出力層のユニットの代わ
りに用いられる。なお同図では簡単のため、第1図(a
)の入力層2のユニットl a−1nは3個のみとして
いるが、一般にはさらに多数個のユニットによって入力
層が構成される。
重心決定要素出力装置28は、後件部メンバーシップ関
数値出力機能27が出力する後件部メンバーシップ関数
の真理値を用いてその重み付は平均値、すなわち重心の
値を計算するための2つの重心決定要素を出力する。こ
れら2つの重心決定要素は第1図(a)において出力層
4内の2つのユニット3a、3bが出力するものであっ
て、これら出力を用いて図示しない演算部によって最終
的な重心の値が制御操作量データとして算出され、その
値は第2図の学習収束判定部23、および重み値変更部
14に出力される。そして学習収束判定部23によって
重みの更新指示が学習信号提示部22に与えられ、重み
値変更部14によって前述のバックプロパーゲーション
法に従って、第11図の前件部メンバーシップ関数値算
出機能24から後件部メンバーシップ関数値出力機能2
7までを構成するニューラルネットワークにおける重み
の更新が行われる。
ここで数直線上の複数の点に重さが散らばっている場合
を考える。数直線上の座標x1に重さylが存在してい
る時に、それを(X+ +  3’+ )と書くことに
する。数直線上に(い(+、)’t))を−1,2,・
・・nと重さが散らばっている時にそれらの重さの重心
x (c)は次式によって与えられる。
x(c)=Σ xi ・yI/Σy i   04)式
1式% 本発明が対象とするファジィニューロ融合シス機能の割
り付けられた平均値算出器10cとの間が内部結合され
るとともに、この平均値算出器10cと後件部演算機能
の割り付けられた加算値算出器10cとの間が内部結合
される。この内部結合の設定処理は、具体的には、結合
関係のない内部結合に対して学習によっても変化されな
いゼロ値の重み値を割り付けることで実現される。
後件部演算機能の出力する演算値は、基本的には、対応
する後件部メンバーシップ関数の真理値の縮小率を与え
るものであって、例えば第10図に示すように、「バル
ブへの開度を小さく設定」というメンバーシップ関数が
■のように表され、「バルブAの開度を大きく設定」と
いうメンバーシップ関数が■のように表される場合には
、■のメンバーシップ関数に対応付けられる後件部演算
機能の出力値に従って、「バルブAの開度を小さく設定
」というメンバーシップ関数の適用値が定まり、■のメ
ンバーシップ関数に対応付けられる後件部演算機能の出
力値に従って、「バルブAの開度を大きく設定」という
メンバーシップ関数のテムなどで必要となる重心計算は
、側弐の計算である。第11図において後件部メンバー
シップ関数値出力機能27から重心決定要素出力装置2
8に入力される関数値は数直線上の各点に散らばってい
る重さに相当する。一方座標は固定であり、本発明では
重心決定要素出力装置28内の結合の重みを座標で表し
、各座標にある重さを重心決定要素出力装置28への入
力に対応させる。しかしながらニューロン自体は割算を
行うのに不適であり、重心決定要素出力装置28は重心
それ自体の計算をするものでなく、重心を計算すること
ができる2つの値を重心決定要素として出力する。
第12図は重心決定要素出力装置の実施例の構成ブロッ
ク図である。同図においては簡単のため第1図(a)の
入力層2のla〜1nは省略されている。また出力層4
内のユニット3a、3bは入力の和を取るだけの線形ユ
ニットであり、それらの出力として2つの重心決定要素
y (1)、  y (2)が出力される。
第12図において、図示しない入力層のユニットと線形
ユニット3a、3bとを結ぶ結合の重みは、座標の最小
値をx(1)、最大値をx (n)、任意の座標値をx
 (i)として次式で与えられる。
あるいはCを定数として、重みを次式のように定めるこ
ともできる。
06)式 第12図において、2つの線形ユニット3a。
3bが出力する重心決定要素y (1)、  y (2
)を用いて、重心の値は次式によって計算される。
x (c) =X ’(1) −(x (n) −x 
(1) )y (2)/ (y (1) −y (2)
 )    07)式第13図は重心決定要素出力の第
1の実施例である。同図(a)は各座標値とこれから計
算される各結合の重みを示し、Φ)は入力値とそれに対
する重心決定要素出力値の例である。θ′?)式を用い
て重心を計算すると、その値は1として与えられる。
第14図は重心決定要素出力の第2の実施例である。同
図は06)式において定数Cを0.2とした場合の例で
あり、(a)は各座標と結合の重みを、また[有])は
入力値と重心決定要素出力値を示し、0′7)式を用い
ることによって重心の値は第13図と同じく1となる。
〔発明の効果〕
以上詳細に説明したように、本発明によればファジィニ
ューロ融合モデルにおいて重心を決定する要素を出力す
るニューラルネットワークを構成することができ、ファ
ジィ制御システムの実用化に寄与することが大きい。
【図面の簡単な説明】
第1図(a)は、第1の発明の原理ブロック図、第1図
(b)は、第2の発明の機能ブロック図、第2図は、本
発明の重心決定要素出力装置を用いる全体システムの構
成ブロック図、 第3図は、階層ネットワークにおける基本ユニットの構
成図、 第4図は、階層ネットワーク部の基本構成を示す図、 第5図は、メンバーシップ関数の説明図、第6図(a)
、 (b)は、前件部メンバーシップ関数の真理値の算
出機能の説明図(その1)、第7図(a)、 (b)は
、前件部メンバーシップ関数の真理値の算出機能の説明
図(その2)、第8図(a)、 (b)は、後件部メン
バーシップ関数の真理値の出力機能の説明図 、 第9図(a)、 (b)は、前件部演算機能および後件
部演算機能の説明図、 第1O図は、ファジィ推論値の説明図、第11図は、フ
ァジィ制御ルールが写像された全体システムの機能ブロ
ック図、 第12図は、重心決定要素出力装置の実施例の構成ブロ
ック図、 第13図(a)、 (b)は、重心決定要素出力の第1
の実施例を示す図、 第14図(a)、ら)は、重心決定要素出力の第2の実
施例を示す図である。 la 〜In、3a、3b ・・・ユニット、 入力層、 出力層、 基本ユニット、 重み値変更部、 乗算処理部、 累算処理部、 闇値処理部、 前件部メンバーシップ関数値算出機 能、 25・・・前件部演算機能、 26・・・後件部演算機能、 27・・・後件部メンバーシップ関数値出力機能、 28・・・重心決定要素出力装置。

Claims (1)

  1. 【特許請求の範囲】 1)数直線上の複数の座標値とそれぞれ1対1に対応す
    る複数個のユニット(1a,1b,・・・)からなる入
    力層(2)と、 該座標値を用いて計算される重みによって該入力層(2
    )のユニットと結合され、前記数直線上の複数の各座標
    値に対応するユニットへの入力値と該各座標値とから決
    定される重心を計算するために必要となる2つの数値を
    重心決定要素としてそれぞれ出力する2つのユニット(
    3a,3b)からなる出力層(4)とを備えたことを特
    徴とするニューラルネットワークによる重心決定要素出
    力装置。 2)数直線上の複数の座標値のうちで最大の座標値と該
    複数の各座標値との差を該複数の各座標値への入力に対
    する第1の重みとして、また最小の座標値と各座標値と
    の差を該複数の各座標値への入力に対する第2の重みと
    して求め(5)、該各座標値に対する入力と第1の重み
    との積の総和を第1の重心決定要素として、また該入力
    と第2の重みとの積の総和を第2の重心決定要素として
    求め(6)、 前記最大の座標値と最小の座標値との差に該第2の重心
    決定要素を乗じ(7)、 該乗算結果を前記第1の重心決定要素と第2の重心決定
    要素との差で除し(8)、 該除算結果を前記最小の座標値から減ずることにより、
    前記各座標値に対する入力の重心座標を求める(9)こ
    とを特徴とする重心計算方法。 3)第1の重み、第2の重みを求める際に差に定数を乗
    じることを特徴とする請求項2記載の重心計算方法。
JP2066851A 1990-03-12 1990-03-19 ニュ―ラルネットワ―クによる重心決定要素出力装置 Expired - Fee Related JP2501932B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2066851A JP2501932B2 (ja) 1990-03-19 1990-03-19 ニュ―ラルネットワ―クによる重心決定要素出力装置
PCT/JP1991/000334 WO1991014226A1 (en) 1990-03-12 1991-03-12 Neuro-fuzzy fusion data processing system
CA002057078A CA2057078C (en) 1990-03-12 1991-03-12 Neuro-fuzzy fusion data processing system
US07/773,576 US5875284A (en) 1990-03-12 1991-03-12 Neuro-fuzzy-integrated data processing system
EP91905520A EP0471857B1 (en) 1990-03-12 1991-03-12 Neuro-fuzzy integrated data processing system; network structure conversion system ; fuzzy model extracting system
AU74509/91A AU653146B2 (en) 1990-03-12 1991-03-12 Integrated fuzzy logic neural network processor and controller
KR1019910701593A KR950012380B1 (ko) 1990-03-12 1991-03-12 뉴로-퍼지 융합 데이터처리 시스템
US09/253,705 US6456989B1 (en) 1990-03-12 1999-02-22 Neuro-fuzzy-integrated data processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2066851A JP2501932B2 (ja) 1990-03-19 1990-03-19 ニュ―ラルネットワ―クによる重心決定要素出力装置

Publications (2)

Publication Number Publication Date
JPH03268077A true JPH03268077A (ja) 1991-11-28
JP2501932B2 JP2501932B2 (ja) 1996-05-29

Family

ID=13327767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2066851A Expired - Fee Related JP2501932B2 (ja) 1990-03-12 1990-03-19 ニュ―ラルネットワ―クによる重心決定要素出力装置

Country Status (1)

Country Link
JP (1) JP2501932B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5579439A (en) * 1993-03-24 1996-11-26 National Semiconductor Corporation Fuzzy logic design generator using a neural network to generate fuzzy logic rules and membership functions for use in intelligent systems
US5677609A (en) * 1994-07-28 1997-10-14 National Semiconductor Corporation Intelligent servomechanism controller
US5828812A (en) * 1993-03-24 1998-10-27 National Semiconductor Corporation Recurrent neural network-based fuzzy logic system and method
US10459724B2 (en) 2016-01-18 2019-10-29 Huawei Technologies Co., Ltd. Memory device, and data processing method based on multi-layer RRAM crossbar array

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5579439A (en) * 1993-03-24 1996-11-26 National Semiconductor Corporation Fuzzy logic design generator using a neural network to generate fuzzy logic rules and membership functions for use in intelligent systems
US5594835A (en) * 1993-03-24 1997-01-14 National Semiconductor Corporation Neural-fuzzy logic control system with adjustable fuzzy logic membership functions
US5606646A (en) * 1993-03-24 1997-02-25 National Semiconductor Corporation Recurrent neural network-based fuzzy logic system
US5828812A (en) * 1993-03-24 1998-10-27 National Semiconductor Corporation Recurrent neural network-based fuzzy logic system and method
US5677609A (en) * 1994-07-28 1997-10-14 National Semiconductor Corporation Intelligent servomechanism controller
US10459724B2 (en) 2016-01-18 2019-10-29 Huawei Technologies Co., Ltd. Memory device, and data processing method based on multi-layer RRAM crossbar array

Also Published As

Publication number Publication date
JP2501932B2 (ja) 1996-05-29

Similar Documents

Publication Publication Date Title
Jang et al. Neuro-fuzzy modeling and control
US5524176A (en) Fuzzy expert system learning network
WO1991014226A1 (en) Neuro-fuzzy fusion data processing system
Pal et al. A hybridized forecasting method based on weight adjustment of neural network using generalized type-2 fuzzy set
Chakroborty et al. Calibrating the membership functions of the fuzzy inference system: instantiated by car-following data
JPH03268077A (ja) ニューラルネットワークによる重心決定要素出力装置
Madey et al. Integration of neurocomputing and system simulation for modeling continuous improvement systems in manufacturing
JP2763369B2 (ja) ファジィ制御ルールのチューニング方法
JP2761569B2 (ja) 重心決定要素出力装置の教師信号決定装置
JPH01173202A (ja) ロボット制御方式
JPH03269777A (ja) ニューラルネットワークにおける結合の学習調整方式
JPH04291662A (ja) 階層ネットワーク構成演算素子
JP2763370B2 (ja) 階層ネットワーク構成ファジィ制御器
JPH03260807A (ja) 階層ネットワーク構成ファジィ制御器
JP3172163B2 (ja) ニューラルネットワークにおける結合のグループ単位学習調整方式
JP2763368B2 (ja) ファジィ制御におけるメンバーシップ関数のチューニング方法
Han et al. Improved constrained learning algorithms by incorporating additional functional constraints into neural networks
JP2763367B2 (ja) ファジィ制御ルールの生成方法
Uchegbu et al. Improvement of PID Controller Based on Expert System (Neural Network)
JPH01173257A (ja) ネットワーク構成データ処理装置
JP2559883B2 (ja) ファジィ制御器
JPH04170641A (ja) ファジィ制御装置
JP2559881B2 (ja) ファジィ制御器
JPH04357528A (ja) ニューラルネットワークを用いたファジィ制御装置
Pai Fuzzy Backpropagation Networks

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees