JP3129932B2 - ファジィ・ニューラルネットワーク装置およびその学習方法 - Google Patents

ファジィ・ニューラルネットワーク装置およびその学習方法

Info

Publication number
JP3129932B2
JP3129932B2 JP07117218A JP11721895A JP3129932B2 JP 3129932 B2 JP3129932 B2 JP 3129932B2 JP 07117218 A JP07117218 A JP 07117218A JP 11721895 A JP11721895 A JP 11721895A JP 3129932 B2 JP3129932 B2 JP 3129932B2
Authority
JP
Japan
Prior art keywords
value
layer
input
output
membership
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP07117218A
Other languages
English (en)
Other versions
JPH08314881A (ja
Inventor
輝彦 松岡
隆志 荒巻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP07117218A priority Critical patent/JP3129932B2/ja
Priority to EP96102112A priority patent/EP0743604B1/en
Priority to DE69608927T priority patent/DE69608927T2/de
Priority to US08/620,998 priority patent/US5819242A/en
Publication of JPH08314881A publication Critical patent/JPH08314881A/ja
Application granted granted Critical
Publication of JP3129932B2 publication Critical patent/JP3129932B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/043Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ニューラルネットワー
クにファジィ構造を取り入れたファジィ・ニューラルネ
ットワーク装置に関する。
【0002】
【従来の技術】従来のニューラルネットワークは、例え
ば、図26に示すように、入力層I、中間層H、出力層
Oからなる階層構造をもち、各層間のニューロンが完全
に結合したネットワークである。このネットワークで、
入力パターンPXとそれに対応する出力パターンPYと
で表されるサンプルデータの入出力関係を正しくシミュ
レートできるように、入力層Iおよび中間層H間の結合
の重みWと、中間層Hおよび出力層O間の結合の重みV
とを適応的に変化させることによって、所定の機能を獲
得することができる。このような処理を行なうものとし
て代表的なものにバックプロパゲーション法と呼ばれる
処理方法がある。
【0003】また、従来の集合論では、図27に示すよ
うに、例えば「温度が27℃」であるという入力があっ
たとき(図a)、「温度が高い」または「温度が低い」
といった人間の曖昧な表現を数学的に表現する際に、あ
る閾値以上では温度が高く、別の閾値以下では温度が低
いというように、「0」と「1」の2値でしか表現でき
なかった(図b)。しかし、メンバーシップ関数を導入
したファジィ集合論を数学的基礎として、「0」から
「1」までの実数で「温度が高い」度合い(0.78)
と「温度が低い」度合い(0.27)とを表現すること
で曖昧さを数値化することができる(図c)。この理論
を用いてファジィ制御というものが行なわれている。こ
れは、例えば技術者の知識をファジィルールとして表
し、様々な入力パターンからファジィ理論に基づいた計
算により得られた出力値によって制御を行なうものであ
る。
【0004】また、ニューラルネットワークにファジィ
ルールを融合させたニューロ・ファジィ融合システムが
提案されている(例えば、特開平5−224939
号)。これは技術者が勘や経験から得た知識をメンバー
シップ関数とファジィルールの形式とで抽出してファジ
ィモデルを作成し、ネットワークを構成するユニット間
の結合やその結合の重みをそのモデルに従って設定して
ニューラルネットワークを構成するもので、例えば、図
28に示すような構成になっている。
【0005】ここでは、それぞれの入力に対してファジ
ィルールで使用するファジィ集合をネットワーク上に実
現している。この例では、前件部命題で入力値x1をB
ig、Middle およびSmallの3つのファジィ集合で表
し、入力値x2をBigおよびSmallの2つのファジィ集
合で表している。また、ルール部ではファジィルール数
のユニットを使用し、ファジィルールの前件部命題の出
力をファジィルールに沿って結合させている。この例で
はルール1として「x1がBigで、x2がBigである」
など、全部で5つのルールを構成している。また、後件
部命題に従いルールの出力値から後件部メンバーシップ
関数を用いて出力値を計算している。
【0006】
【発明が解決しようとする課題】従来のニューラルネッ
トワークやニューロ・ファジィ融合システムでは、ネッ
トワークに設定される入力パラメータの全データが既知
の値のときには出力値を求めることができるが、入力パ
ラメータの中に1つでも未知の値が混在する場合は出力
値を求めることができないという不都合がある。ここで
未知の値が混在する入力パラメータとしては、例えばセ
ンサなどの故障で入力値の一部が与えられないエアコン
の入力パラメータ、検査機器がないなどの理由で検査値
の一部が与えられない検査装置の入力パラメータなどが
ある。尚、本明細書では、入力パラメータにデータが示
されなかった場合を「未知の値」、入力パラメータにデ
ータが示された場合を「既知の値」、入力部にデータが
示されなかったものを「未知」、入力部にデータが示さ
れたものを「既知」と略記する。
【0007】このような場合、バックプロパゲーション
に代表される全結合の積層型ニューラルネットワークで
は、入力パラメータの中に未知の値を含んでいても出力
値を求める学習を行なうことができる方法が提案されて
いるが、ニューロとファジィを融合した全結合でないネ
ットワークシステムの場合は、その学習方法をそのまま
適用できないため、出力値を求めることができないとい
う不都合がある。
【0008】本発明の目的は、入力パラメータの中に未
知の値を含んでいる不完全な入力データに対しても出力
値を得ることができ、また、不完全な学習データを用い
ても学習を行なうことができるファジィ・ニューラルネ
ットワーク装置を提供することにある。
【0009】
【課題を解決するための手段】本願の第1の発明に係る
ファジィ・ニューラルネットワーク装置は、入力パラメ
ータの値を出力する入力層と、入力パラメータの取りう
る値の範囲を複数の領域に分割し各領域毎にメンバーシ
ップ関数を定義し入力層からの出力値に従い各領域毎の
メンバーシップ値を各入力パラメータ毎に出力するメン
バーシップ層と、異なる入力パラメータ間のある領域同
士による所定のルールを構築し該ルールに対する適合度
を出力するルール層と、ルール層からの出力値に従い出
力パラメータの値を出力する出力層と、入力パラメータ
の一部が未知の値である場合に未知の値に対応するメン
バーシップ値を所定の値に設定するメンバーシップ値設
定手段とを設けてなる。
【0010】本願の第2の発明に係るファジィ・ニュー
ラルネットワーク装置は、本願の第1の発明において、
入力層に入力される入力パラメータが未知の値である場
合に、メンバーシップ層の出力値を範囲としてとらえ、
該範囲の最大値と最小値で表し、その範囲の最大値を各
入力パラメータの各メンバーシップ関数の最大値とし、
その範囲の最小値を各入力パラメータの各メンバーシッ
プ関数の最小値とするように構成してなる。
【0011】本願の第3の発明に係るファジィ・ニュー
ラルネットワーク装置は、本願の第2の発明において、
前記未知の値の最大値が1.0、最小値が0.0となる
ように構成してなる。
【0012】本願の第4の発明に係るファジィ・ニュー
ラルネットワーク装置は、本願の第2の発明において、
出力層から出力される出力値の最大値および最小値は、
既知の入力パラメータ同士のルール層の出力値とルール
層および出力層間の結合の重みとの加重平均を求め、未
知の値の入力パラメータを含むルール層および出力層間
の結合の重みを加重平均に加えて再度加重平均を求める
ことによって得るように構成してなる。
【0013】本願の第5の発明に係るファジィ・ニュー
ラルネットワーク装置は、本願の第4の発明における出
力層から出力される出力値の最大値および最小値は、既
知の入力パラメータ同士に関わるルールで構成されたル
ール層の出力値に従いルール層および出力層間の結合の
重みの加重平均を求め、未知の値の入力パラメータから
のルールを含む所定のルールの重みの中で現在の重みの
加重平均より大きくまたは小さくなるものの中から一番
大きくまたは小さくなるものを加えて加重平均を更新
し、これ以上加えても加重平均が大きくまたは小さくな
らなくなるまで加重平均を随時更新し、これ以上加えて
も加重平均が大きくまたは小さくならなくなった時点で
そのときの加重平均値を出力層の最大値または最小値と
する。
【0014】本願の第6の発明に係るファジィ・ニュー
ラルネットワーク装置の学習方法は、入力パラメータの
値を出力する入力層と、入力パラメータの取りうる値の
範囲を複数の領域に分割し各領域毎にメンバーシップ関
数を定義し入力層からの出力値に従い各領域毎のメンバ
ーシップ値を各入力パラメータ毎に出力するメンバーシ
ップ層と、異なる入力パラメータ間のある領域同士によ
る所定のルールを構築し該ルールに対する適合度を出力
するルール層と、ルール層からの出力値に従い出力パラ
メータの値を出力する出力層と、入力パラメータの一部
が未知の値である場合に未知の値に対応するメンバーシ
ップ値を所定の値に設定するメンバーシップ値設定手段
とを設けてなるファジィ・ニューラルネットワーク装置
において、学習時に修正しようとする重みに関わる入力
パラメータが既知であるか未知であるかに応じて各重み
を修正するときの学習方法として異なる学習方法を選択
的に用いる。
【0015】本願の第7の発明に係るファジィ・ニュー
ラルネットワーク装置の学習方法は、本願の第6の発明
におけるルール層から出力層への重みを修正する際に、
既知の値の入力パラメータ同士からのルールで構成され
た所定のルールの重みの修正はルール層の出力値の最大
値と最小値の両方を用いて修正し、また未知の値の入力
パラメータからのルールを含む所定のルールの重みの修
正はルール層の出力値の最大値または最小値のいずれか
のみを用いて修正する。
【0016】本願の第8の発明に係るファジィ・ニュー
ラルネットワーク装置の学習方法は、本願の第6の発明
における各入力パラメータのメンバーシップ関数を構成
するための入力層からメンバーシップ層への重みを修正
する際に、既知の値の入力パラメータのメンバーシップ
関数を構成する重みのみを修正する。
【0017】
【作用】本発明は、対象物の入出力関係をファジィ集合
を持つ前件部命題と後件部命題とを有するファジィルー
ルと、これを定量化するために定義したメンバーシップ
関数との形で抽出してファジィモデルを作成し、ファジ
ィモデルとは別に入出力のパラメータ数だけからネット
ワークを構成し、結合の重みをファジィモデルをもとに
与えることによって構築されるファジィ・ニューラルネ
ットワークを備えており、入力されるデータを2つに分
割して入力し、出力値も2つに分割した形で出力する構
成となっている。
【0018】分割する2つの値は各入力パラメータ値を
範囲として表し、それぞれ最大値と最小値を設定する。
既知の値を入力する場合は入力層に既知の値をそのまま
最大値、最小値として入力する。つまり、最大値と最小
値が同じ値となる。未知の値を入力する場合はメンバー
シップ値設定手段によりメンバーシップ層の出力にメン
バーシップ関数の範囲の最大値と最小値を設定し、入力
層からメンバーシップ層後半部までの演算を省略する。
【0019】また、ルール層から出力層での演算も、未
知の値の入力パラメータを含む所定のルール(ANDル
ール)の出力値は常に用いるのではなく選択的に用いて
演算する。また、学習に関しても全ての重みを修正する
のではなく選択的に重みを修正する。
【0020】このように、本発明は未知の値を含むデー
タであっても2つの値に分割して表すことにより確定し
たデータに置き換えることができる。各層の出力値も最
大値と最小値であり、ネットワークの構造も意味のある
構造であることから、計算する必要のないところは無駄
な計算をせずに構造上の意味から出力値を決定すること
が可能となり、計算量も減らすことができる。また、未
知の値の入力パラメータに関わる重みの修正は、扱って
いるデータが未知であることから既知のデータに比べ信
頼度が低いため、重みの修正量を減らしたり、修正をし
なかったりするようになる。
【0021】
【実施例】図1は、本発明によるファジィ・ニューラル
ネットワーク装置の一実施例を示す構成図である。この
装置は2つの入力パラメータから1つの出力パラメータ
が得られる対象物に関して構築される2入力1出力のフ
ァジィ・ニューラルネットワークを有し、このネットワ
ークは入力層1、メンバーシップ層前半部2、メンバー
シップ層後半部3、ルール層4、出力層5の5階層から
なり、2層目と3層目でメンバーシップ層を構築してい
る。本実施例では、説明の便宜上、このような2入力1
出力のネットワークを示しているが、3入力以上や2出
力以上の多入力多出力のファジィ・ニューラルネットワ
ークであってもよいことは勿論である。
【0022】各層は次のようにして構成する。まず、入
力層1は入力パラメータ毎に各2つのユニット11,1
2、ユニット13,14で構成し、ユニット11,13
にそれぞれ定数1を入力し、ユニット12に入力値x
1、ユニット14に入力値x2をそれぞれ入力する。
【0023】次に、メンバーシップ層2,3は各入力パ
ラメータごとに、図2に示すBig、Middle 、Smallの
各メンバーシップ関数を構成する。メンバーシップ層前
半部2では、各4つのユニット21〜24、ユニット2
5〜28を構成し、ユニット21〜24で定数1と入力
値x1とを結合させ、ユニット25〜28で定数1と入
力値x2とを結合させる。図2に示す各メンバーシップ
関数は、横軸が入力パラメータの値であり、縦軸が各領
域に適合している割合(以下、適合度、という)であ
る。適合度は1.0に近づくほど入力パラメータがその
領域に属していることを示す。
【0024】メンバーシップ層後半部3では、各3つの
ユニット31〜33、ユニット34〜36を構成し、前
半部2の1つまたは2つのユニットを結合させる。1つ
のユニットを結合させる部分であるユニット31,34
はBigを表すメンバーシップ関数を構成し、ユニット3
3,36はSmallを表すメンバーシップ関数を構成す
る。2つのユニットを結合させる部分であるユニット3
2,35はMiddle を表すメンバーシップ関数を構成す
る。
【0025】入力層1、メンバーシップ層前半部2、メ
ンバーシップ層後半部3のユニット数は、それぞれ入力
パラメータ毎に必ず構成され、入力層1が2ユニット、
前半部2が4ユニット、後半部3が3ユニットと固定さ
れている。したがって、3入力の場合は入力層1が6ユ
ニット、メンバーシップ層前半部2が12ユニット、メ
ンバーシップ層後半部3が9ユニットで構成される。
【0026】次に、ルール層4は入力値x1側のユニッ
ト31に対して入力値x2側のユニット34〜36のそ
れぞれと論理積を取るユニット41〜43と、入力値x
1側のユニット32に対して入力値x2側のユニット3
4〜36のそれぞれと論理積を取るユニット44〜46
と、入力値x1側のユニット33に対して入力値x2側
のユニット34〜36のそれぞれと論理積を取るユニッ
ト47〜49とから構成する。
【0027】最後に、出力層5は出力パラメータ数に応
じてユニット数を決定し、各ユニット毎にルール層4か
らの出力をユニット51で全て結合し、出力値yとして
出力するように構成する。
【0028】このようにして構成されたネットワークの
各ユニット間の結合には、全てその結合ごとの重みがあ
る。まず、入力層1とメンバーシップ層前半部2との結
合部分は、図3に示すメンバーシップ関数のセンター値
(メンバーシップ関数の出力値が0.5となるときの入
力値)が重みWc1〜Wc8となっている。
【0029】すなわち、メンバーシップ関数は前述した
ように3種類あり、それぞれのメンバーシップ関数のセ
ンター値は各重みと一致している。例えば、入力値x1
のBigを表すメンバーシップ関数のセンター値の重みは
Wc1であり、Middle を表すメンバーシップ関数のセ
ンター値の重みはWc2とWc3であり、Smallを表す
メンバーシップ関数のセンター値の重みはWc4であ
る。同様にして入力値x2側の重みWc5〜Wc8も求
まる。なお、Middle は、図4に示すようにBigとSma
llの2つのメンバーシップ関数の論理積の形になってい
るので、2つのセンター値を有する。
【0030】次に、メンバーシップ層前半部2と後半部
3との結合部分では、図3に示すメンバーシップ関数の
傾きが重みWg1〜Wg8となっている。これも、セン
ター値と同様にそれぞれのメンバーシップ関数の傾きが
各重みと一致している。例えば、入力値x1のBigを表
すメンバーシップ関数の傾きの重みはWg1であり、M
iddle を表すメンバーシップ関数の傾きの重みはWg2
とWg3であり、Smallを表すメンバーシップ関数の傾
きの重みはWg4である。この場合もMiddleはBigと
Smallの2つのメンバーシップ関数の論理積の形になっ
ているので、2つの傾きを有する。
【0031】最後に、ルール層4と出力層5との結合部
分では、技術者から得た知識が重みWf1〜Wf9とな
っている。
【0032】次に、ネットワークの外部に位置するメン
バーシップ値設定手段6は、入力パラメータの一部が未
知の値である場合に、未知の値に対応するメンバーシッ
プ層後半部3のメンバーシップ値を強制的に所定の値に
設定し、入力層1からメンバーシップ層後半部3までの
演算を省略して、ルール層4から演算を始められるよう
に設定する。
【0033】次に、図5に示すフローチャートを参照し
ながら、入力パラメータの各値xi(i=1,2,…,
n)が入力パラメータとして入力層1に入力されたと
き、各層から出力される出力値を求める手順について説
明する。
【0034】まず、各入力パラメータの値xi が未知の
値であるか否か判断する(ステップS1)。この判断は
図示しない入力手段によって行う。入力手段は全て既知
の値であれば入力値xi を最大値xHiと最小値xLiの2
つ値に分割して設定する(ステップS2)。その際、既
知の値の入力パラメータは2つとも同じ値のままで最大
値と最小値を表すように分割して設定する。例えば、入
力値が0.6の場合、最大値xHiを0.6とし、最小値
Liも0.6とする。
【0035】次いで、入力層1から順に計算を行なって
いく。入力層1の出力値は入力パラメータを分割した2
つの値xH i,xL iと同じなので省略する。次に、メンバ
ーシップ層前半部2の出力値HH i,HL iを求める(ステ
ップS3)。
【数1】
【0036】式(1)はメンバーシップ層前半部2の出
力値を求める式で、HH ij はメンバーシップ層前半部2
の出力値の最大値、HL ij はその最小値である。Wcは
前述したメンバーシップ関数のセンター値を表す重みで
ある。添字iは前述したように各入力パラメータの番号
を表し、n個の入力パラメータをもつネットワークを示
す。添字jは各メンバーシップ関数を構成するときのシ
グモイド関数の番号を表し、Smallを表すメンバーシッ
プ関数が1、Middle を表すメンバーシップ関数が2と
3、Bigを表すメンバーシップ関数が4となっている。
例えば、HH 24は2番目の入力パラメータのBigを表す
メンバーシップ関数、すなわちユニット34の出力値の
最大値である。
【0037】なお、入力パラメータが既知の値である場
合は、入力層1の出力値が「xH i=xL i」であるため、
メンバーシップ層前半部2の出力値は「HH ij=HL ij
となる。
【0038】次に、メンバーシップ層後半部3の出力値
H ik ,ML ik を求める(ステップS4)。
【数2】
【0039】式(2a)〜(2c)はメンバーシップ層
後半部3の出力値を求める式であり、MH ik はメンバー
シップ層後半部3の出力値の最大値、ML ik はその最小
値である。また、Wgは前述したようにメンバーシップ
関数のセンター値での傾きを表す重みである。メンバー
シップ関数のセンター値の傾きとは、適合度が0.5と
なるところのメンバーシップ関数の傾きの値である。こ
の値の絶対値が大きくなるほどメンバーシップ関数の傾
きが急になり、正の値のときにはBigを表すメンバーシ
ップ関数の傾きとなり、負の値のときはSmallを表すメ
ンバーシップ関数の傾きとなる。添字kは各メンバーシ
ップ関数の番号であり、Smallが1、Middle が2、B
igが3となっている。
【0040】また、関数f(t)はシグモイド関数で、
図3に示すように−∞〜+∞の入力値に対して0.0〜
1.0の出力値を出力する関数であり、式で表すと、 f(t)=1/(1+e-t) のように表される。また、この関数を微分したものは、 f'(t)=(1−f(t))・f(t) のようにf(t)自身で表すことができる。このシグモ
イド関数をうまく利用し、シグモイド関数とメンバーシ
ップ関数の出力がそれぞれ0.5となるときの入力値、
つまり、センター値を合わせ、また、傾きを調整するこ
とによってシグモイド関数でメンバーシップ関数を実現
している。そのために、先に述べたようにメンバーシッ
プ関数のセンター値と、そのセンター値での傾きを変数
として持つ必要がある。それが上式で表されたWcij
Wgijである。
【0041】これらの式により、各入力パラメータの取
りうる値の範囲をBig、Middle 、Smallの3領域に分
割したとき、それぞれどのくらいの割合で各領域に適合
しているかをファジィのメンバーシップ値として求める
ことができる。なお、入力パラメータが既知の値の場合
は「HH ij =HL ij 」であるため、「MH ik =ML ik
となる。
【0042】ステップS1において、入力パラメータの
中に未知の値があると判断した場合は、メンバーシップ
値設定手段6によってメンバーシップ層後半部3の対応
するユニットに強制的に設定値を設定する(ステップS
5)。
【0043】この設定値は入力値xi が取りうる値の範
囲の最小値と最大値であるという考え方から、図2のグ
ラフでは左端から右端までの入力値が全て対象となり、
それに対する出力値の最小値と最大値が出力されるべき
ということから、メンバーシップ値の最大値を表す値と
して「MH ik =1.0」を設定し、メンバーシップ値の
最小値を表す値として「ML ik =0.0」を設定する。
【0044】ここで注意すべきことは、例えば、入力値
x1が既知の値である場合は、入力値x1側はステップ
S2〜S4の処理を実行し、入力値x2が未知の値であ
る場合は、入力値x2側はステップS5の処理を実行す
る。これらステップS1〜S5を全ての入力パラメータ
値xi(i=1,2,…,n)に対して実施し、ステッ
プS6以下を実施する。
【0045】次に、ルール層4の出力値RH p,RL pを求
める(ステップS6)。
【数3】 式(3)はルール層4の出力を求める式であり、RH p
各ANDルールの出力値の最大値であり、RL pはその最
小値である。添字pはANDルールの数であり、n入力
それぞれの3領域のうちから2つの入力の2つの領域を
選ぶ組み合わせの数を表している。
【0046】また、関数min{M1,M2}はメンバーシ
ップ層後半部3の2つの出力値M1,M2のうち小さな
方の値を選択して出力する関数であり、2つのファジィ
集合(メンバーシップ関数)の論理積を求めている。2
つのファジィ集合の論理積を求めるということは、例え
ば、次のようにしてANDルールの適合度を求めること
になる。「x1 がBigで、x2 がSmallのとき」という
ANDルールの場合、入力値x1のBigを表すメンバー
シップ関数の出力値と、入力値x2のSmallを表すメン
バーシップ関数の出力値のうち、小さな方の値をそのA
NDルールの適合度として出力する。なお、M1とM2
の2つの出力値が共に既知の入力パラメータの場合は、 RH p=RL p (∵ MH i1k1=ML i1k1 & MH i2k2=ML
i2k2) となる。
【0047】次に、出力層5の出力値yH q,yL qを求め
る(ステップS7〜S10)。初めに入力パラメータに
未知の値を含まないANDルールの出力値のみで次の計
算を行なう(ステップS7)。
【数4】
【0048】ここで、yH qは出力層5の出力値の最大値
であり、yL qは出力層5の出力値の最小値である。添字
qは出力パラメータの番号を表し、添字rは各ANDル
ールの番号を表し、添字compは未知の値の入力パラ
メータを全く含まないANDルールを表す。したがっ
て、rcompは未知の値の入力パラメータを含まない
ANDルールとして選択されたANDルールの番号を表
す。つまり、式(4)の分母は未知の値の入力パラメー
タを全く含まないANDルールの出力値の総和を計算す
ることを表している。また、Wfは前述したようにそれ
ぞれのANDルールの出力値に対する重みを表す。ここ
で、「RH r=RL r」である。
【0049】次に、「yH q」を「wH qave 」と置き、未
知の値の入力パラメータを含む各ANDルールの重み
「Wfrmiss 」で「Wfrmiss ≧wH qave 」となってい
るものの中から一番大きな値を持つ重みWfpmiss を選
択し、式(5)の計算を行う(ステップS8)。ここ
で、添字missは未知の値の入力パラメータを含むA
NDルールを表す。したがって、添字rmissは全て
のANDルールの中で未知の値の入力パラメータを含む
ANDルールとして選択されたANDルールの番号を表
す。また、添字qaveは式(4)や式(5)によって
現時点で加算されて荷重平均された値であることを表
す。
【0050】最小値「yL q」を求めるときも同様にし
て、「yL q」を「wL qave 」と置き、未知の値の入力パ
ラメータを含む各ANDルールの重み「Wfrmiss 」で
「Wfrmiss ≦wL qave 」となっているものの中から一
番小さな値を持つ重みWfpmis s を選択し、式(5)の
計算を行う(ステップS9)。
【数5】
【0051】そして、最大値「yH q」の場合、「Wf
rmiss ≧wH qave 」となる重みWfrmiss がなくなるま
でステップS8〜S9の手順を繰り返す。最小値
「yL q」の場合も、「Wfrmiss ≦wL qave 」となる重
みWfrmiss がなくなるまでステップS8〜S9の手順
を繰り返す。この処理によって最終的に出力値の最大値
および最小値は次のようになる。
【数6】
【0052】なぜ、このような手順を取るのかという
と、最終的な出力値は荷重平均で求めるため、最大値y
H qの場合は途中で得た出力値より少しでも大きな値を加
えて更に荷重平均を求めれば、出力値は更に大きな値と
なる。逆に最小値yL qの場合は途中で得た出力値より少
しでも小さな値を加えて更に荷重平均を求めれば、出力
値は更に小さな値となる。そこで、このように計算する
と、与えられたANDルールの出力値から最大値と最小
値を求めることが可能であることから、このような手順
によって計算することにしている。
【0053】式(6)における最大値wH qave,最小値
L qaveはステップ8〜S9の手順を最後まで繰り返
し、終わった後の重みの平均値であり、重みWfp はそ
れぞれのANDルールの重要度を表す重みである。
【0054】また、右辺では最終的に分子・分母の項が
1項づつ減った近似式で表しているが、これは未知の値
の入力パラメータのメンバーシップ値の最小値がほぼ0
であることと、そのために未知の値の入力パラメータを
含むANDルールの出力値の最小値の方は、min関数
により、必ずほぼ0の値をとることからRL rmissが0と
なり、分母・分子の第3項目は無視できる範囲であると
考え、計算の簡単化のために省略しているわけである。
【0055】次に、本発明によるファジィ・ニューラル
ネットワーク装置の学習方法について説明する。図6
は、学習時のブロック構成を示すもので、入力層1〜出
力層5がネットワーク部10として表されている。そし
て、ネットワーク部10の出力パターンと入出力パター
ン格納部11に格納されている目標となる出力パターン
との誤差を検出する誤差検出部12、この誤差検出部1
2で検出した誤差から入出力パターン格納部11に格納
されたパターンを正しくシミュレートするために学習す
る学習部13、誤差検出部12で検出する誤差が一定値
以下になった場合に学習の終了を入出力パターン格納部
11に伝える終了判定部14から構成されている。
【0056】図7に示すフローチャートを参照しながら
学習手順について説明する。まず、正しくシミュレート
させたい出力値Tq(以下、教師データ、という)と、
今まで述べた方法でネットワーク部10の出力層5から
得た出力値yH q,yL qとの誤差を誤差検出部12で求め
る(ステップS21)。
【数7】
【0057】式(7)が誤差Eを求める式である。誤差
が許容値内であれば調整の必要がないので処理を終了
し、誤差が許容値を超えている場合は許容値内にするた
めに重み調整を行う(ステップS22)。しかし、重み
調整を行う場合、それぞれの重みを増やした方がよいの
か、それとも減らした方がよいのかは、このままではわ
からない。そこで、各重みについての誤差への影響を求
め、影響の小さくなる方向に重みを少しづつ調整してい
けばよい訳である。
【0058】影響を求めるには、どちらの方向(増/
減)に重みが変わると誤差がどちらの方向(増/減)に
変化するかを求める必要がある。そのために式(7)を
各重みで偏微分する。すると、それぞれの重みの変化に
よる誤差関数Eの傾きが求められる。この傾きが0にな
るときの重みが誤差が少ないときの重みとなる。
【0059】しかしながら、この傾きが0になるときの
重みの値は常に誤差を最小にする値であるとは限らな
い。なぜなら、傾きが0である関数の値はその関数の極
小値を表しているからである。しかし、重みの初期値は
対象とする入出力関係に関するファジィルールに基づい
て設定されるため、ファジィルールが間違っていなけれ
ば初めからそれほど間違っていない値を持っていると考
えられる。
【0060】その場合には最小値と見ても差し支えない
のではないかと考えられる。また、間違ったファジィル
ールであったとしても、正しい入出力関係のデータを学
習することにより、そのデータに沿ったシミュレートが
できるよう重みの調整は行われるので、最小値にならな
いかもしれないが、極小値にはなるので、比較的誤差を
小さくすることが可能である。
【0061】次いで、各重みを調整する学習方法につい
て説明する。
【数8】
【0062】式(8a)および式(8b)は各重みによ
る偏微分のために準備された式であり、誤差関数に対す
る出力の影響を求める式である。式(8a)に示すよう
に、出力の変数での偏微分は出力の最大値と最小値の各
々で誤差関数を偏微分することにより求められる。実際
に各々偏微分した式が式(8b)である。さらに、これ
らを使ってそれぞれの重みについての偏微分を行う。ま
ず、ルールの重要度を表す重みWfについて偏微分を行
う(ステップS23)。
【数9】
【0063】式(9a)により、重みWfp の変化によ
る誤差関数の影響が求められる。実際に偏微分した式が
式(9b)〜(9e)である。ここで、式(9c)では
式(9b)と比べ、右辺の第2項がない式となってい
る。また、式(9d)では式(9b)と比べ、右辺の第
1項がない式となっている。これらは、先ほどの式
(6)において、最大値yH qでは未知の値の入力パラメ
ータを含むANDルールの重みとしてwH qave 以上の重
みだけを使っており、wH qave よりも小さな重みは近似
式には現れないためである。同様に、最小値yL qでは未
知の値の入力パラメータを含むANDルールの重みとし
てwL qave 以下の重みだけを使っており、wL qave より
も大きな重みは近似式には現れないためである。
【0064】未知の値の入力パラメータを含まないAN
Dルールの重みは出力値yH q,yL q共に使われているの
で、式(9b)のように右辺に2項ある。また、未知の
値の入力パラメータを含むANDルールにおいて式(9
e)に示すように、 wL qave ≦Wfp ≦wH qave となる重みも当然存在するが、それらの重みは式(6)
のどちらの近似式にも現れず、出力値になんら貢献をし
ていないので誤差値に影響していないということから0
となっている。
【0065】次に、メンバーシップ関数のセンター値の
傾きを表す重みWgについて偏微分を行う(ステップS
24)。
【数10】
【0066】式(10a)により、重みWgijの変化によ
る誤差関数の影響が求められる。実際に偏微分した式が
式(10b)〜(10c)である。ここで、mは影響を求め
たいメンバーシップ関数において、出力値を求めるうえ
で用いられたANDルールの数を示している。
【0067】また、式(10b)の「(1−MH ik )・M
H ik 」、「(1−ML ik )・ML ik」は、シグモイド関
数を微分をした結果現れた項である。そして、式(10
c)が0になる理由は、いま述べたように、偏微分した
式に「(1−MH ik )・MH ik 」、「(1−ML ik )・
L ik 」という項があり、かつ未知の値の入力パラメー
タの場合にはメンバーシップの出力値を「MH ik
1」、「ML ik ≒0」としているので、「(1−M
H ik )・MH ik 」、「(1−ML ik )・ML ik 」の項が
0となり、結果として偏微分値が0となるからである。
【0068】最後にメンバーシップ関数のセンター値を
表す重みWcについて偏微分を行う(ステップS2
5)。
【数11】
【0069】式(11a)により、重みWgijの変化によ
る誤差関数の影響が求められる。実際に偏微分した式が
式(11b)〜(11c)である。式(11c)が0になる理
由も式(10c)が0になるのと同様の理由で、偏微分し
た式に「(1−MH ik )・MH ik 」、「(1−ML ik
・ML ik 」という項があり、なおかつ未知の値の入力パ
ラメータの場合には、「MH ik ≒1」、「ML ik ≒0」
としているので、「(1−MH ik )・MH ik 」、「(1
−ML ik )・ML ik 」の項が0となり、結果として偏微
分値が0となるのである。
【0070】以上により、誤差関数に対するそれぞれの
重みの影響が求められる。そこで、これらの影響を小さ
くする方向、つまりそれぞれの偏微分値に−1を掛けた
方向に重みを調整することによって誤差値を小さくする
ことができる。
【0071】次に、それぞれの重みを微調整する微小変
化量を求める。
【数12】
【0072】ここで、α、β、γは学習パラメータと呼
ばれるもので、重みを調整する量をここで調節する。大
きな値にすると、誤差の少なくなる方向に大きく重みが
調整され、学習時間が早くなるのだが、調整がおおざっ
ぱになるため、最適値に落ちつくことができなくなった
しまう。逆に小さな値にすると、重みを細かく調整する
ことができるのだが、その代わり学習時間が遅くなり、
また、重みの初期値しだいでは、最小値まで行かずに、
どこかの極小値から抜け出せなくなる可能性も出てく
る。そのため、何回か学習パラメータを振って、一番誤
差が少なくなる学習パラメータを設定する必要がある。
または式(12d)の例のように学習パラメータを時間関
数とする方法もある。
【0073】このようにして得られた値を現在の重みに
加えることによって、重みの調整がなされたことにな
る。現在の学習回数をl(スモール・エル)としたとき
の重みを調整する式を示す。
【数13】
【0074】この式により、(l+1)回目の学習のと
きには、それぞれ新しく調整された重みによって今まで
述べてきた式(1)〜式(13c)までの学習が行われ
る。そして、決められた学習回数だけ学習を行うか、ま
たは予め誤差値の許容値を定めておき、その値以下にな
ったら学習を終了する。以上の動作によって、与えられ
た入出力関係に未知の値が一部存在していたとしても、
正しいシミュレートすることができる。
【0075】次に、本装置を用いて行った具体的な3つ
の実験例について説明する。まず、実験1について説明
する。この実験は未知の値が存在しないサンプルデータ
と、未知の値が一部存在するサンプルデータとをそれぞ
れ学習させ、出力結果の誤差を求めた実験である。
【0076】サンプルデータは3入力1出力で、Small
=0.0、Middle =0.5、Big=1.0とし、各入
力項目同士のそれぞれの組み合わせを作り、各入力値が
増加すると出力値も増加する単純増加関数のデータであ
る。図8(a)〜(c)に3つの入力値x1,x2,x
3のうちの2つの入力値と1つの出力値y1との関係を
示す。図中、カッコ内の数字はサンプルデータのポイン
トを示すデータ番号(data No.)であり、後述する図
9〜図11のデータ番号と対応している。
【0077】図9は、入力パラメータの入力値x1,x
2,x3に未知の値が存在しないサンプルデータによる
出力値y1を表として示したものである。なお、図中の
丸付き数字〜はこのうちの1つのデータを未知の値
とする9種類の歯抜けサンプルデータ1〜9を作成する
際の未知のデータの位置を示す。
【0078】図10は、データを未知に値(−1.0)
とする歯抜けサンプルデータ1による結果を表として示
したもので、y1′はそのときの出力値、y1−y1′
は未知の値が存在しないサンプルデータ(図9)の出力
値y1との誤差である。他の歯抜けサンプルデータ2〜
9に対しても同様の処理を行い、出力値y1との誤差の
みを図11に表として示す。
【0079】この結果、未知の値が存在しないサンプル
データ(図9)と、未知の値が1つ存在するサンプルデ
ータ(図10〜図11)とでは、さほど出力値が変わっ
ていないことが分かる。一番大きな誤差でも歯抜けサン
プルデータ9のデータ番号3の誤差0.354であり、
これを除けば未知の値が存在するにも拘わらず12%以
下の誤差に収まっている。このことから未知の値が存在
するサンプルデータであっても、未知の値が存在しない
サンプルデータとほぼ同様のシミュレートを行うことが
できる。
【0080】次に、実験2について説明する。この実験
は複写機のトナー定着強度解析データに関するもので、
未知の値が存在しないトナー定着強度解析データと、未
知の値が一部存在するトナー定着強度解析データとをそ
れぞれネットワークに学習させ、学習後に学習に用いて
いない検証用のトナー定着強度解析データを入力し、ネ
ットワークの出力値を求めた後、検証用データの教師デ
ータと出力結果の誤差を求め、学習アルゴリズムの有効
性を検証するものである。
【0081】トナー定着強度解析データは、図12の表
に示すように、9入力1出力のデータである。第1入力
i1はガラス転移点Tg〔℃〕で、この温度になると物
質が動き出す温度である。第2入力i2はメルトインデ
ックスMI〔g/10min〕で、トナーが150〔℃〕で
10分間にどれだけ熔けるのか表したものである。
【0082】第3入力i3は低分子ピーク分子量Mw
L、第4入力i4は高分子ピーク分子量MwH、第5入
力i5は高分子比L/H〔%〕で、トナーを作るために
ブレンドする高分子と低分子のそれぞれの存在比のピー
ク値を表すものと、そのブレンド比である。
【0083】第6入力i6は貯蔵弾性率G′〔dyn/cm∧
2〕、第7入力i7は損失弾性率G″〔dyn/cm∧2〕、第
8入力i8は粘度η〔poise〕で、紙に乗ったトナーが
定着ローラの圧力などによりつぶれた後にどのくらい戻
るかを表すのが貯蔵弾性率G′、ローラの圧力などによ
りつぶれたときのつぶれ具合を表すのが粘度η、100
%戻れば完全な弾性体であるが、完全に戻らないときに
完全なものとの差を表すのが損失弾性率G″である。
【0084】第9入力i9であるアクリル比Ac/St
〔%]は素材比であり、アクリル/スチレンアクリル比
のことである。スチレンアクリルに対しアクリルがどの
くらい含まれるかを表したものである。
【0085】出力o1は定着強度である。これはトナー
像を形成した紙が定着装置を通り、熱・圧力等で紙の表
面のトナーが熔融軟化し、トナー同士、トナーと紙とが
固着、定着した強さをいう。
【0086】サンプルデータはこのような9入力1出力
のトナー定着強度解析データで、図13に示す学習デー
タセット(a)は未知の値が存在しない8パターンから
なるデータセットであり、図14に示す学習データセッ
ト(b)は未知の値が3ケ所存在する8パターンからな
る学習データセットであり、図15に示す検証データセ
ット(k)は6パターンからなるデータセットである。
【0087】図16にデータセット(a)で学習したネ
ットワークの検証結果を、図17にデータセット(b)
で学習したネットワークの検証結果を示す。両データセ
ットの二乗誤差を比べてみると、データセット(b)の
方が誤差が大きいが、検証用データの教師データとあま
りにかけ離れた出力はされていないことが分かる。これ
により、トナーのデータにおいても実験1の結果と同様
に、歯抜けのあるデータも、歯抜けのないデータの時と
ほぼ同様のシミュレートを行うことができるということ
が確かめられた。
【0088】次に、実験3について説明する。この実験
は実験2の学習データセットに5パターンを追加し、全
部で13パターンとなる4種類の学習データセットによ
って学習させ、実験2のときと同様に検証用データの教
師データと出力結果の誤差を求め、実験2の結果と比較
して、未知の値が存在するデータセットでも追加した方
が精度が向上するか、または同等の精度を維持できるか
を検証する。
【0089】サンプルデータは実験2と同様に9入力1
出力のトナー定着強度解析データであり、図18に示す
学習データセット(c)は、未知の値が存在しない13
パターンからなる学習データセットで、図13のデータ
セットに5パターンを追加したものである。
【0090】図19に示す学習データセット(d)は、
未知の値が3ケ所存在する13パターンからなる学習デ
ータセットで、図14のデータセットに未知の値が存在
しない5パターンを追加したものである。図20に示す
データセット(e)は、未知の値が5ケ所存在する13
パターンからなる学習データセットで、図13のデータ
セットに未知の値が5ケ所存在する5パターンのデータ
セットを追加したものである。
【0091】図21に示す学習データセット(f)は、
未知の値が8ケ所存在する13パターンからなる学習デ
ータセットで、図14のデータセットに未知の値が5ケ
所存在する5パターンのデータセットを追加したもので
ある。
【0092】図22〜図25に検証データセットの出力
結果を示す。図22は学習データセット(c)で学習し
たネットワークの検証結果であり、図23は学習データ
セット(d)で学習したネットワークの検証結果であ
り、図24は学習データセット(e)で学習したネット
ワークの検証結果であり、図25は学習データセット
(f)で学習したネットワークの検証結果である。
【0093】データセット(c)〜(f)の二乗誤差を
見ると、未知の値が存在するものも存在しないものも、
それほど誤差が変わらない結果となっている。しかも、
実験2のときの二乗誤差と比較してみても、二乗誤差が
小さくなっていることが分かる。これによって学習する
データセットの数が増えれば、未知の値が存在するデー
タセットであっても精度を上げることができることがわ
かる。これらの実験結果からも、本発明が有効であるこ
とが分かる。
【0094】次に、本発明によるファジィ・ニューラル
ネットワーク装置の応用例について説明する。まず、セ
ンサを用いた家電製品への応用例について説明する。例
えば、エアコンの場合、従来のエアコンでもファジィや
ニューロを用いたものがあるが、これらはセンサの出力
値をファジィ制御やニューロの入力値とし、制御量を出
力している。ところが、センサなどの故障により入力値
の一部が与えられないと正しい計算が行われず、誤った
制御量を出力してしまうことがあった。
【0095】しかし、本発明によるファジィ・ニューラ
ルネットワーク装置を用いたエアコンであれば、それを
回避することができる。なぜなら、本発明では入力値の
一部が未知の値となっていても、例えば最大値と最小値
の平均値を制御量として計算して出力できるアルゴリズ
ムとなっているからである。
【0096】本発明によるファジィ・ニューラルネット
ワーク装置を搭載するエアコンにおいて、ファジィ・ニ
ューラルネットワークに入力されるものとしては、温度
や湿度、室温の変化量等があげられるが、これらの入力
値のうち、センサにより出力値を得るものの中で、例え
ば湿度センサが故障して出力値が得られなくなった場
合、センサの故障を示す警告ランプが点灯し、サービス
マンに修理を依頼するようにエアコンの使用者に対して
促す。
【0097】しかし、その警告ランプが点灯していたと
しても、本発明によるファジィ・ニューラルネットワー
ク装置を搭載するエアコンでは、すぐに動作が停止した
り、誤動作をするようなことはなく、他の入力パラメー
タから制御量を計算して出力したり、再学習することに
より、サービスマンが修理に来るまでの間でも不都合な
く動作できるので、故障によりその家電製品が使用でき
なくなる時間が短縮され、エアコンの使用者にそれほど
不満を与えることがない。
【0098】他のセンサを用いた家電製品等でも同様の
応用が可能である。例えば、温度センサ、湿度センサ、
重量センサ等を備えた電子レンジや、重量センサ、光セ
ンサ、水温センサ等を備えた洗濯機など、複数のセンサ
を備えたファジィ・ニューラル制御の家電製品に応用可
能である。
【0099】次に、医療診断への応用例について説明す
る。医者が患者の病状を診断する際には様々な検査を行
う。その医者の知見をファジィのルールとしてネットワ
ーク初期値に取り込み、その後の診断データを用いて本
発明のファジィ・ニューラルネットワーク装置に学習さ
せておく。そうすると、医者が患者の病状を診断する際
の様々な検査のうち、その病院に一部の検査装置がない
等、何らかの理由で検査の一部が出来なかったとして
も、残りの検査結果を本発明のファジィ・ニューラルネ
ットワーク装置に入力することによって患者の病状を診
断することができる。
【0100】次に、各種解析装置への応用例について説
明する。様々な実験結果から解析を行うにあたり、通常
は全ての実験項目を実験して結果を得ないと解析が行え
なかったりするが、全ての実験項目を実験したものや、
一部の項目を実験していないものなども含めて実験結果
を用いて予め本発明のファジィ・ニューラルネットワー
ク装置に学習させておけば、これを用いることにより一
部の実験をしていなくても解析を行うことが可能とな
る。
【0101】
【発明の効果】本発明によるファジィ・ニューラルネッ
トワーク装置によれば、従来は入力パラメータの全てが
既知の値でないと出力値を求めることができなったが、
入力パラメータの一部が未知の値でも出力値を求めるこ
とが可能になった。
【0102】また、本発明によるファジィ・ニューラル
ネットワーク装置によれば、従来は入力パラメータを1
つの値として扱っていたため未知の値を扱うことができ
なかったが、入力パラメータを最大値と最小値の2つの
値に分割することにより、未知の値も既知の範囲を表す
2つの値に表現できるため、出力値を求めることが可能
になった。
【0103】また、本発明によるファジィ・ニューラル
ネットワーク装置によれば、従来はネットワークを構成
したら、そのネットワークの接続に対し全ての重みを用
いて演算していたが、未知の入力パラメータの値を取り
うる値の最大値と最小値として表現することによりネッ
トワークの入力層からメンバーシップ層までの演算を省
略し、ネットワークの構造から直接メンバーシップ層の
出力値を設定できるため演算量の削減を図ることが可能
になった。
【0104】また、本発明によるファジィ・ニューラル
ネットワーク装置によれば、従来はネットワークを構成
したらそのネットワークの接続に対して全ての重みを用
いて演算していたが、ネットワークのルール層から出力
層への演算においてルールの重みを選択的に使用し、関
係のない重みやルールの出力値は無視するためルール層
から出力層への演算の簡略化と演算量の削減を図ること
が可能になった。
【0105】本発明によるファジィ・ニューラルネット
ワーク装置の学習方法によれば、従来はネットワークの
学習においては各ユニットの接続されているところは全
て学習によって重みの修正を行っていたが、ネットワー
クの構造が意味のある構造であることから入力データの
状況によって重みを修正すべきでないところは重みを修
正しなかったり、修正量を通常よりも少なくすることに
より、学習時における演算の簡略化と演算量の削減を図
るこのができ学習時間の短縮にもつながることが可能に
なった。
【0106】また、本発明によるファジィ・ニューラル
ネットワーク装置の学習方法によれば、従来は未知の値
を含む学習データセットは使用できなかったが、未知の
値の存在する不完全なデータセットであっても学習デー
タセットに加えて学習させることが可能となり、しかも
不完全なデータセットを加えることにより不完全なデー
タセットを加える前の学習データセットの学習によるシ
ミュレーションよりも精度の高いシミュレーションを行
うことが可能になった。
【図面の簡単な説明】
【図1】本発明によるファジィ・ニューラルネットワー
ク装置の一実施例を示す構成図である。
【図2】メンバーシップ関数(Big、Middle 、Smal
l)を示す図である。
【図3】シグモイド関数によるメンバーシップ関数の形
成方法を示す図である。
【図4】メンバーシップ関数(Middle )の構成方法を
示す図である。
【図5】入力層に入力パラメータが入力されたとき各層
から出力される出力値を求める手順を説明するフローチ
ャートである。
【図6】本発明によるファジィ・ニューラルネットワー
ク装置の学習時のブロック図である。
【図7】学習時に各層の重みを修正する手順を示すフロ
ーチャートである。
【図8】(a)〜(c)は3つの入力値のうち2つの入
力値と1つの出力値との関係を示す図である。
【図9】入力値に未知の値が存在しないサンプルデータ
による出力値を表として示す図である。
【図10】入力値に未知の値が存在する歯抜けサンプル
データ1による出力値と誤差とを表として示す図であ
る。
【図11】入力値に未知の値が存在する歯抜けサンプル
データ2〜9による誤差を表として示す図である。
【図12】トナー定着強度解析データの内容を説明する
ための図である。
【図13】未知の値が存在しないトナー定着強度解析デ
ータの学習データセット(a)を示す図である。
【図14】未知の値が存在するトナー定着強度解析デー
タの学習データセット(b)を示す図である。
【図15】トナー定着強度解析データの検証データセッ
トを示す図である。
【図16】学習データセット(a)で学習した検証結果
を示す図である。
【図17】学習データセット(b)で学習した検証結果
を示す図である。
【図18】未知の値が存在しないトナー定着強度解析デ
ータの学習データセット(c)を示す図である。
【図19】未知の値が存在するトナー定着強度解析デー
タの学習データセット(d)を示す図である。
【図20】未知の値が存在するトナー定着強度解析デー
タの学習データセット(e)を示す図である。
【図21】未知の値が存在するトナー定着強度解析デー
タの学習データセット(f)を示す図である。
【図22】学習データセット(c)で学習した検証結果
を示す図である。
【図23】学習データセット(d)で学習した検証結果
を示す図である。
【図24】学習データセット(e)で学習した検証結果
を示す図である。
【図25】学習データセット(f)で学習した検証結果
を示す図である。
【図26】従来のニューラルネットワークの一例を示す
構成図である。
【図27】(a)〜(c)は、ファジィ理論の概略図で
ある。
【図28】従来のニューロ・ファジィ融合システムの構
成図である。
【符号の説明】 1 入力層 2 メンバーシップ層前半部 3 メンバーシップ層後半部 4 ルール層 5 出力層 6 メンバーシップ値設定手段 11〜14 入力層のユニット 21〜28 メンバーシップ層前半部のユニット 31〜36 メンバーシップ層後半部のユニット 41〜49 ルール層のユニット 51 出力層のユニット Wc1〜Wc8 入力層とメンバーシップ層前半部との
結合の重み Wg1〜Wg8 メンバーシップ層前半部と後半部との
結合の重み Wf1〜Wf8 ルールの重要度を表す重み
フロントページの続き (56)参考文献 1.情報処理学会研究報告 VOL. 92,NO.25(IS−38)p1−9 1992 2.シャープ技報 NO.51 p25− 30 1991 (58)調査した分野(Int.Cl.7,DB名) G06N 3/00 540 G06G 7/12 G06G 7/60 INSPEC(DIALOG) JICSTファイル(JOIS)

Claims (8)

    (57)【特許請求の範囲】
  1. 【請求項1】 入力パラメータの値を出力する入力層
    と、 前記入力パラメータの取りうる値の範囲を複数の領域に
    分割し各領域毎にメンバーシップ関数を定義し前記入力
    層からの出力値に従い前記各領域毎のメンバーシップ値
    を各入力パラメータ毎に出力するメンバーシップ層と、 異なる入力パラメータ間のある領域同士による所定のル
    ールを構築し該ルールに対する適合度を出力するルール
    層と、 前記ルール層からの出力値に従い出力パラメータの値を
    出力する出力層と、 前記入力パラメータのいずれかにデータが示されなかっ
    場合に入力パラメータにデータが示されなかった
    場合に対応する前記メンバーシップ値を所定の値に設定
    するメンバーシップ値設定手段と、 を設けてなることを特徴とするファジィ・ニューラルネ
    ットワーク装置。
  2. 【請求項2】 前記入力層に入力される前記入力パラメ
    ータにデータが示されなかった場合は、前記メンバーシ
    ップ層の出力値を範囲としてとらえ、該範囲の最大値と
    最小値で表し、その範囲の最大値を前記各入力パラメー
    タの前記各メンバーシップ関数の最大値とし、その範囲
    の最小値を前記各入力パラメータの前記各メンバーシッ
    プ関数の最小値とするように構成されていることを特徴
    とする請求項1記載のファジィ・ニューラルネットワー
    ク装置。
  3. 【請求項3】 前記入力パラメータのいずれかにデータ
    が示されなかった場合の前記最大値が1.0、前記最小
    値が0.0となるように構成されていることを特徴とす
    る請求項2記載のファジィ・ニューラルネットワーク装
    置。
  4. 【請求項4】 前記出力層から出力される出力値の最大
    値および最小値は、データが示された入力パラメータ同
    士の前記ルール層の出力値と前記ルール層および前記出
    力層間の結合の重みとの加重平均を求め、入力部にデー
    タが示されなかった入力パラメータを含む前記ルール層
    および前記出力層間の結合の重みを前記加重平均に加え
    て再度加重平均を求めることによって得ることを特徴と
    する請求項2記載のファジィ・ニューラルネットワーク
    装置。
  5. 【請求項5】 前記出力層から出力される出力値の最大
    値および最小値は、データが示された入力パラメータ同
    に関わるルールで構成された前記ルール層の出力値に
    従い前記ルール層および前記出力層間の結合の重みの加
    重平均を求め、データが示されなかった入力パラメータ
    からのルールを含む前記所定のルールの重みの中で現在
    の重みの加重平均より大きくまたは小さくなるものの中
    から一番大きくまたは小さくなるものを加えて加重平均
    を更新し、これ以上加えても加重平均が大きくまたは小
    さくならなくなるまで加重平均を随時更新し、これ以上
    加えても加重平均が大きくまたは小さくならなくなった
    時点でそのときの加重平均値を出力層の最大値または最
    小値とすることを特徴とする請求項4記載のファジィ・
    ニューラルネットワーク装置。
  6. 【請求項6】 入力パラメータの値を出力する入力層
    と、 前記入力パラメータの取りうる値の範囲を複数の領域に
    分割し各領域毎にメンバーシップ関数を定義し前記入力
    層からの出力値に従い前記各領域毎のメンバーシップ値
    を各入力パラメータ毎に出力するメンバーシップ層と、 異なる入力パラメータ間のある領域同士による所定のル
    ールを構築し該ルールに対する適合度を出力するルール
    層と、 前記ルール層からの出力値に従い出力パラメータの値を
    出力する出力層と、 前記入力パラメータのいずれかにデータが示されなかっ
    場合に該示されなかった入力パラメータに対応する前
    記メンバーシップ値を所定の値に設定するメンバーシッ
    プ値設定手段と、 を設けてなるファジィ・ニューラルネットワーク装置に
    おいて、 学習時に修正しようとする重みに関わる前記入力パラメ
    ータがデータが示されたものであるかデータが示されな
    かったものであるかに応じて各重みを修正するときの学
    習方法として異なる学習方法を選択的に用いることを特
    徴とするファジィ・ニューラルネットワーク装置の学習
    方法。
  7. 【請求項7】 前記ルール層から前記出力層への重みを
    修正する際に、前記データが示された入力パラメータ同
    からのルールで構成された前記所定のルールの重みの
    修正は前記ルール層の出力値の最大値と最小値の両方を
    用いて修正し、またデータが示されなかった入力パラメ
    ータからのルールを含む前記所定のルールの重みの修正
    は前記ルール層の出力値の最大値または最小値のいずれ
    かのみを用いて修正することを特徴とする請求項6記載
    のファジィ・ニューラルネットワーク装置の学習方法。
  8. 【請求項8】 前記各入力パラメータのメンバーシップ
    関数を構成するための前記入力層から前記メンバーシッ
    プ層への重みを修正する際に、データが示された入力パ
    ラメータのメンバーシップ関数を構成する重みのみを修
    正することを特徴とする請求項6記載のファジィ・ニュ
    ーラルネットワーク装置の学習方法。
JP07117218A 1995-05-16 1995-05-16 ファジィ・ニューラルネットワーク装置およびその学習方法 Expired - Fee Related JP3129932B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP07117218A JP3129932B2 (ja) 1995-05-16 1995-05-16 ファジィ・ニューラルネットワーク装置およびその学習方法
EP96102112A EP0743604B1 (en) 1995-05-16 1996-02-13 A fuzzy-neural network system and a learning method therein
DE69608927T DE69608927T2 (de) 1995-05-16 1996-02-13 Neuronales Fuzzy-Netzwerk und damit verwirklichtes Lernverfahren
US08/620,998 US5819242A (en) 1995-05-16 1996-03-22 Fuzzy-neural network system and a learning method therein

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP07117218A JP3129932B2 (ja) 1995-05-16 1995-05-16 ファジィ・ニューラルネットワーク装置およびその学習方法

Publications (2)

Publication Number Publication Date
JPH08314881A JPH08314881A (ja) 1996-11-29
JP3129932B2 true JP3129932B2 (ja) 2001-01-31

Family

ID=14706326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP07117218A Expired - Fee Related JP3129932B2 (ja) 1995-05-16 1995-05-16 ファジィ・ニューラルネットワーク装置およびその学習方法

Country Status (4)

Country Link
US (1) US5819242A (ja)
EP (1) EP0743604B1 (ja)
JP (1) JP3129932B2 (ja)
DE (1) DE69608927T2 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6324529B1 (en) * 1996-09-27 2001-11-27 Yamaha Hatsudoki Kabushiki Kaisha Evolutionary controlling system
JP3825845B2 (ja) * 1996-09-27 2006-09-27 ヤマハ発動機株式会社 進化的制御方式
US6546378B1 (en) 1997-04-24 2003-04-08 Bright Ideas, L.L.C. Signal interpretation engine
US6804661B2 (en) 1997-04-24 2004-10-12 Bright Ideas, L.L.C. Drug profiling apparatus and method
US6154765A (en) 1998-03-18 2000-11-28 Pasocs Llc Distributed digital rule processor for single system image on a clustered network and method
KR100343155B1 (ko) * 1998-04-30 2002-08-22 삼성전자 주식회사 퍼지네트워크를이용한사용자정보구조제공방법
EP0959414A1 (en) * 1998-05-20 1999-11-24 Yamaha Hatsudoki Kabushiki Kaisha Optimization method for a fuzzy neural network
US6466929B1 (en) 1998-11-13 2002-10-15 University Of Delaware System for discovering implicit relationships in data and a method of using the same
US6578018B1 (en) * 1999-07-27 2003-06-10 Yamaha Hatsudoki Kabushiki Kaisha System and method for control using quantum soft computing
NZ503882A (en) * 2000-04-10 2002-11-26 Univ Otago Artificial intelligence system comprising a neural network with an adaptive component arranged to aggregate rule nodes
US20050124863A1 (en) * 2001-06-28 2005-06-09 Cook Daniel R. Drug profiling apparatus and method
US6904367B2 (en) * 2002-10-04 2005-06-07 Daniel R. Cook Petroleum exploration and prediction apparatus and method
US6952649B2 (en) * 2002-10-04 2005-10-04 Cook Daniel R Petroleum exploration and prediction apparatus and method
US8374886B2 (en) * 2003-09-10 2013-02-12 Francis Michael Walsh Computer based clinical laboratory ordering and reporting system with embedded consultation function
US7542854B2 (en) * 2004-07-22 2009-06-02 International Business Machines Corporation Method for discovering gene regulatory models and genetic networks using relational fuzzy models
US7328202B2 (en) * 2004-08-18 2008-02-05 Xishi Huang System and method for software estimation
US20070112695A1 (en) * 2004-12-30 2007-05-17 Yan Wang Hierarchical fuzzy neural network classification
US8396582B2 (en) 2008-03-08 2013-03-12 Tokyo Electron Limited Method and apparatus for self-learning and self-improving a semiconductor manufacturing tool
US8190543B2 (en) * 2008-03-08 2012-05-29 Tokyo Electron Limited Autonomous biologically based learning tool
KR101212714B1 (ko) * 2011-01-26 2013-01-22 계명대학교 산학협력단 계층적 퍼지 추론에 기반한 임상진단 지원방법 및 그 시스템
JP6362991B2 (ja) * 2014-10-17 2018-07-25 アズビル株式会社 ファジィニューラルネットワークの学習用データのメンバーシップ値を決定するためのシステム及び方法
CN105262113B (zh) * 2015-11-26 2017-09-19 国网河南省电力公司平顶山供电公司 基于概率模糊神经网络的光伏发电系统无功控制方法
CN106096723B (zh) * 2016-05-27 2018-10-30 北京航空航天大学 一种基于混合神经网络算法的用于复杂工业产品性能评估方法
US11268729B2 (en) * 2018-05-07 2022-03-08 Johnson Controls Tyco IP Holdings LLP Building management system with apparent indoor temperature and comfort mapping
CN111242279B (zh) * 2020-01-03 2023-09-08 浙江浙能技术研究院有限公司 一种超超临界煤粉锅炉炉膛结渣预测系统及方法
CN113050733B (zh) * 2021-03-23 2022-10-18 上海联影医疗科技股份有限公司 温湿度控制装置、方法、ct系统、电子设备及存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2057078C (en) * 1990-03-12 2000-04-11 Nobuo Watanabe Neuro-fuzzy fusion data processing system
JP2747104B2 (ja) * 1990-10-22 1998-05-06 株式会社東芝 ニューラルネットワーク
US5402519A (en) * 1990-11-26 1995-03-28 Hitachi, Ltd. Neural network system adapted for non-linear processing
JPH05224939A (ja) * 1992-02-10 1993-09-03 Fujitsu Ltd ファジィ集合処理方式
US5448681A (en) * 1992-03-27 1995-09-05 National Semiconductor Corporation Intelligent controller with neural network and reinforcement learning
US5579439A (en) * 1993-03-24 1996-11-26 National Semiconductor Corporation Fuzzy logic design generator using a neural network to generate fuzzy logic rules and membership functions for use in intelligent systems
US5524176A (en) * 1993-10-19 1996-06-04 Daido Steel Co., Ltd. Fuzzy expert system learning network
JP3247803B2 (ja) * 1994-07-27 2002-01-21 シャープ株式会社 ファジィ・ニューラルネットワーク・システム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
1.情報処理学会研究報告 VOL.92,NO.25(IS−38)p1−9 1992
2.シャープ技報 NO.51 p25−30 1991

Also Published As

Publication number Publication date
DE69608927T2 (de) 2001-02-01
EP0743604A1 (en) 1996-11-20
US5819242A (en) 1998-10-06
DE69608927D1 (de) 2000-07-27
JPH08314881A (ja) 1996-11-29
EP0743604B1 (en) 2000-06-21

Similar Documents

Publication Publication Date Title
JP3129932B2 (ja) ファジィ・ニューラルネットワーク装置およびその学習方法
US8209080B2 (en) System for determining most probable cause of a problem in a plant
EP0471857B1 (en) Neuro-fuzzy integrated data processing system; network structure conversion system ; fuzzy model extracting system
Lee et al. Trust, control strategies and allocation of function in human-machine systems
Li et al. Adaptive fuzzy Petri nets for dynamic knowledge representation and inference
Sin et al. Fuzzy system design through fuzzy clustering and optimal predefuzzification
EP0594168B1 (en) Fuzzy rule acquisition method and apparatus for fuzzy inference system and fuzzy inference system using the apparatus
Peng et al. Uncertain pure linguistic hybrid harmonic averaging operator and generalized interval aggregation operator based approach to group decision making
Chakroborty et al. Calibrating the membership functions of the fuzzy inference system: instantiated by car-following data
Rehder Beyond Markov: Accounting for independence violations in causal reasoning
WO2020044477A1 (ja) 異常診断システム、方法及びプログラム
JP3247803B2 (ja) ファジィ・ニューラルネットワーク・システム
TW202006652A (zh) 具輔助判斷功能之產品測試系統及應用於其上的產品測試輔助方法
CN101894214A (zh) 基于遗传神经网络的矿山通风系统故障判断方法
Liu et al. Self-learning modeling in possibilistic model checking
Bendjenna et al. Identifying and modeling non-functional concerns relationships
Zuviria et al. SAPM: ANFIS based prediction of student academic performance metric
JP3287738B2 (ja) 関係関数探索装置
JPH08286922A (ja) ファジィ・ニューラルネットワーク装置
JP4267726B2 (ja) 制御装置における動作信号と操作量との関係を決定する装置、制御装置、データ生成装置、入出力特性決定装置及び相関関係評価装置
JP3025592B2 (ja) ニューロコンピュータ
Winkler et al. Advances in applying genetic programming to machine learning, focussing on classification problems
JP2002324226A (ja) ニューロシステム及びその構築方法
JP3047990B2 (ja) 知識の評価,更新方法およびそのシステム
TW440779B (en) Method of predicting the structural dynamic characteristic of machine tool using neural network

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees