JPH0573323A - 知識獲得精錬装置 - Google Patents
知識獲得精錬装置Info
- Publication number
- JPH0573323A JPH0573323A JP3233156A JP23315691A JPH0573323A JP H0573323 A JPH0573323 A JP H0573323A JP 3233156 A JP3233156 A JP 3233156A JP 23315691 A JP23315691 A JP 23315691A JP H0573323 A JPH0573323 A JP H0573323A
- Authority
- JP
- Japan
- Prior art keywords
- fuzzy
- input
- neural network
- knowledge
- knowledge acquisition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Feedback Control In General (AREA)
Abstract
(57)【要約】
【目的】例題から、人が理解しやすい形式で知識を獲得
し精錬することができるようにする。 【構成】ファジー・ニューラルネットワーク部12が、
メモリ部11に保持された入力とその正しい答とに基づ
き、学習によって、入力に含まれる属性値に対するメン
バシップ関数とファジールールに対する後件部適合度と
を生成し、生成されたメンバシップ関数とファジールー
ルに対する後件部適合度とに基づいて新しい入力に対す
る出力を決定できるようになった後、知識獲得部13
は、ファジー・ニューラルネットワーク部の出力に対す
るリンクの重みを調整し知識を分かり易くする。
し精錬することができるようにする。 【構成】ファジー・ニューラルネットワーク部12が、
メモリ部11に保持された入力とその正しい答とに基づ
き、学習によって、入力に含まれる属性値に対するメン
バシップ関数とファジールールに対する後件部適合度と
を生成し、生成されたメンバシップ関数とファジールー
ルに対する後件部適合度とに基づいて新しい入力に対す
る出力を決定できるようになった後、知識獲得部13
は、ファジー・ニューラルネットワーク部の出力に対す
るリンクの重みを調整し知識を分かり易くする。
Description
【0001】
【産業上の利用分野】本発明は、知識獲得精錬装置に関
し、特に知識を獲得及び精錬したい分野において、あら
かじめ問題と、その問題に対する正解とを用意してお
き、入力された問題に対する解答を生成して、生成され
た解答と正解とを比較しながら知識を獲得し精錬する知
識獲得精錬装置に関する。
し、特に知識を獲得及び精錬したい分野において、あら
かじめ問題と、その問題に対する正解とを用意してお
き、入力された問題に対する解答を生成して、生成され
た解答と正解とを比較しながら知識を獲得し精錬する知
識獲得精錬装置に関する。
【0002】
【従来の技術】従来、この種の知識獲得精錬装置とし
て、ニューラルネットワークを用いてファジーシステム
のメンバシップ関数を例題(ドリル)から獲得するため
に、ファジー・ニューラルネットワークを用いたものが
提案されている。ここで、メンバシップ関数とは、例え
ば“背の高さ”という属性の属性値として180センチ
をとりあげた場合、背の高さが180センチの人は背が
高いというべきか、あるいは低いというべきかを判定す
るとき、そのときの判定の基準として使用される翻訳テ
ーブルのようなものが必要になるが、この翻訳テーブル
のようなものをいう。
て、ニューラルネットワークを用いてファジーシステム
のメンバシップ関数を例題(ドリル)から獲得するため
に、ファジー・ニューラルネットワークを用いたものが
提案されている。ここで、メンバシップ関数とは、例え
ば“背の高さ”という属性の属性値として180センチ
をとりあげた場合、背の高さが180センチの人は背が
高いというべきか、あるいは低いというべきかを判定す
るとき、そのときの判定の基準として使用される翻訳テ
ーブルのようなものが必要になるが、この翻訳テーブル
のようなものをいう。
【0003】これらについては、例えば、堀川慎一,古
橋武,大熊繁,内川嘉樹,「ファジー・ニューラルネッ
トワークの構成法とその評価」,第6回ファジーシンポ
ジウム講演論文集,1990年9月,第57頁〜第62
頁(以下、引用文献1と称す)により詳しく解説されて
いる。
橋武,大熊繁,内川嘉樹,「ファジー・ニューラルネッ
トワークの構成法とその評価」,第6回ファジーシンポ
ジウム講演論文集,1990年9月,第57頁〜第62
頁(以下、引用文献1と称す)により詳しく解説されて
いる。
【0004】
【発明が解決しようとする課題】上述した従来の知識獲
得精錬装置では、ファジーシステムのメンバシップ関数
を得ることを最終の目的としているために、獲得された
知識と精錬された知識はモデルの制約のために人が理解
することはできないという欠点を有している。
得精錬装置では、ファジーシステムのメンバシップ関数
を得ることを最終の目的としているために、獲得された
知識と精錬された知識はモデルの制約のために人が理解
することはできないという欠点を有している。
【0005】本発明の目的は、例題から、人が理解しや
すい形式で知識を獲得し精錬することができる知識獲得
精錬装置を提供することにある。
すい形式で知識を獲得し精錬することができる知識獲得
精錬装置を提供することにある。
【0006】
【課題を解決するための手段】本発明の知識獲得精錬装
置は、(A)獲得及び精錬をしたい分野の入力と前記入
力に対する正しい答とを保持するメモリ部、(B)前記
メモリ部に保持された入力とその正しい答とに基づき、
学習によって、前記入力に含まれる属性値に対するメン
バシップ関数とファジールールに対する後件部適合度と
を生成し、前記生成されたメンバシップ関数とファジー
ルールに対する後件部適合度とに基づいて新しい入力に
対する出力を決定するファジー・ニューラルネットワー
ク部、を備えた知識獲得精錬装置において、(C)前記
ファジー・ニューラルネットワーク部の出力に対するリ
ンクの重みを調整し知識を分かり易くする知識獲得部、
を備えて構成されている。
置は、(A)獲得及び精錬をしたい分野の入力と前記入
力に対する正しい答とを保持するメモリ部、(B)前記
メモリ部に保持された入力とその正しい答とに基づき、
学習によって、前記入力に含まれる属性値に対するメン
バシップ関数とファジールールに対する後件部適合度と
を生成し、前記生成されたメンバシップ関数とファジー
ルールに対する後件部適合度とに基づいて新しい入力に
対する出力を決定するファジー・ニューラルネットワー
ク部、を備えた知識獲得精錬装置において、(C)前記
ファジー・ニューラルネットワーク部の出力に対するリ
ンクの重みを調整し知識を分かり易くする知識獲得部、
を備えて構成されている。
【0007】
【作用】本発明では、従来より提案されているファジー
・ニューラルネットワークを用いる。ファジー・ニュー
ラルネットワークは、階層型ニューラルネットワークと
ほぼ同じ構造であるため、例題を提示することにより行
われる学習は、例えば、ルメルハート・ディー・イー
(Rumelhart D.E.)他,パラレル・ディ
ストリビューテッド・プロセッシング(Paralle
l Distributed Processin
g),エムアイティー・プレス(MIT Pres
s),1986(以下、引用文献2と称す)に示されて
いるバックワードプロパゲーション法で行うことができ
る。それによって、ファジー・ニューラルネットワーク
のリンクの重みを調整することができ、各属性値に対す
るメンバシップ関数とルールに対する後件部適合度が得
られる。
・ニューラルネットワークを用いる。ファジー・ニュー
ラルネットワークは、階層型ニューラルネットワークと
ほぼ同じ構造であるため、例題を提示することにより行
われる学習は、例えば、ルメルハート・ディー・イー
(Rumelhart D.E.)他,パラレル・ディ
ストリビューテッド・プロセッシング(Paralle
l Distributed Processin
g),エムアイティー・プレス(MIT Pres
s),1986(以下、引用文献2と称す)に示されて
いるバックワードプロパゲーション法で行うことができ
る。それによって、ファジー・ニューラルネットワーク
のリンクの重みを調整することができ、各属性値に対す
るメンバシップ関数とルールに対する後件部適合度が得
られる。
【0008】なお、上述したルールに対する後件部適合
度とは、例えば、“背が高ければ、走るのが速い”とい
うルールがあるとすると、“背が高ければ、”の部分を
前件部というが、“走るのが速い”という部分を後件部
という。そして、この“背が高ければ、走るのが速い”
というルールがどの程度真であるかを示す度合を後件部
適合度という。
度とは、例えば、“背が高ければ、走るのが速い”とい
うルールがあるとすると、“背が高ければ、”の部分を
前件部というが、“走るのが速い”という部分を後件部
という。そして、この“背が高ければ、走るのが速い”
というルールがどの程度真であるかを示す度合を後件部
適合度という。
【0009】図2は、本発明に用いられるファジー・ニ
ューラルネットワークの構成を示す図である。
ューラルネットワークの構成を示す図である。
【0010】図2の中間層H2 には、ファジー集合の直
積集合の要素に対応する、出力に対して冗長な事象を表
現するセルがある。ここで上記のファジー集合とは、例
えば、“背が高い”または“体重が重い”等の集合をい
う。また、“背の高さ”と“体重”の二つの集合があっ
たとき、これらの集合の要素の積としては、“背が高く
体重が重い”,“背が高く体重が軽い”,“背が低く体
重が重い”及び“背が低く体重が軽い”の4通りがある
が、これらの要素の集合を直積集合という。
積集合の要素に対応する、出力に対して冗長な事象を表
現するセルがある。ここで上記のファジー集合とは、例
えば、“背が高い”または“体重が重い”等の集合をい
う。また、“背の高さ”と“体重”の二つの集合があっ
たとき、これらの集合の要素の積としては、“背が高く
体重が重い”,“背が高く体重が軽い”,“背が低く体
重が重い”及び“背が低く体重が軽い”の4通りがある
が、これらの要素の集合を直積集合という。
【0011】また、本発明の知識獲得手段は、直積集合
の要素から出力に対するリンクの重みを調整する。これ
については、例えば、梶原信樹,「ニューラルネットワ
ーク推論システム」,情報処理学会論文誌,第31巻,
第3号,1990年,第501頁〜第510頁(以下、
引用文献3と称す)により詳しく解説されている。この
知識獲得手段には、リンクの重みが非対称であるホップ
フィールド型ニューラルネットワークが用いられる。そ
して、知識獲得手段は、学習後の直積集合の要素と後件
部に対するリンクの重み(ルールの適合度)そのものを
入力とする。またその他に、新たに各ファジー集合と空
集合との和集合の直積集合に対するリンクを表現するセ
ルも合わせ加える。なお、空集合とは、要素が何もない
集合のことをいい、和集合とは、上記の例でいえば“背
の高さ”という集合と“体重”という集合の二つの集合
の和の集合をいう。
の要素から出力に対するリンクの重みを調整する。これ
については、例えば、梶原信樹,「ニューラルネットワ
ーク推論システム」,情報処理学会論文誌,第31巻,
第3号,1990年,第501頁〜第510頁(以下、
引用文献3と称す)により詳しく解説されている。この
知識獲得手段には、リンクの重みが非対称であるホップ
フィールド型ニューラルネットワークが用いられる。そ
して、知識獲得手段は、学習後の直積集合の要素と後件
部に対するリンクの重み(ルールの適合度)そのものを
入力とする。またその他に、新たに各ファジー集合と空
集合との和集合の直積集合に対するリンクを表現するセ
ルも合わせ加える。なお、空集合とは、要素が何もない
集合のことをいい、和集合とは、上記の例でいえば“背
の高さ”という集合と“体重”という集合の二つの集合
の和の集合をいう。
【0012】次に、知識獲得部のリンクの値は、各ファ
ジー集合と空集合との和集合の直積集合での半順序で決
定される。すなわち、リンクの値は、あるファジー集合
を考えるとき、それが一般的なファジー集合であれば正
とし、特殊なファジー集合であれば負とする。このよう
なリンクの重みを持つホップフィールド型ニューラルネ
ットワークを動作させることによって、獲得された知識
のうち一般的なファジー集合に対応するセルの活性度が
高くなり、特殊なファジー集合に対応するセルの活性度
が低くなる。この結果、従来、複雑に合わされていたル
ールが可能な限り一般的に表現され、項目が少なくな
り、人が理解しやすい知識を獲得し精錬することができ
る。
ジー集合と空集合との和集合の直積集合での半順序で決
定される。すなわち、リンクの値は、あるファジー集合
を考えるとき、それが一般的なファジー集合であれば正
とし、特殊なファジー集合であれば負とする。このよう
なリンクの重みを持つホップフィールド型ニューラルネ
ットワークを動作させることによって、獲得された知識
のうち一般的なファジー集合に対応するセルの活性度が
高くなり、特殊なファジー集合に対応するセルの活性度
が低くなる。この結果、従来、複雑に合わされていたル
ールが可能な限り一般的に表現され、項目が少なくな
り、人が理解しやすい知識を獲得し精錬することができ
る。
【0013】
【実施例】次に、本発明の実施例について図面を参照し
て説明する。
て説明する。
【0014】図1は、本発明の知識獲得精錬装置の一実
施例を示すブロック図である。
施例を示すブロック図である。
【0015】図1に示す本実施例の知識獲得精錬装置
は、獲得及び精錬をしたい分野の入力とその正しい答と
を保持するメモリ部11、階層型ニューラルネットワー
クをもとに表現されており、メモリ部11に保持された
入力とその正しい答とに基づき、学習によって、入力に
含まれる属性値に対するメンバシップ関数とファジール
ールに対する後件部適合度とを生成し、生成されたメン
バシップ関数とファジールールに対する後件部適合度と
に基づいて新しい入力に対する出力を決定するファジー
・ニューラルネットワーク部12、ファジー・ニューラ
ルネットワーク部の出力に対するリンクの重みを調整し
知識を分かり易くする知識獲得部13、ファジー・ニュ
ーラルネットワーク部12と知識獲得部13とを制御す
る制御部14から構成されている。
は、獲得及び精錬をしたい分野の入力とその正しい答と
を保持するメモリ部11、階層型ニューラルネットワー
クをもとに表現されており、メモリ部11に保持された
入力とその正しい答とに基づき、学習によって、入力に
含まれる属性値に対するメンバシップ関数とファジール
ールに対する後件部適合度とを生成し、生成されたメン
バシップ関数とファジールールに対する後件部適合度と
に基づいて新しい入力に対する出力を決定するファジー
・ニューラルネットワーク部12、ファジー・ニューラ
ルネットワーク部の出力に対するリンクの重みを調整し
知識を分かり易くする知識獲得部13、ファジー・ニュ
ーラルネットワーク部12と知識獲得部13とを制御す
る制御部14から構成されている。
【0016】次に、動作を説明する。
【0017】動作は、メモリ部11の内容を用いてファ
ジー・ニューラルネットワーク部12により行われる学
習フェーズと、ファジー・ニューラルネットワーク部1
2及び知識獲得部13により行われる知識獲得フェーズ
とからなっている。これらのフェーズの切り替えは制御
部14によって行われる。
ジー・ニューラルネットワーク部12により行われる学
習フェーズと、ファジー・ニューラルネットワーク部1
2及び知識獲得部13により行われる知識獲得フェーズ
とからなっている。これらのフェーズの切り替えは制御
部14によって行われる。
【0018】最初に、学習フェーズの動作について図1
及び図2を用いて説明する。
及び図2を用いて説明する。
【0019】図2は、図1のファジー・ニューラルネッ
トワーク部12の構成を示す図である。
トワーク部12の構成を示す図である。
【0020】図2では構成例として、3種類の属性値
a,b,c、すなわち属性Aの属性値a,属性Bの属性
値b及び属性Cの属性値cを入力とするファジー・ニュ
ーラルネットワークについて示している。
a,b,c、すなわち属性Aの属性値a,属性Bの属性
値b及び属性Cの属性値cを入力とするファジー・ニュ
ーラルネットワークについて示している。
【0021】入力セル21は属性Aの属性値aを入力と
するものとし、その出力は中間層H1 層のファジー集合
24とその補集合であるファジー集合25のグレードに
それぞれ対応する値である。この入力セル21の出力関
数は、引用文献1と引用文献2で使われているような、
シグモイド関数を用いる。従って、入力セル21とファ
ジー集合24のグレードy(A)は、
するものとし、その出力は中間層H1 層のファジー集合
24とその補集合であるファジー集合25のグレードに
それぞれ対応する値である。この入力セル21の出力関
数は、引用文献1と引用文献2で使われているような、
シグモイド関数を用いる。従って、入力セル21とファ
ジー集合24のグレードy(A)は、
【0022】
【0023】となる。
【0024】同様に、入力セル22は属性値bを入力す
るものとし、その出力は、中間層H1 層のファジー集合
28とその補集合であるファジー集合29のグレードに
それぞれ対応する値であり、入力セル22とファジー集
合28のグレードy(B)は、
るものとし、その出力は、中間層H1 層のファジー集合
28とその補集合であるファジー集合29のグレードに
それぞれ対応する値であり、入力セル22とファジー集
合28のグレードy(B)は、
【0025】
【0026】となる。
【0027】さらに、入力セル23は属性値cを入力す
るものとし、その出力は、中間層H1 層のファジー集合
30とその補集合であるファジー集合31のグレードに
それぞれ対応する値であり、入力セル23とファジー集
合30のグレードy(C)は、
るものとし、その出力は、中間層H1 層のファジー集合
30とその補集合であるファジー集合31のグレードに
それぞれ対応する値であり、入力セル23とファジー集
合30のグレードy(C)は、
【0028】
【0029】となる。
【0030】ここでα,θは、ファジー・ニューラルネ
ットワークのパラメータであり、ファジー・ニューラル
ネットワークではリンクの重みとして表現される。これ
らのパラメータは各属性値に対するメンバシップ関数で
ある。
ットワークのパラメータであり、ファジー・ニューラル
ネットワークではリンクの重みとして表現される。これ
らのパラメータは各属性値に対するメンバシップ関数で
ある。
【0031】また、ファジー集合25のグレードは、
“1”よりファジー集合24のグレードy(A)を減じ
た値とする。
“1”よりファジー集合24のグレードy(A)を減じ
た値とする。
【0032】また、中間層H2 は中間層H1 の直積集合
で構成される。中間層H2 のセル26はファジー集合2
4,ファジー集合28,及びファジー集合30の積に対
応するセルで、セル26の出力値は対応する中間層H1
のセル24,28,30の出力の積である。従って、中
間層H2 セル26の出力は、上記(1)〜(3)式で表
わされるy(A),y(B),y(C)の積によって与
えられる。この出力値は、前件部がファジー集合24,
ファジー集合28,及びファジー集合30の積で表わさ
れるファジールールの前件部適合度とみなすことができ
る。
で構成される。中間層H2 のセル26はファジー集合2
4,ファジー集合28,及びファジー集合30の積に対
応するセルで、セル26の出力値は対応する中間層H1
のセル24,28,30の出力の積である。従って、中
間層H2 セル26の出力は、上記(1)〜(3)式で表
わされるy(A),y(B),y(C)の積によって与
えられる。この出力値は、前件部がファジー集合24,
ファジー集合28,及びファジー集合30の積で表わさ
れるファジールールの前件部適合度とみなすことができ
る。
【0033】出力セル27の出力値は、中間層H2 の各
セルの出力にリンクの重みとの積の総和をシグモイド関
数で処理した値とする。このリンクはファジールールの
後件部適合度とみなすことができる。
セルの出力にリンクの重みとの積の総和をシグモイド関
数で処理した値とする。このリンクはファジールールの
後件部適合度とみなすことができる。
【0034】ファジー・ニューラルネットワークのリン
クの重みの更新は、引用文献2に詳細に解説されている
バックワード・プロパゲーションを用いて実行すること
ができる。
クの重みの更新は、引用文献2に詳細に解説されている
バックワード・プロパゲーションを用いて実行すること
ができる。
【0035】これは、メモリ部11に保持されている、
入力データ(問題)と、その入力データに対応する出力
(正解)との組を提示し、そのときに獲られる出力と正
解とを比較し、誤差が小さくなるようにリンクの重みを
調整する。
入力データ(問題)と、その入力データに対応する出力
(正解)との組を提示し、そのときに獲られる出力と正
解とを比較し、誤差が小さくなるようにリンクの重みを
調整する。
【0036】以上の動作によって、ファジー・ニューラ
ルネットワークの学習は終了するが、この学習によって
ファジー・ニューラルネットワーク部12は、3種類の
属性a,b,cを入力とすると、出力グレードを出力す
る機能を有するようになる。
ルネットワークの学習は終了するが、この学習によって
ファジー・ニューラルネットワーク部12は、3種類の
属性a,b,cを入力とすると、出力グレードを出力す
る機能を有するようになる。
【0037】次に、知識獲得フェーズの動作について図
1及び図3を用いて説明する。
1及び図3を用いて説明する。
【0038】図3は、図1の知識獲得部13の構成を示
す図である。
す図である。
【0039】上記の学習フェーズの動作の説明で述べた
ように、例題を提示することによる学習によって、各属
性値に対するメンバシップ関数とルールに対する後件部
適合度が得られる。学習によって、各属性値に対するメ
ンバシップ関数とルールに対する後件部適合度が得られ
た後、知識獲得フェーズでは、知識獲得部13を用いて
中間層H2 よりの出力に対するリンクの重みをより一般
化する。そして、用いられる知識獲得部13としては、
引用文献3により詳しく解説されているリンクの重みが
非対象であるホップフィールド型ニューラルネットワー
クが用いられる。
ように、例題を提示することによる学習によって、各属
性値に対するメンバシップ関数とルールに対する後件部
適合度が得られる。学習によって、各属性値に対するメ
ンバシップ関数とルールに対する後件部適合度が得られ
た後、知識獲得フェーズでは、知識獲得部13を用いて
中間層H2 よりの出力に対するリンクの重みをより一般
化する。そして、用いられる知識獲得部13としては、
引用文献3により詳しく解説されているリンクの重みが
非対象であるホップフィールド型ニューラルネットワー
クが用いられる。
【0040】まず、知識獲得部13は、学習後の直積集
合の要素と後件部に対するリンクの重み、すなわちファ
ジールールの適応度を入力とし、適応度そのものをセル
32の初期活性度とする。そして、セル32及び同様な
セル33等を含むこれらのセルの集合をG1 と表記す
る。その他に、新たに各ファジー集合と空集合との和で
ある和集合の直積集合に対するリンクを表現するセルも
合わせ加える。これらのセルの初期活性度は“0”とす
る。新たに付け加えたセルの集合をG2 と表記する。
合の要素と後件部に対するリンクの重み、すなわちファ
ジールールの適応度を入力とし、適応度そのものをセル
32の初期活性度とする。そして、セル32及び同様な
セル33等を含むこれらのセルの集合をG1 と表記す
る。その他に、新たに各ファジー集合と空集合との和で
ある和集合の直積集合に対するリンクを表現するセルも
合わせ加える。これらのセルの初期活性度は“0”とす
る。新たに付け加えたセルの集合をG2 と表記する。
【0041】次に、知識獲得部13のリンクの値は、各
ファジー集合と空集合との和である和集合の直積集合で
の半順序で決定する。すなわち、リンクの値は、あるフ
ァジー集合に対して、一般的なファジー集合に対しては
正、特殊なファジー集合に対しては負とする。また順序
づけが出来ないセル間ではリンクの重みを“0”とす
る。
ファジー集合と空集合との和である和集合の直積集合で
の半順序で決定する。すなわち、リンクの値は、あるフ
ァジー集合に対して、一般的なファジー集合に対しては
正、特殊なファジー集合に対しては負とする。また順序
づけが出来ないセル間ではリンクの重みを“0”とす
る。
【0042】図3では、ファジー集合24,ファジー集
合28,ファジー集合30の積に対応するセル32と、
ファジー集合24,ファジー集合28,ファジー集合3
1の積に対応するセル33とからファジー集合24,フ
ァジー集合28の積に対応するセル34に対しては、一
般的なファジー集合にあたるのでリンクの重みは正の値
とする。これらのリンクの逆方向のリンクは、特殊なフ
ァジー集合にあたるのでリンクの重みは負の値とする。
合28,ファジー集合30の積に対応するセル32と、
ファジー集合24,ファジー集合28,ファジー集合3
1の積に対応するセル33とからファジー集合24,フ
ァジー集合28の積に対応するセル34に対しては、一
般的なファジー集合にあたるのでリンクの重みは正の値
とする。これらのリンクの逆方向のリンクは、特殊なフ
ァジー集合にあたるのでリンクの重みは負の値とする。
【0043】このようなリンクの重みを持つホップフィ
ールド型ニューラルネットワークを動作させることによ
って、獲得された知識のうち一般的なファジー集合に対
応するセルの活性度が高くなり、特殊なファジー集合に
対応するセルの活性度が低くなる。これによって、複雑
に表現されていたルールが可能な限り一般的に表現さ
れ、その結果項目が少なくなり、人が理解しやすい知識
を獲得することができる。
ールド型ニューラルネットワークを動作させることによ
って、獲得された知識のうち一般的なファジー集合に対
応するセルの活性度が高くなり、特殊なファジー集合に
対応するセルの活性度が低くなる。これによって、複雑
に表現されていたルールが可能な限り一般的に表現さ
れ、その結果項目が少なくなり、人が理解しやすい知識
を獲得することができる。
【0044】また、図3で、ファジー集合24,ファジ
ー集合28,ファジー集合30の積に対応するセル32
と、ファジー集合24,ファジー集合28,ファジー集
合31の積に対応するセル33の初期活性度が正の値で
あるものとする。このとき、ファジー集合24,ファジ
ー集合28の積に対応するセル34に対してはリンクの
重みは正の値なので、ホップフィールド型ニューラルネ
ットワークを動作させることによって、ファジー集合2
4,ファジー集合28の積に対応するセル34の活性度
は、初期値の“0”より増加し正の値となる。また、逆
方向のリンクの重みは負の値なので、セル32とセル3
3の活性度は減少し“0”となる。
ー集合28,ファジー集合30の積に対応するセル32
と、ファジー集合24,ファジー集合28,ファジー集
合31の積に対応するセル33の初期活性度が正の値で
あるものとする。このとき、ファジー集合24,ファジ
ー集合28の積に対応するセル34に対してはリンクの
重みは正の値なので、ホップフィールド型ニューラルネ
ットワークを動作させることによって、ファジー集合2
4,ファジー集合28の積に対応するセル34の活性度
は、初期値の“0”より増加し正の値となる。また、逆
方向のリンクの重みは負の値なので、セル32とセル3
3の活性度は減少し“0”となる。
【0045】その結果、セル32とセル33のファジー
ルールが一般化され、セル34のファジールールとな
る。その結果項目が少なくなり、人が理解しやすい知識
を獲得することができる。
ルールが一般化され、セル34のファジールールとな
る。その結果項目が少なくなり、人が理解しやすい知識
を獲得することができる。
【0046】このように、知識獲得部を設けることによ
り、例題から、人が理解しやすい形式で知識を獲得し精
錬することができる。
り、例題から、人が理解しやすい形式で知識を獲得し精
錬することができる。
【0047】
【発明の効果】以上説明したように、本発明の知識獲得
精錬装置は、知識獲得部を設けることにより、例題か
ら、人が理解しやすい形式で知識を獲得し精錬すること
ができるという効果を有している。
精錬装置は、知識獲得部を設けることにより、例題か
ら、人が理解しやすい形式で知識を獲得し精錬すること
ができるという効果を有している。
【図1】本発明の知識獲得精錬装置の一実施例を示すブ
ロック図である。
ロック図である。
【図2】図1のファジー・ニューラルネットワーク部1
2の構成を示す図である。
2の構成を示す図である。
【図3】図1の知識獲得部13の構成を示す図である。
11 メモリ部 12 ファジー・ニューラルネットワーク部 13 知識獲得部 14 制御部
Claims (1)
- 【請求項1】(A)獲得及び精錬をしたい分野の入力と
前記入力に対する正しい答とを保持するメモリ部、 (B)前記メモリ部に保持された入力とその正しい答と
に基づき、学習によって、前記入力に含まれる属性値に
対するメンバシップ関数とファジールールに対する後件
部適合度とを生成し、前記生成されたメンバシップ関数
とファジールールに対する後件部適合度とに基づいて新
しい入力に対する出力を決定するファジー・ニューラル
ネットワーク部、 を備えた知識獲得精錬装置において、 (C)前記ファジー・ニューラルネットワーク部の出力
に対するリンクの重みを調整し知識を分かり易くする知
識獲得部、を有することを特徴とする知識獲得精錬装
置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23315691A JP3327935B2 (ja) | 1991-09-12 | 1991-09-12 | 知識獲得精錬装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23315691A JP3327935B2 (ja) | 1991-09-12 | 1991-09-12 | 知識獲得精錬装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0573323A true JPH0573323A (ja) | 1993-03-26 |
JP3327935B2 JP3327935B2 (ja) | 2002-09-24 |
Family
ID=16950600
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP23315691A Expired - Fee Related JP3327935B2 (ja) | 1991-09-12 | 1991-09-12 | 知識獲得精錬装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3327935B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5740322A (en) * | 1995-04-12 | 1998-04-14 | Sharp Kabushiki Kaisha | Fuzzy-neural network system |
CN110601573A (zh) * | 2019-10-10 | 2019-12-20 | 东北大学 | 一种基于改进型自适应模糊神经网络的三相整流控制方法 |
-
1991
- 1991-09-12 JP JP23315691A patent/JP3327935B2/ja not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5740322A (en) * | 1995-04-12 | 1998-04-14 | Sharp Kabushiki Kaisha | Fuzzy-neural network system |
CN110601573A (zh) * | 2019-10-10 | 2019-12-20 | 东北大学 | 一种基于改进型自适应模糊神经网络的三相整流控制方法 |
Also Published As
Publication number | Publication date |
---|---|
JP3327935B2 (ja) | 2002-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Janson et al. | Training product unit neural networks with genetic algorithms | |
US5594835A (en) | Neural-fuzzy logic control system with adjustable fuzzy logic membership functions | |
Marín-Blázquez et al. | From approximative to descriptive fuzzy classifiers | |
Sin et al. | Fuzzy system design through fuzzy clustering and optimal predefuzzification | |
Khan et al. | Neufuz: Neural network based fuzzy logic design algorithms | |
JPH056355A (ja) | ニユーラルネツトワーク学習方法及び装置 | |
JP3327935B2 (ja) | 知識獲得精錬装置 | |
US5347615A (en) | Rule generating and verifying apparatus for fuzzy control using temporary exclusion of a selected rule | |
Leng et al. | A hybrid learning algorithm with a similarity-based pruning strategy for self-adaptive neuro-fuzzy systems | |
Zhou et al. | NOVEL APPROACH TO IMAGE RESTORATION BASED ON A NEURAL NETWORK. | |
Looney | Neural networks as expert systems | |
Gaglio et al. | Multiperson decision aspects in the construction of expert systems | |
Martens et al. | An initial comparison of a fuzzy neural classifier and a decision tree based classifier | |
Gupta et al. | Cognitive and fuzzy logic controllers: A retrospective and perspective | |
JP3292495B2 (ja) | ニューロ・ファジィ融合システム | |
Magdalena | Adapting gain and sensibility of FLCs with genetic algorithms | |
JPH04186402A (ja) | フアジイ推論における学習方式 | |
JPS63193202A (ja) | あいまい推論制御方式 | |
JP3172163B2 (ja) | ニューラルネットワークにおける結合のグループ単位学習調整方式 | |
JP3211240B2 (ja) | 近似推論装置 | |
JPH0991264A (ja) | ニューラルネットワーク構造最適化装置ならびに方法 | |
JPH05257695A (ja) | ルール自動生成方式 | |
Marumo et al. | Modelling plant control strategies and their applications into a knowledge-based system | |
Eydgahi et al. | A Fuzzy Knowledge Based Controller To Tune Pid Parameters | |
GB2615746A (en) | A computer system for processing a rule-based expert system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20001114 |
|
LAPS | Cancellation because of no payment of annual fees |