JPH02189635A - ファジィ推論装置 - Google Patents

ファジィ推論装置

Info

Publication number
JPH02189635A
JPH02189635A JP1009114A JP911489A JPH02189635A JP H02189635 A JPH02189635 A JP H02189635A JP 1009114 A JP1009114 A JP 1009114A JP 911489 A JP911489 A JP 911489A JP H02189635 A JPH02189635 A JP H02189635A
Authority
JP
Japan
Prior art keywords
input
neural network
variables
output
rules
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1009114A
Other languages
English (en)
Inventor
Hitoshi Koseki
古関 斉
Takeshi Kikuchi
健 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP1009114A priority Critical patent/JPH02189635A/ja
Publication of JPH02189635A publication Critical patent/JPH02189635A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、ファジィ推論を実行するためのファジィ推
論装置に関し、ファジィ推論にニューラルネットワーク
を利用したものである。
〔従来の技術〕
ファジィ理論は輪郭のあいまいな言葉をそのまま取り扱
ってファジィ推論を用いて情報処理を行なうものである
。ファジィ推論では、まず、第2図(A)に示すように
、ルール1〜Nの前件部A 〜ANと事実A′とが合致
する度合α1〜α、を求める。次に、同図(B)に示す
ように、この求められた値α 〜αNに応じて各ルール
の後件部B 〜BNを採用して、各ルールについての推
論結果B ′〜B ′を得る。そして、最後N に、同図(C)に示すように、各ルールの推論結果B 
′〜B ′を重ね合わせることにより、最N 終曲な推論結果B′を得る。
従来のファジィ推論装置は、ルールごとに前件部および
後件部のメンバシップ関数をルール・チップに記憶し、
事実データ入力に応じてこれら記憶されたメンバーシッ
プ関数に基づいて前記推論演算を行なうように構成され
ていた。ところが、このような構成ではルール数に応じ
てルール・チップが必要ななめ、ルール数が多い場合に
はチップ数が膨大になる欠点があった。また、事実デー
タが入力されるごとに旧N−MAX演算を行なうので、
演算速度が遅い欠点があった。
そこで、このような欠点を解決するものとして、市販の
メモリをファジィ・チップに仕立てて、メモリアクセス
のみで推論結果が得られるようにしたものが提案されて
いる。これは、あらかじめ別のコンピュータですべての
入力値の組合せをファジィ推論し、推論結果だけをメモ
リに書込むようにしたものである。第3図はこのメモリ
によるファジィ推論装置の構成例を示したものである。
EPROMl0には別のコンピュータで入力変数A−D
のすべての組合せをファジィ推論した結果〈出力変数x
、y)がテーブルとして書込まれている。推論実行時に
は、入力値A〜DはA−D変換器11〜14でそれぞれ
4ビツトのディジタルデータに変換され、これがアドレ
スデータとしてEPROMl0に入力される。これによ
り、EPROMl0からは入力値A〜Dの組合せに応じ
て推論結果X、Yffi読み出され、D−A変換器15
゜16でアナログデータに変換されて出力される。
〔発明が解決しようとする課題〕
前記第3図のメモリによるファジィ推論装置によれば、
ファジィ推論結果だけを記憶しておけばよく、ルール自
体は記憶する必要がないので、ルール数に制限がなく、
ルール数が多い場合にも装置を小型化できる。また、ル
ールメンバーシップ関数の形状や推論方式を自由に設定
できる。また、メモリアクセス(テーブル参照)のみに
より推論結果が得られるので、ファジィ演算は不要であ
り、推論を高速で行なうことができる。
しかしながら、このメモリによるファジィ推論装置では
、入出力変数の数がメモリ・チップのピン数で制限され
、小規模用途にしか使えない欠点があった。しかも、た
とえメモリの集積度が上がったとしても、入力のアドレ
ス線はあまり増えず(1Mビットが16Mビットになっ
たとしても、入力アドレス線は17本から21本になる
だけで、4本しか増えない)、大幅な入出力変数の増加
は期待できない、まして、ピン数を増やすなめに集積度
の高いメモリを使うのでは、メモリの無駄使いになるだ
けである。
また、推論結果に不具合が生じてきた場合はルールを変
更の大小にかかわらず全ての推論をやり直し、テーブル
を書き換えねばならなかった。
この発明は、従来の技術における上述の点に鑑みてなさ
れたもので、前記メモリによるファジィ推論装置の利点
を生かしつつ、その欠点を改善したファジィ推論装置を
提供しようとするものである。
〔課題を解決するための手段〕
この発明は、ニューラルネットワークの入力部ニューロ
ンに全ルールの入力変数を割り当てると共に、ニューラ
ルネットワークの出力部ニューロンから出力変数を得る
ようにしてなるものである。
〔作 用〕
この発明によれば、予め入力変数の各組合せを別のコン
ピュータ等でファジィ推論して、入力変数と出力変数の
組合せを求め、入力変数をニューラルネットワークの入
力部ニューロンに割り当てた場合に出力部ニューロンか
ら対応する出力変数が得られるようにニューラルネット
ワークを構築することにより、ファジィ推論装置が構成
される。
これによれば、メモリによるファジィ推論装置と同様に
ルール自体を記憶する必要がないので、ルール数に制限
がなく、ルール数が多い場合にも装置を小型化できる。
また、ルールメンバーシップ関数の形状や推論方式を自
由に設定できる。また、ファジィ演算を行なわないので
、推論を高速で行なうことができる。しかも、メモリに
よるファジィ推論装置のように入出力ピン数による制限
がなく、自由にニューラルネットワークの入出力部のニ
ューロン数を定めることにより、入出力変数の数を自由
に設定でき、大規模用途にも適用することができる。ま
た、ニューラルネットワークはテーブルの構成において
テーブルの圧縮機能を有しているなめ、メモリを用いた
手法のように入出力変数の数が増すほどテーブルの容1
が爆発的に増加するようなことが抑えられ、効率的なテ
ーブル構成が実現できる。
また、ニューラルネットワークに学習機能を持たせれば
、推論結果に不具合が生じてきた場合にも、新たに求め
た教師信号を与えることにより学習を追加して手直しす
ることが充分可能であり、メモリによる手法のようにル
ールを修正して全ての推論実行をやり直してテーブルを
いちいち書換える手間は不要になる。また、この学習機
能をパックプロパゲーション形ニューラルネットワーク
で構成すれば、効果的である。
〔実施例〕
この発明の一実施例を第1図に示す。ここでは、前件部
入力変数をA〜N、後件部出力変数をX〜Zとして、 I F  A and  B and  ・=−and
 NTHEN   Do  X、DOY、Do  Zの
推論を実行する場合について示している。また、ニュー
ラルネットワークを3層バックプロパゲーション形で構
成している。
入力変数A−Nは、例えばそれぞれ4ビツトのパラレル
ディジタルデータで構成され、ニューラルネットワーク
回路20に入力される。ニューラルネットワーク回路2
0は例えば3層バックプロパゲーション形で構成されて
いる。入力層22には、全入力ビットに対応したニュー
ロン22A122A 、・・・・・・、22N4が設け
られており、入力A〜Nの各ビット信号がそれぞれ入力
される。
中間層24には4個のニューロン24−1乃至24−4
が設けられており、各々が入力層22ノ全ニユーロン2
2A  、22A2.  ・・・ ・・・ 。
22N4と相互にシナゲス結合されている。出力層26
には出力x、y、zの各ビットに対応したニューロン2
6X1,26X2.・・・・・・、26Z4が設けられ
ており、各々が中間層22の全ニューロン4−1乃至2
4−4に相互にシナプス結合されている。出力層26か
らは出力変数X、Y、Zが得られる。
第1図の装置をファジィ推論装置として動作させるため
には、まずニューラルネットワーク回路20に学習を行
なわせる必要がある。すなわち、はじめに前記メモリに
より手法と同様に、予め入力変数A〜Dの各組合せを別
のコンピュータ等でファジィ推論して、入力変数と出力
変数の組合せのテーブルを作成する。メモリによる手法
ではこのテーブルをそのままROMに書き込んだが、こ
こではニューラルネットワーク回路20に学習させる。
すなわち、作成されたテーブルに基づき入力層22に入
力変数A〜Dを与え、出力層24にこれに対応する1組
の出力変数X−Zを教師信号として与える。
入力層22と中間層24の各シナプス結合および中間層
24と出力層26の各シナプス結合には予め適当なシブ
ナス荷重がそれぞれ与えられており、入力層22に与え
られた入力変数A−Dはこのシブナス荷重に従って、中
間層24から出力層26へと順次送られて演算が行なわ
れる。出力層26はその演算結果と教師信号として与え
られている出力変数X〜Zとを比較して、その誤差が小
さくなるようにバックグロパゲーションによりシナプス
荷重を変化させる。そして、このような学習を、テーブ
ルの各組合せについて行なっていくことにより、シナプ
ス荷重はしだいに収束していく。
以上の学習を終了すれば、ファジィ推論装置ができ上る
。すなわち、入力変数A〜Dとして適当な組合せを入力
すると、前記テーブルどおりのまたはこれに近い出力変
数X〜2の組合せがファジィ演算なしに得られる。
その後、推論結果に不具合が生じてきた場合には、別の
コンピュータ等でファジィ推論して、新たに教師信号を
得て、これに基づき学習を追加してシナプス荷重を変更
すればよい、新たな教師信号はファジィ推論実行のやり
直しによらずとも、外界変化等により与えられる。
〔変更例〕
前記実施例では、ニューラルネットワークに学習機能を
持たせたが、ルールを変更する必要がない場合は予めモ
デルによる実験によりシナプス荷重を収束させて、この
値を固定的に用いてニューラルネットワークを構成すれ
ば、個々の推論装置自体に学習機能を持たせる必要はな
い。
また、ニューラルネットワークに学習機能を持たせる場
合にも、前記実施例で示したパックプロパゲーション形
以外にも各種形式を用いることができる。
まな、この発明で用いられるニューラルネットワークは
、ハードウェアのほかソフトウェアでも実現することが
できる。
〔発明の効果〕
以上説明したように、この発明によれば、メモリによる
ファジィ推論装置と同様にルール自体を記憶する必要が
なくなり、ルール数に制限がなく、ルール数が多い場合
にも装置を小型化できる。また、ルールメンバーシップ
関数の形状や推論方式を自由に設定できる。また、ファ
ジィ演算を行なわないので、推論を高速で行なうことが
できる。
しかも、メモリによるファジィ推論装置のように入出力
ピン数による制限がなく、自由にニューラルネットワー
クの入出力部のニューロン数を定めることにより、入出
力変数の数を自由に設定でき、大規模用途にも適用する
ことができる。また、ニューラルネットワークはテーブ
ルの構成においてテーブルの圧縮機能を有しているため
、メモリを用いた手法のように入出力変数の数が増すほ
どテーブルの容量が爆発的に増加するようなことが抑え
られ、効率的なテーブル構成が実現できる。
また、ニューラルネットワークに学習機能を持たせれば
、推論結果に不具合が生じてきた場合にも、新たに求め
た教師信号を与えることにより学習を追加して手直しす
ることができ、メモリによる手法のようにルールを修正
して全ての推論実行をやり直してテーブルをいちいち書
換える手間は不要になる。また、この学習機能をパック
プロパゲーション形ニューラルネットワークで構成すれ
ば、効果的である。
【図面の簡単な説明】
第1図は、この発明の一実施例を示すブロック図である
。 第2図は、ファジィ推論過程を説明する図である。 第3図は、従来のメモリには手法を示すブロック図であ
る。 20・・・ニューラルネットワーク回路、22・・・入
力層、24・・・中間層、26・・・出力層。

Claims (1)

    【特許請求の範囲】
  1.  ニューラルネットワークの入力部ニューロンに全ルー
    ルの入力変数を割り当てると共に、ニューラルネットワ
    ークの出力部ニューロンから出力変数を得るようにして
    なるファジィ推論装置。
JP1009114A 1989-01-18 1989-01-18 ファジィ推論装置 Pending JPH02189635A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1009114A JPH02189635A (ja) 1989-01-18 1989-01-18 ファジィ推論装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1009114A JPH02189635A (ja) 1989-01-18 1989-01-18 ファジィ推論装置

Publications (1)

Publication Number Publication Date
JPH02189635A true JPH02189635A (ja) 1990-07-25

Family

ID=11711607

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1009114A Pending JPH02189635A (ja) 1989-01-18 1989-01-18 ファジィ推論装置

Country Status (1)

Country Link
JP (1) JPH02189635A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03260802A (ja) * 1990-03-12 1991-11-20 Fujitsu Ltd 階層ネットワーク構成データ処理装置及びデータ処理システム
JPH0492901A (ja) * 1990-08-06 1992-03-25 Univ Nagoya ニューラルネットワークによるファジイ制御器
JPH04199302A (ja) * 1990-11-29 1992-07-20 Ube Ind Ltd ファジィ制御における神経回路網の学習方式
US5875284A (en) * 1990-03-12 1999-02-23 Fujitsu Limited Neuro-fuzzy-integrated data processing system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03260802A (ja) * 1990-03-12 1991-11-20 Fujitsu Ltd 階層ネットワーク構成データ処理装置及びデータ処理システム
US5875284A (en) * 1990-03-12 1999-02-23 Fujitsu Limited Neuro-fuzzy-integrated data processing system
US6456989B1 (en) 1990-03-12 2002-09-24 Fujitsu Limited Neuro-fuzzy-integrated data processing system
JPH0492901A (ja) * 1990-08-06 1992-03-25 Univ Nagoya ニューラルネットワークによるファジイ制御器
JPH04199302A (ja) * 1990-11-29 1992-07-20 Ube Ind Ltd ファジィ制御における神経回路網の学習方式

Similar Documents

Publication Publication Date Title
Baturone et al. Microelectronic design of fuzzy logic-based systems
Dogaru et al. Universal CNN cells
Irwin et al. Neural network applications in control
Tsoi et al. Discrete time recurrent neural network architectures: A unifying review
KR100243353B1 (ko) 뉴럴 네트워크 시스템
Giles et al. Constructive learning of recurrent neural networks: limitations of recurrent cascade correlation and a simple solution
Tsai et al. A study for second-order modeling of fuzzy time series
JPH02189635A (ja) ファジィ推論装置
Li et al. A new approach to rule learning based on fusion of fuzzy logic and neural networks
CN112784972A (zh) 一种面向片上神经网络的突触实现架构
JPH06111038A (ja) ニューラル・ネットワーク及びその操作方法
Li Neural networks for construction cost estimation: On the positive side neural networks demonstrate many features that are coherent with the nature of cost estimation. Major strengths include their ability to self‐organize knowledge from training data, their ability to generate results from incomplete information and their ability to cope with complex relations. These largely resemble the way human estimators develop expertize through experience
Coyne Modelling the emergence of design descriptions across schemata
JP3354593B2 (ja) ネットワーク型情報処理装置の学習システム
JPH04237388A (ja) ニューロプロセッサ
JPH08286922A (ja) ファジィ・ニューラルネットワーク装置
JPH0883261A (ja) ニューロ演算装置
Mandziuk et al. A neural network performing boolean logic operations
JPH0652139A (ja) ニューラルネットワークのデータ構造
US6671678B1 (en) Multi-functional arithmetic apparatus with multi value states
JPH0683796A (ja) 信号処理装置
JP3343626B2 (ja) ファジィ推論のためのニューラルネットワーク
JP3296609B2 (ja) メンバーシップ関数を出力するニューラルネットワーク
Tsai A theoretical study and forecasts of fuzzy time series
Tzouvaras et al. Knowledge refinement using fuzzy compositional neural networks