JP3343626B2 - ファジィ推論のためのニューラルネットワーク - Google Patents
ファジィ推論のためのニューラルネットワークInfo
- Publication number
- JP3343626B2 JP3343626B2 JP35685992A JP35685992A JP3343626B2 JP 3343626 B2 JP3343626 B2 JP 3343626B2 JP 35685992 A JP35685992 A JP 35685992A JP 35685992 A JP35685992 A JP 35685992A JP 3343626 B2 JP3343626 B2 JP 3343626B2
- Authority
- JP
- Japan
- Prior art keywords
- cell
- layer
- cells
- input
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Feedback Control In General (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
【0001】
【産業上の利用分野】本発明は、所定演算結果を出力す
るセルを有するファジィ推論のためのニューラルネット
ワーク(以下NNと称す)に関する。
るセルを有するファジィ推論のためのニューラルネット
ワーク(以下NNと称す)に関する。
【0002】
【従来の技術】ニューロコンピュータは、脳の基本素子
であるニューロン(神経細胞)に着目したものであり、
これらが結合した結果できるNNをヒントとして、脳と
同じような機能を達成しようとするものである。これら
NNの特徴は各ニューロン間の並列情報処理にあり、か
つ学習能力のある点である。そしてNN中はいくつかの
層からなる階層構成を有し、各層は適当な数のセルから
なり、同一層内の結合はなく、各層間の結合は入力層
(第1層)から出力層(最終層)へ向けて一方向の結合
としている。入力層を除く各層のセルは、前の層のセル
からの重み付き入力を受けて、その総和を計算し、それ
に適当な関数fをかけたものを出力としている。NNで
用いるセルの入出力関数としては、しきい関数,区分線
形関数,ロジスティック関数及び恒等関数等がある(参
考文献,産業図書発行,麻生英樹著「ニューラルネット
ワーク情報処理」P.13)。
であるニューロン(神経細胞)に着目したものであり、
これらが結合した結果できるNNをヒントとして、脳と
同じような機能を達成しようとするものである。これら
NNの特徴は各ニューロン間の並列情報処理にあり、か
つ学習能力のある点である。そしてNN中はいくつかの
層からなる階層構成を有し、各層は適当な数のセルから
なり、同一層内の結合はなく、各層間の結合は入力層
(第1層)から出力層(最終層)へ向けて一方向の結合
としている。入力層を除く各層のセルは、前の層のセル
からの重み付き入力を受けて、その総和を計算し、それ
に適当な関数fをかけたものを出力としている。NNで
用いるセルの入出力関数としては、しきい関数,区分線
形関数,ロジスティック関数及び恒等関数等がある(参
考文献,産業図書発行,麻生英樹著「ニューラルネット
ワーク情報処理」P.13)。
【0003】
【発明が解決しようとする課題】ファジィ推論で多入力
の場合、これらをNNで実現しようとすると各入力に対
する適合度の積をそのルールの適合度とする方法にあっ
ては積を出力するセルが必要であり、又、非ファジィ化
処理に重心計算を用いる場合、割算を出力するセルが必
要となる。しかし、上記した入出力関数を用いて、これ
を従来のNNで実現することはできない。この理由は掛
算及び割算を出力するセルがないためである。本発明は
上記事情に鑑みてなされたものであり、乗除算結果を出
力するセルを有するファジィ推論のためのNNを提供す
ることを目的としている。
の場合、これらをNNで実現しようとすると各入力に対
する適合度の積をそのルールの適合度とする方法にあっ
ては積を出力するセルが必要であり、又、非ファジィ化
処理に重心計算を用いる場合、割算を出力するセルが必
要となる。しかし、上記した入出力関数を用いて、これ
を従来のNNで実現することはできない。この理由は掛
算及び割算を出力するセルがないためである。本発明は
上記事情に鑑みてなされたものであり、乗除算結果を出
力するセルを有するファジィ推論のためのNNを提供す
ることを目的としている。
【0004】
【課題を解決するための手段】上記目的を達成するた
め、本発明は入力信号を出力する複数のセルと、前記入
力信号を出力する複数のセルの信号を所定の結合係数を
介して接続された複数の中間セルと、これら中間セルが
階層構成を有して複数の最終出力セルに接続されたニュ
ーラルネットワークにおいて、前記中間セルは入力端に
結合される複数の入力信号をもとにした乗除算結果を出
力する手段を具備するようにした。
め、本発明は入力信号を出力する複数のセルと、前記入
力信号を出力する複数のセルの信号を所定の結合係数を
介して接続された複数の中間セルと、これら中間セルが
階層構成を有して複数の最終出力セルに接続されたニュ
ーラルネットワークにおいて、前記中間セルは入力端に
結合される複数の入力信号をもとにした乗除算結果を出
力する手段を具備するようにした。
【0005】
【実施例】以下図面を参照して実施例を説明する。図1
は本発明によるNNの一実施例の構成図である。図1に
おいて、aは乗除算結果を出力するセル、O1 〜Ojmx
はセルaの入力端に結合するセルbj (j=1 〜jmx )の
出力、W1 〜Wjmx は結合係数である。以下、Wj とO
j の積、Wj ・Oj をj番目の結合からセルaへの入力
と呼ぶ。この時、本発明によるセルaは1番目からjmx
番目までの結合からの入力の積を出力する。
は本発明によるNNの一実施例の構成図である。図1に
おいて、aは乗除算結果を出力するセル、O1 〜Ojmx
はセルaの入力端に結合するセルbj (j=1 〜jmx )の
出力、W1 〜Wjmx は結合係数である。以下、Wj とO
j の積、Wj ・Oj をj番目の結合からセルaへの入力
と呼ぶ。この時、本発明によるセルaは1番目からjmx
番目までの結合からの入力の積を出力する。
【数1】 次に、図2を用いてこのセルを用いた場合の学習方法を
説明する。ここで、Wi(k-1),j(k) はk−1層i番目の
セルとk層j番目のセルとの結合係数を示し、Ij(k)は
k層j番目のセルへの入力の総和を示し、Oj(k)はk層
j番目のセルの出力を示す。結合係数Wijの更新には次
式を用いる。
説明する。ここで、Wi(k-1),j(k) はk−1層i番目の
セルとk層j番目のセルとの結合係数を示し、Ij(k)は
k層j番目のセルへの入力の総和を示し、Oj(k)はk層
j番目のセルの出力を示す。結合係数Wijの更新には次
式を用いる。
【数2】
【0006】(1)通常のセル(セルへの入力の総和x
とセルの出力yが、微分可能な入出力関数y=f(x) の
関係にあるセルを通常のセルと呼ぶことにする。具体的
には参考文献(1) のロジスティック関数や恒等関数があ
る)の誤差逆伝播では上式を以下のように展開する。
とセルの出力yが、微分可能な入出力関数y=f(x) の
関係にあるセルを通常のセルと呼ぶことにする。具体的
には参考文献(1) のロジスティック関数や恒等関数があ
る)の誤差逆伝播では上式を以下のように展開する。
【数3】 dj(k)は以下の場合で分かれる。 (i) k層が出力層の場合
【数4】 (ii) k層が中間層の場合
【数5】 なお、上式のdm(k+1)は、出力側から順にdj(k)と同様
にして求められる。
にして求められる。
【0007】(2)本発明のセルを用いた場合の学習則
を次に示す。 (i) k層が出力層の場合
を次に示す。 (i) k層が出力層の場合
【数6】 (ii) k層が中間層の場合
【数7】 図3でk+1層のm番目のセルが本発明のセルの場
合。
合。
【数8】 図3でk+1層のm番目のセルが本発明のセルでな
い場合。
い場合。
【数9】 よって、本発明のセルを含むNNにおいても学習が可能
である。
である。
【0008】図4に他の実施例を示す。セルaが本発明
による除算結果を出力するセルである。O1 〜Ojmx は
セルaの入力端に結合するセルbj (j=1 〜jmx )の出
力である。W1 〜Wjmx はその結合係数である。以下、
Wj とOj の積、Wj ・Ojをj番目の結合からセルa
への入力と呼ぶ。この時、本発明によるセルaはp番目
とq番目の結合からの入力の除算結果を出力する。な
お、p,qは任意に定めた1〜jmx の間の数値である。
による除算結果を出力するセルである。O1 〜Ojmx は
セルaの入力端に結合するセルbj (j=1 〜jmx )の出
力である。W1 〜Wjmx はその結合係数である。以下、
Wj とOj の積、Wj ・Ojをj番目の結合からセルa
への入力と呼ぶ。この時、本発明によるセルaはp番目
とq番目の結合からの入力の除算結果を出力する。な
お、p,qは任意に定めた1〜jmx の間の数値である。
【数10】 次に、図2を用いてこのセルを用いた場合の学習方法を
説明する。ここで、Wi(k-1),j(k) はk−1層i番目の
セルとj番目のセルとの結合係数を示し、Ij(k)はk層
j番目のセルへの入力の総和を示し、Oj(k)はk層j番
目のセルの出力を示す。結合係数Wijの更新は既に説明
した式を用いるため、詳細説明は省略する。
説明する。ここで、Wi(k-1),j(k) はk−1層i番目の
セルとj番目のセルとの結合係数を示し、Ij(k)はk層
j番目のセルへの入力の総和を示し、Oj(k)はk層j番
目のセルの出力を示す。結合係数Wijの更新は既に説明
した式を用いるため、詳細説明は省略する。
【0009】
【発明の効果】以上説明したように、本発明によればN
Nを構成するセルに対して入力端に結合される複数個の
入力信号から乗算除算を出力する機能を付加したので、
NNによりファジィ演算することが容易となった。
Nを構成するセルに対して入力端に結合される複数個の
入力信号から乗算除算を出力する機能を付加したので、
NNによりファジィ演算することが容易となった。
【図1】本発明によるNNの一実施例の構成図。
【図2】k層が出力の層の場合の学習方法を説明する
図。
図。
【図3】k層が中間層の場合の学習方法を説明する図。
【図4】NNの他の実施例の構成図。
a,b1 〜bjmx セル O1 〜Ojmx セルbj の出力 W1 〜Wjmx 結合係数
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06G 7/12 G06F 9/44 554 G06N 1/00
Claims (1)
- 【請求項1】 入力信号を出力する複数のセルと、前記
入力信号を出力する複数のセルの信号を所定の結合係数
を介して接続された複数の中間セルと、これら中間セル
が階層構成を有して複数の最終出力セルに接続されたニ
ューラルネットワークにおいて、前記中間セルは入力端
に結合される複数の入力信号をもとにした乗除算結果を
出力する手段を具備することを特徴とするファジィ推論
のためのニューラルネットワーク。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP35685992A JP3343626B2 (ja) | 1992-12-22 | 1992-12-22 | ファジィ推論のためのニューラルネットワーク |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP35685992A JP3343626B2 (ja) | 1992-12-22 | 1992-12-22 | ファジィ推論のためのニューラルネットワーク |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH06195487A JPH06195487A (ja) | 1994-07-15 |
JP3343626B2 true JP3343626B2 (ja) | 2002-11-11 |
Family
ID=18451124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP35685992A Expired - Fee Related JP3343626B2 (ja) | 1992-12-22 | 1992-12-22 | ファジィ推論のためのニューラルネットワーク |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3343626B2 (ja) |
-
1992
- 1992-12-22 JP JP35685992A patent/JP3343626B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH06195487A (ja) | 1994-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sakar et al. | Growing and pruning neural tree networks | |
US6009418A (en) | Method and apparatus for neural networking using semantic attractor architecture | |
US4979126A (en) | Neural network with non-linear transformations | |
JP2747104B2 (ja) | ニューラルネットワーク | |
US5274744A (en) | Neural network for performing a relaxation process | |
JPH07282168A (ja) | カオスリカレント神経回路網とその学習方法 | |
JP3343626B2 (ja) | ファジィ推論のためのニューラルネットワーク | |
Pados et al. | New nonleast-squares neural network learning algorithms for hypothesis testing | |
JP2907486B2 (ja) | ニューラルネットワーク装置 | |
JP3343625B2 (ja) | ファジィ推論のためのニューラルネットワーク | |
JP3359074B2 (ja) | ニューラルネットワークの学習方法 | |
US6490571B1 (en) | Method and apparatus for neural networking using semantic attractor architecture | |
Sun et al. | Application of neural network model combining information entropy and ant colony clustering theory for short-term load forecasting | |
Atanassov et al. | Generalized nets as tools for modelling of the neural networks | |
Schaefer et al. | The Recurrent Control Neural Network. | |
JPH09138786A (ja) | ニューラルネットワークの学習装置 | |
Maren | Hybrid and complex networks | |
Dagli et al. | Basic artificial neural network architectures | |
Tang et al. | A model of neurons with unidirectional linear response | |
McGregor | Neural network processing for multiset data | |
Touzet et al. | Application of connectionist models to fuzzy inference systems | |
Galushkin et al. | Neural network expert system | |
Teodorescu et al. | Neuro-fuzzy systems: hybrid configurations | |
JPH0744195A (ja) | 音声認識用リカレントニューラルネットワーク | |
JP3296609B2 (ja) | メンバーシップ関数を出力するニューラルネットワーク |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |