JP3343626B2 - ファジィ推論のためのニューラルネットワーク - Google Patents

ファジィ推論のためのニューラルネットワーク

Info

Publication number
JP3343626B2
JP3343626B2 JP35685992A JP35685992A JP3343626B2 JP 3343626 B2 JP3343626 B2 JP 3343626B2 JP 35685992 A JP35685992 A JP 35685992A JP 35685992 A JP35685992 A JP 35685992A JP 3343626 B2 JP3343626 B2 JP 3343626B2
Authority
JP
Japan
Prior art keywords
cell
layer
cells
input
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP35685992A
Other languages
English (en)
Other versions
JPH06195487A (ja
Inventor
哲朗 連
ちなみ 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mikuni Corp
Original Assignee
Mikuni Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mikuni Corp filed Critical Mikuni Corp
Priority to JP35685992A priority Critical patent/JP3343626B2/ja
Publication of JPH06195487A publication Critical patent/JPH06195487A/ja
Application granted granted Critical
Publication of JP3343626B2 publication Critical patent/JP3343626B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、所定演算結果を出力す
るセルを有するファジィ推論のためのニューラルネット
ワーク(以下NNと称す)に関する。
【0002】
【従来の技術】ニューロコンピュータは、脳の基本素子
であるニューロン(神経細胞)に着目したものであり、
これらが結合した結果できるNNをヒントとして、脳と
同じような機能を達成しようとするものである。これら
NNの特徴は各ニューロン間の並列情報処理にあり、か
つ学習能力のある点である。そしてNN中はいくつかの
層からなる階層構成を有し、各層は適当な数のセルから
なり、同一層内の結合はなく、各層間の結合は入力層
(第1層)から出力層(最終層)へ向けて一方向の結合
としている。入力層を除く各層のセルは、前の層のセル
からの重み付き入力を受けて、その総和を計算し、それ
に適当な関数fをかけたものを出力としている。NNで
用いるセルの入出力関数としては、しきい関数,区分線
形関数,ロジスティック関数及び恒等関数等がある(参
考文献,産業図書発行,麻生英樹著「ニューラルネット
ワーク情報処理」P.13)。
【0003】
【発明が解決しようとする課題】ファジィ推論で多入力
の場合、これらをNNで実現しようとすると各入力に対
する適合度の積をそのルールの適合度とする方法にあっ
ては積を出力するセルが必要であり、又、非ファジィ化
処理に重心計算を用いる場合、割算を出力するセルが必
要となる。しかし、上記した入出力関数を用いて、これ
を従来のNNで実現することはできない。この理由は掛
算及び割算を出力するセルがないためである。本発明は
上記事情に鑑みてなされたものであり、乗除算結果を出
力するセルを有するファジィ推論のためのNNを提供す
ることを目的としている。
【0004】
【課題を解決するための手段】上記目的を達成するた
め、本発明は入力信号を出力する複数のセルと、前記入
力信号を出力する複数のセルの信号を所定の結合係数を
介して接続された複数の中間セルと、これら中間セルが
階層構成を有して複数の最終出力セルに接続されたニュ
ーラルネットワークにおいて、前記中間セルは入力端に
結合される複数の入力信号をもとにした乗除算結果を出
力する手段を具備するようにした。
【0005】
【実施例】以下図面を参照して実施例を説明する。図1
は本発明によるNNの一実施例の構成図である。図1に
おいて、aは乗除算結果を出力するセル、O1 〜Ojmx
はセルaの入力端に結合するセルbj (j=1 〜jmx )の
出力、W1 〜Wjmx は結合係数である。以下、Wj とO
j の積、Wj ・Oj をj番目の結合からセルaへの入力
と呼ぶ。この時、本発明によるセルaは1番目からjmx
番目までの結合からの入力の積を出力する。
【数1】 次に、図2を用いてこのセルを用いた場合の学習方法を
説明する。ここで、Wi(k-1),j(k) はk−1層i番目の
セルとk層j番目のセルとの結合係数を示し、Ij(k)は
k層j番目のセルへの入力の総和を示し、Oj(k)はk層
j番目のセルの出力を示す。結合係数Wijの更新には次
式を用いる。
【数2】
【0006】(1)通常のセル(セルへの入力の総和x
とセルの出力yが、微分可能な入出力関数y=f(x) の
関係にあるセルを通常のセルと呼ぶことにする。具体的
には参考文献(1) のロジスティック関数や恒等関数があ
る)の誤差逆伝播では上式を以下のように展開する。
【数3】 dj(k)は以下の場合で分かれる。 (i) k層が出力層の場合
【数4】 (ii) k層が中間層の場合
【数5】 なお、上式のdm(k+1)は、出力側から順にdj(k)と同様
にして求められる。
【0007】(2)本発明のセルを用いた場合の学習則
を次に示す。 (i) k層が出力層の場合
【数6】 (ii) k層が中間層の場合
【数7】 図3でk+1層のm番目のセルが本発明のセルの場
合。
【数8】 図3でk+1層のm番目のセルが本発明のセルでな
い場合。
【数9】 よって、本発明のセルを含むNNにおいても学習が可能
である。
【0008】図4に他の実施例を示す。セルaが本発明
による除算結果を出力するセルである。O1 〜Ojmx は
セルaの入力端に結合するセルbj (j=1 〜jmx )の出
力である。W1 〜Wjmx はその結合係数である。以下、
Wj とOj の積、Wj ・Ojをj番目の結合からセルa
への入力と呼ぶ。この時、本発明によるセルaはp番目
とq番目の結合からの入力の除算結果を出力する。な
お、p,qは任意に定めた1〜jmx の間の数値である。
【数10】 次に、図2を用いてこのセルを用いた場合の学習方法を
説明する。ここで、Wi(k-1),j(k) はk−1層i番目の
セルとj番目のセルとの結合係数を示し、Ij(k)はk層
j番目のセルへの入力の総和を示し、Oj(k)はk層j番
目のセルの出力を示す。結合係数Wijの更新は既に説明
した式を用いるため、詳細説明は省略する。
【0009】
【発明の効果】以上説明したように、本発明によればN
Nを構成するセルに対して入力端に結合される複数個の
入力信号から乗算除算を出力する機能を付加したので、
NNによりファジィ演算することが容易となった。
【図面の簡単な説明】
【図1】本発明によるNNの一実施例の構成図。
【図2】k層が出力の層の場合の学習方法を説明する
図。
【図3】k層が中間層の場合の学習方法を説明する図。
【図4】NNの他の実施例の構成図。
【符号の説明】
a,b1 〜bjmx セル O1 〜Ojmx セルbj の出力 W1 〜Wjmx 結合係数
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06G 7/12 G06F 9/44 554 G06N 1/00

Claims (1)

    (57)【特許請求の範囲】
  1. 【請求項1】 入力信号を出力する複数のセルと、前記
    入力信号を出力する複数のセルの信号を所定の結合係数
    を介して接続された複数の中間セルと、これら中間セル
    が階層構成を有して複数の最終出力セルに接続されたニ
    ューラルネットワークにおいて、前記中間セルは入力端
    に結合される複数の入力信号をもとにした乗除算結果を
    出力する手段を具備することを特徴とするファジィ推論
    のためのニューラルネットワーク。
JP35685992A 1992-12-22 1992-12-22 ファジィ推論のためのニューラルネットワーク Expired - Fee Related JP3343626B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35685992A JP3343626B2 (ja) 1992-12-22 1992-12-22 ファジィ推論のためのニューラルネットワーク

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35685992A JP3343626B2 (ja) 1992-12-22 1992-12-22 ファジィ推論のためのニューラルネットワーク

Publications (2)

Publication Number Publication Date
JPH06195487A JPH06195487A (ja) 1994-07-15
JP3343626B2 true JP3343626B2 (ja) 2002-11-11

Family

ID=18451124

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35685992A Expired - Fee Related JP3343626B2 (ja) 1992-12-22 1992-12-22 ファジィ推論のためのニューラルネットワーク

Country Status (1)

Country Link
JP (1) JP3343626B2 (ja)

Also Published As

Publication number Publication date
JPH06195487A (ja) 1994-07-15

Similar Documents

Publication Publication Date Title
Sakar et al. Growing and pruning neural tree networks
US6009418A (en) Method and apparatus for neural networking using semantic attractor architecture
US4979126A (en) Neural network with non-linear transformations
JP2747104B2 (ja) ニューラルネットワーク
US5274744A (en) Neural network for performing a relaxation process
JPH07282168A (ja) カオスリカレント神経回路網とその学習方法
JP3343626B2 (ja) ファジィ推論のためのニューラルネットワーク
Pados et al. New nonleast-squares neural network learning algorithms for hypothesis testing
JP2907486B2 (ja) ニューラルネットワーク装置
JP3343625B2 (ja) ファジィ推論のためのニューラルネットワーク
JP3359074B2 (ja) ニューラルネットワークの学習方法
US6490571B1 (en) Method and apparatus for neural networking using semantic attractor architecture
Sun et al. Application of neural network model combining information entropy and ant colony clustering theory for short-term load forecasting
Atanassov et al. Generalized nets as tools for modelling of the neural networks
Schaefer et al. The Recurrent Control Neural Network.
JPH09138786A (ja) ニューラルネットワークの学習装置
Maren Hybrid and complex networks
Dagli et al. Basic artificial neural network architectures
Tang et al. A model of neurons with unidirectional linear response
McGregor Neural network processing for multiset data
Touzet et al. Application of connectionist models to fuzzy inference systems
Galushkin et al. Neural network expert system
Teodorescu et al. Neuro-fuzzy systems: hybrid configurations
JPH0744195A (ja) 音声認識用リカレントニューラルネットワーク
JP3296609B2 (ja) メンバーシップ関数を出力するニューラルネットワーク

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees