JP2609760B2 - ニューラルネットワーク、ニューラルネットワークの想起または学習方法、およびニューラルネットワークを用いたファジイ推論装置 - Google Patents

ニューラルネットワーク、ニューラルネットワークの想起または学習方法、およびニューラルネットワークを用いたファジイ推論装置

Info

Publication number
JP2609760B2
JP2609760B2 JP2329138A JP32913890A JP2609760B2 JP 2609760 B2 JP2609760 B2 JP 2609760B2 JP 2329138 A JP2329138 A JP 2329138A JP 32913890 A JP32913890 A JP 32913890A JP 2609760 B2 JP2609760 B2 JP 2609760B2
Authority
JP
Japan
Prior art keywords
neural network
information
value
qualitative evaluation
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2329138A
Other languages
English (en)
Other versions
JPH04205163A (ja
Inventor
春樹 井上
兼一 中村
啓二 大島
正和 八尋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2329138A priority Critical patent/JP2609760B2/ja
Priority to US07/797,534 priority patent/US5402519A/en
Priority to DE69132003T priority patent/DE69132003T2/de
Priority to KR1019910021293A priority patent/KR100243353B1/ko
Priority to EP91120155A priority patent/EP0488150B1/en
Publication of JPH04205163A publication Critical patent/JPH04205163A/ja
Application granted granted Critical
Publication of JP2609760B2 publication Critical patent/JP2609760B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Devices For Executing Special Programs (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明はニューラルネットワークに係り、特に、不確
定要素の大きいあるいは非線形性の強い対象に好適なニ
ューラルネットワークの学習および想起方式に関する。
〔従来の技術〕
ニューラルネットワークは情報処理システムにおい
て、特に画像や音声等のパターン認識処理を複雑なアル
ゴリズムを用いることなく、パターンを学習することで
可能にしている。ニューラルネットの学習は、学習させ
たいパターンを入力しニューラルネットの想起出力と教
師信号の誤差を小さくするようにニューラルネットの結
合を修正しこれを反復することによって、ニューラルネ
ットが指定した動作をおこなうようにするものである。
このニューラルネットの構成と動作については、例えば
「パターン認識と学習のアルゴリズム」(上坂吉則/尾
関和彦著;文一総合出版)に解説されている。
ニューラルネットワークを実装置に応用するうえでの
重要な課題の一つは、入力信号の種々のタイプに対しそ
の特徴に反応して学習,想起し、学習パターンとは異な
る類似または同質の入力パターンに対しても適応性を得
られるようにすることである。
例えば、音声は同じ単語のパターンであっても発生の
度、あるいは話者によってその継続時間長が異なるた
め、入力に工夫が必要となる。この対策として特開平1
−241667号公報には、未知音声データの発生時間長の変
動を時間軸の動的な正規化をおこなうことによって、同
じ単語を同一と認識できるニューラルネットの学習をお
こなうことが記載されている。
また、特開平2−98770号公報には、入力パターンを
ガウスフィルタによって非線形処理することによって、
入力パターンに特異的に反応する多層のニューラルネッ
トの学習方式が記載されている。
〔発明が解決しようとする課題〕
上記の従来技術は入力情報が音声や画像信号のように
同質、あるいは強い相関がある場合には良好な結果の得
られることが多い。しかし、さまざまな種類のプロセス
量が入力パターンとなるプロセスの制御や診断等にニュ
ーラルネットワークを応用しようとする場合には学習時
に振動,発振を生じて安定な収束ができないことが多
く、実用化には困難があった。
たとえば、道路用トンネル内の汚染予測においては、
走行車両の台数と自然風といった全く異質の情報が入力
の一部となる。前者は単位〔台/5分〕として0〜200の
レンジを有し、後者は単位が〔m/秒〕で−5〜+5のレ
ンジを有している。前者の汚染値に対する影響は極めて
非線形で、0〜10〔台/5分〕では殆ど影響がなく、30〜
70〔台/5分〕では影響度は顕著になって線形に近づき、
70〔台/5分〕以上では再び鈍化する。しかも大量の排煙
をまき散らす大型トラックなどが走行すると非線形性は
極端なものとなる。一方、後者は汚染値に対しては比較
的一様な影響を与えレンジも狭い。
このように入力情報が様々なダイナミックレンジを有
しかつ不確定要素や非線形要素が大きい場合には、複数
の入力情報をニューラルネットにそのまま与えると、各
情報の特徴抽出が困難となって学習を収束しない。しか
も、上記従来技術のように入力情報を特定のフィルタで
非線形処理できる対象は限られていて、特徴抽出のため
の明確な手段をもたない場合が多い。
さらに、プロセス制御等ではニューラルネットの想起
出力をクリスプな値から連続量に変換することが要求さ
れ、非線形要素が強い場合の定量化には困難がある。
本発明の目的は、上記問題点を克服し、プロセスの予
測,診断,制御等にも応用できる、安定かつ高精度なニ
ューラルネット及びその学習方式を提供することにあ
る。
〔課題を解決するための手段〕
上記目的を達成するために、本発明はファジィ集合概
念を導入した下記の手段によって構成されることを特徴
とする。
すなわち、本発明は情報を入力する入力層、最終結果
を出力する出力層、該両層の間にある1段以上の中間
層、前記各層ごとに複数のニューロン及び隣接する層の
ニューロン間を結合する重み係数をもつシナップスを有
するニューラルネットワークにおいて、前記入力情報を
予め先験的な知識によって定められたファジィメンバシ
ップ関数で定性評価とダイナミックレンジの正規化をお
こなった後に前記入力層に入力する手段を設ける。
さらに、前記ニューラルネットワークの出力値を、先
験的に定めたファジィメンバシップ関数の定性評価値と
することによって定量化処理をおこなう手段を設ける。
〔作用〕
本発明は、ニューラルネットワーク内の処理は線形モ
デルのような入力情報の絶対値ではなく、その特徴量の
抽出によっておこなわれるものであり、入力層ニューロ
ンの各入力値を同一のディメンジョン(単位次元)で扱
う必要はないという考えに基づいている。
上記した本発明の構成によれば、入力情報がさまざま
なレンジを有し、強い非線形性や不確定要素が多く含む
場合であっても、入力値と想起結果の相関がある程度分
かり定性的表現ができるときは、この定性的表現である
ファジィメンバシップ関数によって評価した定性評価値
をニューラルネットの入力情報とすることで学習/想起
が可能になる。
また、ニューラルネットの想起結果に強い非線形要素
を含む場合にも、想起結果は定性評価値を示しているこ
とから評価値と定量値の相関がある程度わかっていると
きは、このニューラルネットの出力値を評価値とするデ
ファジィによって定量値出力を求めることが可能にな
る。
このように本発明によれば、従来応用が不可能と考え
られていたプロセスの診断,制御などの様様な情報に対
しても、各情報の性質に応じて本発明を適用することに
より、プロセスの多様な特性に正しく反応するニューラ
ルネットの学習/想起が可能になる。しかも、非線形処
理はファジィ集合概念で処理されるので、経験や実験等
から入力情報と想起結果相関がある程度わかっていれば
可能であり、適用性が大きい。
さらに、上記した入力情報のファジィ評価と、想起結
果の定量化を組合わせたニューラルネットワーク構成と
することで、従来のファジィ推論手段における推論ルー
ルがこのニューラルネットワークによって置換可能とな
る。これにより、従来のファジィ推論手段に比べチュー
ニング時間の短縮や高精度化が可能になる。
〔実施例〕
以下、本発明の好適な実施例を図面に基づいて説明す
る。第1図から第10図は本発明の第1の実施例を説明す
るもので、第1図はニューラルネットワークの学習装置
の全体構成を示す。学習装置1は、学習パターン を定性的に評価する第1ファジィ定性評価手段2と前向
きニューラルネットワーク3と、教師パターン を定性評価する第2ファジィ定性評価手段4と誤差逆伝
搬重み修正手段5とこれら各手段の動作を管理制御する
計算機による制御手段6から構成されている。
第2図の第1のファジィ定性評価手段2の構成を示
し、手段2の入力情報 を各々入力してn倍個の定性評価値を出力する適合度演
算手段21を備えている。
第3図は前向きニューラルネットワーク3の構成を概
念的に示す。前向き三層モデルを例示しているが、四層
以上の多層構造においても本発明は同様に適用可能であ
る。
ニューラルネット3はn個の入力層ニューロンx(1,
2,…,n)と、m個の中間層(かくれ層)ニューロンy
(j=1,2,…,m)と、l個の出力層ニューロンz(k=
1,2,…,l)と、入力層と中間層を結合する重みWijを有
するシナップスと、中間層と出力層を結合する重みVjk
を有するシナップスよりなっている。重みWij,Vjkのレ
ンジは−1.0〜1.0である。各ニューロンは空間加算性と
非線形性を有していて後述する処理(想起)をおこな
う。
第4図は適合度演算手段21の動作を説明する図であ
る。図のように、手段21にはたとえば、S(小さい),M
(中くらい),B(大きい)といった3種類の定性評価に
対応するメンバシップ関数を経験や実験等による先験的
情報から予め記憶している。入力情報xi(i=1,2,…,
n)は3種類の曲線で評価され μ(xi)=xiS (μは評価種類sに対する適合度関数) μ(xi)=xiM μ(xi)=xiB と3つの評価値に変換され、これらの定性評価値集合
X′が前向きニューラルネット3の入力となる。
一方、教師パターンd(X)は、第2のファジィ定性
評価手段4によって、d(X)の各情報ごとに3種類の
評価値に変換され、定性評価値集合d′(X)となる。
誤差逆伝搬修正手段5は前記ファジィ定性評価手段2,
4の出力およびニューラルネット3の想起出力h(X)
を入力として、h(X)とd′(X)の誤差が所定地以
下ないし最小となるようにニューラルネット3のシナッ
プスの重みを修正する。
以上のように構成された学習装置は学習パターンの評
価値集合X′=(x1S,x1M,x1B,x2S,x2M,x2B,…)と、こ
れに対する教師パターンの評価値集合d′(X)があた
えられた場合以下のように学習をおこなう。
中間層ニューロン出力値演算 入力層ニューロン出力値、すなわち学習パターンの評
価値集合の各入力値とシナップスの重みWijの積を演算
後、それらの総和を演算し、総和に対する非線形関数
(ここではシグモイド関数)を演算し、中間層ニューロ
ンの出力値を求める。
yj=σ(w0j+w1jSx1S+w1jMx1M+w1jBx1B +w2jSx2S+w2jMx2M+…+wnjBxnB) j=1,2,…,m ここで、y:中間層ニューロンの出力値 σ:シグモイド関数 σ(S)=1/(1+e-S) 出力層ニューロン出力値演算 上記で求めた中間層ニューロン出力値と重みVjk
積を演算後、それらの総和を演算し、さらに総和に対す
る非線形関数(シグモイド関数)を演算して出力層ニュ
ーロン出力値を求める。
zk=σ(v0k+v1ky1+v2ky2+…+vmkym) k=1,2,…,l 上記の処理によって得られたニューラルネット3の出
力値zkの集合、すなわち想起パターンh(X)は第1図
の誤差逆伝搬重み修正手段2により以下の処理をおこな
って重みを修正し、これを繰返すことによってニューラ
ルネットの学習をおこなう。
シナップスの重み修正量演算 既知の教師パターンの評価値d′(X)と上記で得
られたh(X)の誤差を最小にするシナップスの重み修
正量 を計算する。
ここで、 は入力ベクトル に対する、出力ベクトル の近さに関する重要度合で、既知項目である。
はm個のn変数関数で、 重み修正 現在のシナップスの重みvjo ld,wijo ldを上記の結果
を用いて、新しい重みvj new,wij newに修正する。
ここで、 は学習パターン要素数、 Δは微分幅で既知項目である。
以上の様な学習装置にて学習を行なう学習パターンと
教師パターンが定性的に評価され、かつメンバーシップ
関数の0〜1で正規化される為、学習パターンと教師パ
ターンとの相関整合度が改善され、安定かつ高精度な学
習が可能となる。
また、第1の定性評価手段あるいは第2の定性評価手
段4の一方のみを用いた学習装置であっても、想起対象
によっては同様な効果を得ることができる。
第5図は入力のみ定性評価をおこなう例で、同図
(a)は学習装置の構成を示したものである。同図
(b)はこの構成における動作を説明するもので、空調
機による室内温度の変化予測の学習を、既知の室内温度
変位ΔTin、室外温度変位ΔToutおよびクーラ動作変位
ΔCLを学習情報、一定時間後の既知の室内温度変化値Δ
Tin fを教師情報としておこなう例である。この場合、同
図(c)に示すように温度の変位は±5、クーラの変位
は±20のレンジであり、かつそれぞれ異なる非線形特性
を有している。従って、各情報をそのまま入力したので
は収束が困難になる場合もある。
そこで各入力を経験や実測値などから予め定められた
ファジィメンバシップ関数により定性評価(正規化も兼
ねる)し、その評価値をニューラルネットのに入力する
ことによって各情報の特徴がよく抽出され、学習の精
度,能率ともに向上できる。
第6図は出力のみ定性評価をおこなう例で、同図
(a)は学習装置の構成を示す。この構成は情報が同質
な時系列データ(音声,画像など)等に適する。同図
(b)は過去の日単位の株価変動幅(円)のデータ群
(変動幅ΔPi-n;n=0,1,2,…)から次の日の株価変動を
予測するものである。過去の変化形態が振動的あるいは
しだいに拡大傾向(三角変化)となるような場合は、い
ずれも非線形な状況変化であり、出力が1ニューロンの
想起値で定義すると収束が遅く精度も悪い。
そこで、出力ニューロンを例えば3個とし、各各に増
加(+),不変(0),減少(−)の評価種類を定義す
る。一方、教師情報である既知の次日の株値変動幅ΔP
j+1をファジィ定性評価手段4で定性評価して上記3種
類の評価値を得、これを教師パターンとする。これによ
り、入力データ間の非線形性の特徴がよく捉えられ、学
習の精度、速度ともに向上する。これは、もともと前向
きニューラルネットが有する非線形把握力を、出力ニュ
ーロンを定性値として定義することにより無理なく引き
出せるためである。
以上の手順で学習を完了した後、シナップスの重みは
固定され、ニューラルネットワークは実際の装置に移植
される。実際の装置での動作は想起と呼ばれ、未知の入
力情報に対しても的確な判断を行なう様になる。動作は
前記,段階と同じである。すなわち入力情報とシナ
ップスの重みの積の総和を演算後シグモイド関数値演算
により、中間層ニューロン出力値を求める。次に同様に
して、中間層ニューロン出力値とシナップスの重みによ
り出力層ニューロン値、すなわち想起結果を得る。
第7図は、本発明による想起装置10の構成を示したも
のである。想起装置10は入力情報 を入力とし定性評価集合を出力する第1のファジィ定性
評価手段2と、手段2から出力された定性評価集合 を入力とし、想起対象に対する定性評価値集合 を出力とするニューラルネットワーク3と、定性評価値
集合 を入力とし、定量値に変換して出力する定量化手段6に
より構成される。これらのうち、手段2とニューラルネ
ット3は前記第1図の学習装置1と同じ動作を行なうの
で説明を省略する。
第8図は、定量化手段6の動作を説明したものであ
る。本例では前向きニューラルネッワーク3の出力層ニ
ューロン値、すなわち出力値の定性評価として NB(負の大) NM(負の中位) NS(負に小) ZO(ゼロ) PS(正に小) PM(正の中位) PB(正の大) の7種類の評価を定義する。縦軸に適合度0.0〜1.0を、
横軸の想起対象値H(−HMAX〜+HMAX)をそれぞれ定義
し、前記7種類の定性評価曲線を先験的情報に基づいて
作成する。前向きニューラルネットワーク3の出力ニュ
ーロン数は本例では7個と定め、前記定性評価NB,NM,N
S,NO,PS,PM,PBに対応させる。ニューラルネット3の想
起結果に従い、メンバーシップ関数の対応する評価曲線
をニューロン出力値で切断し、斜線で示されるエリアの
重心を求める。この重心に対応するHの値を出力とす
る。
このような想起装置6にて想起を行なうと、入力情報
は定性的に評価、正規化されてニューラルネットワーク
に入力され、ニューラルネットワークの想起出力は定性
的評価値として扱うことができる。この想起出力は予め
定められたメンバーシップ関数によりデファジィして定
量化することができる。
なお、想起出力が定量値として得られる場合(上述の
第5図(b)の例)、あるいは定量変換を必要としない
場合は、第9図のように定量化手段6のない構成とな
る。また、定性評価しない入力データから定性評価値を
想起する場合(上述の第6図(b)の例)は、第10図の
ように定性評価手段2のない構成で想起がおこなわれ
る。
第11図から第18図は、本発明を実プロセスに応用した
実施例を説明するものである。
第11図は、対象プロセスであるトンネル換気プロセス
を示す。道路トンネル内の換気プロセスは不確定要素が
多く、非線形要素が大であり従来の制御手法で良い結果
を得ることが困難であった。このプロセスの汚染予測に
本発明のニューラルネットを応用した例を以下に説明す
る。
第12図は汚染予測装置30の入力信号を示している。一
定時間後の汚染推移(本例では、見通しの良さ、すなわ
ち透過度を示すVI値を汚染指標とする。VI値は0〜100
(%)のレンジを有し、100(%)に近づく程見通しが
良好であることを示す)を決定する要因としては、大型
車台数の変位(ΔTB,Δは変位を示す記号で、(現在
値)−(前回値)で定義する)、車速(TS),汚染値変
位(ΔVI),機械換気力変位(ΔM),交通量変位(Δ
TR),自然風(WN)等が主なものである。最新の予測方
法としてファジィの多段推論による方法が実用化されて
いるがその精度は第13図に示すように、相関係数0.72程
度である。相関係数とは第14図に示すように、時刻tC
の予測値VIC+1p redictedと実測値VIC+1 actualの精度を
示す指標である。
第15図は本発明による汚染値推移の学習装置である。
学習パターン は上記したΔTB,TS,ΔVIC,ΔM,ΔTR,WNで構成される を要素としている。この六種類の情報に対し、それぞれ
三種類の定性評価、減少(−),現状維持(0),増加
(+)を持つ先験的に定められたメンバーシップ関数に
よるファジィ定性評価手段2により定性評価が行なわれ
る。従ってニューラルネットワーク3の入力層ニューロ
ン数は18個となる。一方既知である一定時間後の汚染値
変位実測値ΔVIc+1 actualも先験的に定められたメンバ
ーシップ関数を用いてファジィ定性評価手段4により定
性評価される。
誤差逆伝搬重み修正手段5は、手段2により定性的に
評価された情報を学習パターンとし、手段4での定性評
価値を教師パターンとして入力とし、上述の手順で学習
を行ない、ニューラルネットワーク3のシナップスの重
みを修正する。
以上のように学習を完了したシナップスの重みは固定
され、ニューラルネットは実装置に移される。
第16図は本発明による汚染値の予測(想起)装置であ
る。第1のファジィ定性評価手段2と前向きニューラル
ネットワーク3は第15図に示した学習装置と同じ動作を
行なう。前向きニューラルネットワーク3は汚染値変位
ΔVIに対する7種の評価NNB(ΔVIC+1)(かなり減
少)、NNM(ΔVIC+1)(減少),NNS(ΔVIC+1)(やや
減少),NZ0(ΔVIC+1)(現状維持),NPS(ΔVIC+1
(やや増加),NPM(ΔVIC+1)(増加),NPB(ΔVIC+1
(かなり増加)をそれぞれ出力層ニューロンの出力とす
る。定量化手段6は、これらを入力とし、先験的情報に
基づき定められたメンバーシップ関数を用い、定量変換
後、予測装置の出力として一定時間後の汚染変位予測値
ΔVIC+1p redictedを出力する。第17図はその具体的動作
例であり、 NNB(ΔVIC+1)=0.082 NNM(ΔVIC+1)=0.102 NNS(ΔVIC+1)=0.113 NZ0(ΔVIC+1)=0.932 NPS(ΔVIC+1)=0.221 NPM(ΔVIC+1)=0.110 NPB(ΔVIC+1)=0.085 という定性評価値、すなわち出力層ニューロン出力値に
より、定量値+1.6(%)の増加を予測している。
本発明の汚染予測装置によれば第18図に示すように予
測値〜実測値の相関係数は0.85となり従来方法に比べ大
きく改善される。
以上説明した本発明の汚染予測装置は、従来のファジ
ィ推論装置における推論ルールがニューラルネットに置
換されたものであり、本発明の想起装置、すなわち、入
力情報の定性評価と、想起結果の定量化を組み合わせた
本発明のニューラルネットワークは、新たなファジィ推
論手段を実現している。
〔発明の効果〕 本発明は以上のように構成され、入力情報をファジィ
集合によって定性的に評価して、ニューラルネットワー
クの入力とした為、強い非線形性や多くの不確定性を含
む入力情報も的確に評価される。そのうえ、所定のレン
ジに正規化されるので、性質の異なる入力情報であって
も学習/想起が安定かつ高精度化する効果がある。
また、ニューラルネットワークの出力値を対象の定性
評価値として扱い、先験的に定めたメンバーシップ関数
による定量化処理を行ない出力値とするようにした為、
学習/想起が安定/高精度化する効果がある。
さらに、上記を組合わせることにより、従来のファジ
ィ推論手段のうちの推論ルールをニューラルネットワー
ク想起手段で置換することが可能となる為、従来のファ
ジィシステムに比べチューニング時間の短縮及び高精度
化が達成できる。
さらに本発明により、従来極めて限定された対象にし
か適用できなかったニューラルネットワーク情報処理
を、広く一般的な問題解決の手段として適用可能とす
る、という効果が達成できる。
【図面の簡単な説明】
第1図から第9図は本発明の第1の実施例を説明するも
ので、第1図ニューラルネットワークの額秋霜値の構成
図、第2図は第1のファジィ定性評価手段の構成図、第
3図は前向きニューラルネットワークの概念的な説明
図、第4図は適合度演算手段のメンバーシップ関数と動
作の説明図、第5図および第6図は本発明の学習装置の
変形例をそれぞれ示す構成図、第7図は本発明の想起装
置の構成図、第8図は定量化手段の動作を説明する図、
第9図および第10図は本発明の想起装置の変形例をそれ
ぞれ示す構成図である。 第11図から第18図は本発明の第2の実施例を説明するた
めのもので、第11図はトンネル換気プロセスのモデル
図、第12図は汚染予測装置の入出力信号を説明する図、
第13図および第14図は従来の汚染予測装置の学習装置の
構成図、第16図および第17図は本発明の汚染予測装置
(想起装置)の構成図とその定量化動作の説明図、第18
図は本発明の効果を説明する図である。 1,学習装置、2,第1のファジィ定性評価手段、3,ニュー
ラルネットワーク、4,第2のファジィ定性評価手段、5,
重み修正手段、6,定量化手段、10,想起装置、30,汚染予
測装置。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 大島 啓二 茨城県日立市大みか町5丁目2番1号 株式会社日立製作所大みか工場内 (72)発明者 八尋 正和 茨城県日立市大みか町5丁目2番1号 株式会社日立製作所大みか工場内 (56)参考文献 特開 平2−93940(JP,A) 特開 平2−260002(JP,A) 特開 平2−292602(JP,A) 特開 平2−189635(JP,A) 特開 平2−222060(JP,A)

Claims (12)

    (57)【特許請求の範囲】
  1. 【請求項1】情報を入力する入力層、想起結果を出力す
    る出力層、これら両層の間にある1段以上の中間層を有
    して、入力情報に基づく目的情報を想起し出力するニュ
    ーラルネットワークにおいて、前記入力情報を定性評価
    するファジィ定性評価手段を設け、入力情報ごとに1以
    上の定性評価値を前記入力層に与えるようにしたことを
    特徴とするニューラルネットワーク。
  2. 【請求項2】請求項1において、前記ファジィ定性評価
    手段は、経験や実験等による先験的情報によって予め定
    められ評価値が0.0〜1.0のメンバーシップ関数を有する
    ことを特徴とするニューラルネットワーク。
  3. 【請求項3】請求項2において、前記メンバーシップ関
    数は同一入力情報に対して評価の視点を変えた複数のメ
    ンバーシップ関数からなり、前記入力情報に対する複数
    の定性評価値が前記ファジィ定性評価手段から出力され
    ることを特徴とするニューラルネットワーク。
  4. 【請求項4】1以上の情報を入力する入力層のニューロ
    ン群、1段以上の中間層のニューロン群、想起結果を1
    以上の定性評価値群で想起する出力層のニューロン層、
    これら各層のニューロン群間を所定の結合係数で結合す
    るシナップスを有し、かつ、前記出力層ニューロンの定
    性評価値群から想起対象情報を定量値に変換する定量化
    手段を設けるようにしたこと特徴とするニューラルネッ
    トワーク。
  5. 【請求項5】請求項4において、前記定量化手段は先験
    的情報に基づいて予め定められたメンバーシップ関数を
    用いてデファジィすることを特徴とするニューラルネッ
    トワーク。
  6. 【請求項6】情報を入力する入力層、想起結果を出力す
    る出力層、これら両層の間にある1段以上の中間層を有
    して、入力情報に対応する想起対象情報(目的情報)を
    出力するニューラルネットワークにおいて、 前記入力情報を定性評価するファジィ定性評価手段と、
    定性評価値として得られる前記想起対象情報を定量値に
    変換する定量化手段を設けることを特徴とするニューラ
    ルネットワーク。
  7. 【請求項7】情報を入力する入力層、想起結果を出力す
    る出力層、これら両層間にある1段以上の中間層を有す
    るニューラルネットワークの想起結果が、その入力情報
    の特性に正しく反応するように前記各層間の結合状態を
    修正するニューラルネットワークの学習方法において、 既知の学習情報をファジィ定性評価して前記入力層にあ
    たえ、この結果得られる前記ニューラルネットワークの
    出力値と基準値である既知の教師情報との誤差が所定の
    値以下となるように前記結合状態を修正するようにした
    ことを特徴とするニューラルネットワークの学習方法。
  8. 【請求項8】情報を入力する入力層、想起結果を出力す
    る出力層、これら両層間にある1段以上の中間層を有す
    るニューラルネットワークの想起結果が、その入力情報
    の特性に正しく反応するように前記各層間のシナップス
    の重み係数を修正するニューラルネットワークの学習装
    置において、 既知の学習情報を定性評価して前記入力層に入力するフ
    ァジィ定性評価手段と、前記出力層から出力される想起
    出力と基準値である既知の教師情報とを誤差を求めこの
    誤差が所定の値以下になるように前記重み係数を修正す
    る重み係数修正手段を備えることを特徴とするニューラ
    ルネットワークの学習装置。
  9. 【請求項9】請求項8において、前記想起出力が想起対
    象の定性評価値として示されるとき、前記想起対象を予
    め定性評価して定めたメンバシップ関数を有する第2の
    ファジィ定性評価手段を備え、該手段によって前記教師
    情報を定性評価値として示すことを特徴とするニューラ
    ルネットワークの学習装置。
  10. 【請求項10】情報を入力する入力層、想起結果を出力
    する出力層、これら両層の間にある1段以上の中間層を
    有して入力情報に基づく想起対象を出力するニューラル
    ネットワークの想起方法において、 前記入力情報をファジィ定性評価手段によって1以上の
    定性評価値に変換し、該定性評価値に基づく前記ニュー
    ラルネットワークの出力が前記想起対象の定性評価値を
    示すとき、この出力された評価値から前記想起対象の定
    量値を得るようにしたことを特徴とするニューラルネッ
    トワークの想起方法。
  11. 【請求項11】入力情報から目的情報を定性推論するフ
    ァジィ推論方法において、 ニューラルネットワークの結合状態を定める各シナップ
    スの重みを前記入力情報の既知の値とこれに対応する前
    記目標情報の既知の値から予め学習して決定し、前記入
    力情報の各々を予め評価種類別に定めたファジィメンバ
    ーシップ関数によって定性評価値に変換し、該変換され
    た各入力情報評価値を前記ニューラルネットの入力層の
    各ニューロンに入力し、該入力に基づく前記ニューラル
    ネットの想起によって前記目的情報の評価種類ごとの定
    性評価値を前記ニューラルネットの出力層の各ニューロ
    ンを得るようになし、該得られた定性評価値の集合をデ
    ファジィ変換して前記目的情報の定量値を推論するよう
    にしたことを特徴とするファジィ推論方法。
  12. 【請求項12】プロセスの入力情報から所定時間後の汚
    染値を予測するトンネルの汚染予測装置において、 既知の車両通過台数,汚染値変位,換気力等のプロセス
    量を学習情報としこれに対する所定時間後の既知の汚染
    値を教師情報として予め学習を完了しているニューラル
    ネトワークと、予めプロセス量ごとに定められたメンバ
    ーシップ関数を有して入力された現時点の複数のプロセ
    ス量をそれぞれ定性評価値に変換し前記ニューラルネッ
    トの入力信号とするファジィ定性評価手段と、前記ニュ
    ーラルネットから出力される所定時間後の汚染値に対す
    る定性評価値の集合をデファジィして該汚染値の定量値
    を得る定量化手段を設けることを特徴とするトンネルの
    汚染予測装置。
JP2329138A 1990-11-26 1990-11-30 ニューラルネットワーク、ニューラルネットワークの想起または学習方法、およびニューラルネットワークを用いたファジイ推論装置 Expired - Fee Related JP2609760B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2329138A JP2609760B2 (ja) 1990-11-30 1990-11-30 ニューラルネットワーク、ニューラルネットワークの想起または学習方法、およびニューラルネットワークを用いたファジイ推論装置
US07/797,534 US5402519A (en) 1990-11-26 1991-11-25 Neural network system adapted for non-linear processing
DE69132003T DE69132003T2 (de) 1990-11-26 1991-11-26 Fuzzy-Inferenz-basiertes System und darin enthaltenes neuronales Netzwerk
KR1019910021293A KR100243353B1 (ko) 1990-11-26 1991-11-26 뉴럴 네트워크 시스템
EP91120155A EP0488150B1 (en) 1990-11-26 1991-11-26 Fuzzy inference system including neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2329138A JP2609760B2 (ja) 1990-11-30 1990-11-30 ニューラルネットワーク、ニューラルネットワークの想起または学習方法、およびニューラルネットワークを用いたファジイ推論装置

Publications (2)

Publication Number Publication Date
JPH04205163A JPH04205163A (ja) 1992-07-27
JP2609760B2 true JP2609760B2 (ja) 1997-05-14

Family

ID=18218058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2329138A Expired - Fee Related JP2609760B2 (ja) 1990-11-26 1990-11-30 ニューラルネットワーク、ニューラルネットワークの想起または学習方法、およびニューラルネットワークを用いたファジイ推論装置

Country Status (1)

Country Link
JP (1) JP2609760B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5828812A (en) * 1993-03-24 1998-10-27 National Semiconductor Corporation Recurrent neural network-based fuzzy logic system and method
US5579439A (en) * 1993-03-24 1996-11-26 National Semiconductor Corporation Fuzzy logic design generator using a neural network to generate fuzzy logic rules and membership functions for use in intelligent systems
US5677609A (en) * 1994-07-28 1997-10-14 National Semiconductor Corporation Intelligent servomechanism controller
JP6494009B1 (ja) * 2016-03-10 2019-04-03 シグニファイ ホールディング ビー ヴィ 汚染推定システム
CN110969559B (zh) * 2019-12-23 2023-05-09 北京航星机器制造有限公司 一种基于阈值体系的危险品识别方法及系统
CN114154780A (zh) * 2021-10-19 2022-03-08 港华能源投资有限公司 评价方法、装置、电子设备及相关产品
CN115511230B (zh) * 2022-11-23 2023-04-07 国网浙江省电力有限公司宁波供电公司 一种电能替代潜力分析预测方法
WO2024157314A1 (ja) * 2023-01-23 2024-08-02 三菱電機株式会社 駐車場換気システム、駐車場換気方法、学習装置および推論装置

Also Published As

Publication number Publication date
JPH04205163A (ja) 1992-07-27

Similar Documents

Publication Publication Date Title
US11461654B2 (en) Multi-agent cooperation decision-making and training method
KR100243353B1 (ko) 뉴럴 네트워크 시스템
BuHamra et al. The Box–Jenkins analysis and neural networks: prediction and time series modelling
CN109159785B (zh) 一种基于马尔可夫链与神经网络的汽车行驶工况预测方法
JP2609760B2 (ja) ニューラルネットワーク、ニューラルネットワークの想起または学習方法、およびニューラルネットワークを用いたファジイ推論装置
Iannella et al. A spiking neural network architecture for nonlinear function approximation
US6601052B1 (en) Selective attention method using neural network
Yollanda et al. Nonlinear modeling of IHSG with artificial intelligence
US6456990B1 (en) Method for transforming a fuzzy logic used to simulate a technical process into a neural network
Ji et al. Learning the dynamics of time delay systems with trainable delays
CN108538301B (zh) 一种基于神经网络音频技术的智能数码乐器
CN112784909B (zh) 基于自注意力机制和自适应子网络的图像分类识别方法
Xu et al. Meta-learning via weighted gradient update
Kang et al. Randomized learning-based classification of sound quality using spectrogram image and time-series data: A practical perspective
CN112287120A (zh) 一种基于强化学习的双系统知识图谱的知识推理方法
CN118451428A (zh) 用于确定预测模型的预测输出的可靠性的计算机化方法
CN111582461B (zh) 神经网络训练方法、装置、终端设备和可读存储介质
JP2002042107A (ja) ニューラルネットワークの学習方法
Zhou Combining dynamic neural networks and image sequences in a dynamic model for complex industrial production processes
Askalany et al. On using Adaptive Hybrid Intelligent System in PM10 Prediction
JPH086916A (ja) リカレント型ニューラルネットワーク学習方法及びその装置
JP4267726B2 (ja) 制御装置における動作信号と操作量との関係を決定する装置、制御装置、データ生成装置、入出力特性決定装置及び相関関係評価装置
Yilmaz et al. A fuzzy wavelet neural network model for system identification
Yeh Structural engineering applications with augmented neural networks
Hendikawati Non-stationary exchange rate prediction using soft computing techniques.

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080213

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090213

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090213

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100213

Year of fee payment: 13

LAPS Cancellation because of no payment of annual fees