JP3396489B2 - ネットワーク型情報処理システム - Google Patents

ネットワーク型情報処理システム

Info

Publication number
JP3396489B2
JP3396489B2 JP31008291A JP31008291A JP3396489B2 JP 3396489 B2 JP3396489 B2 JP 3396489B2 JP 31008291 A JP31008291 A JP 31008291A JP 31008291 A JP31008291 A JP 31008291A JP 3396489 B2 JP3396489 B2 JP 3396489B2
Authority
JP
Japan
Prior art keywords
learning
output
input
function
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP31008291A
Other languages
English (en)
Other versions
JPH05128086A (ja
Inventor
健 中村
陽一 上石
正明 渡辺
恵子 塩沢
隆治 堀川
裕二 山脇
Original Assignee
日本政策投資銀行
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本政策投資銀行 filed Critical 日本政策投資銀行
Priority to JP31008291A priority Critical patent/JP3396489B2/ja
Publication of JPH05128086A publication Critical patent/JPH05128086A/ja
Application granted granted Critical
Publication of JP3396489B2 publication Critical patent/JP3396489B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 【0001】 【産業上の利用分野】本発明は、パターン認識装置、制
御システム、診断システム、意志決定支援システムなど
のコンピュータを利用した情報処理システムに関し、と
くにネットワーク構造を有する情報処理システムに関す
る。 【0002】 【従来の技術】高度な情報処理機能を実現するための従
来の技術の一つとして、情報処理を行う構造が人間の脳
の神経細胞をモデルとしたニューラルネットワークがあ
る(例えば、Cohen,Feigenbaum著、
「人工知能ハンドブック」共立出版社発行、p487−
493、 甘利外、特集「ニューラルネットワークに
ついて」,人工知能学会誌,Vol.4,pp118−
176(1989))。神経細胞は多入力1出力の情報
処理素子である。その信号をx=(x1,x2,x3・・
・xn)のn次元ベクトルで表し、出力信号をvとす
る。神経細胞の入力xに対して、出力vを定める入出力
関係が分かれば、神経細胞の特性が分かったことにな
る。神経細胞の特性を解明して、それに似た情報処理を
おこなうモデルを、コンピューター上に構成すれば、人
間の神経細胞と同様の情報処理が可能となる。さらに、
神経細胞に似せた個のモデル(計算ユニット)を複数設
けて、互いの間に神経細胞のシナプスの情報伝達機能と
同様の働きが行えるようにすれば、神経細胞網と同じよ
うな神経回路を構築できる可能性がある。神経細胞では
信号xiやvは、神経線維(シナプス)を伝わる神経細
胞の興奮パルスの頻度すなわち神経細胞の発火頻度の形
で表されていると考えられる。従って、このような場
合、信号xiやvは連続的なアナログ値を取る。従来の
ニューラルネットワークモデルの例ではアナログ値を近
似的にディジタル値として取り扱うことが多い。即ち、
神経細胞が興奮していない状態と、興奮している状態と
を0,1の2値に対応させて、信号xiやvを取り扱う
ことが多い。 【0003】以下にニューラルネットワークモデルの例
についてもう少し詳しく説明する。入力信号xiが方向
性リンク(エッジ)を通してノード(計算ユニット)に
伝わる場合の影響が、方向性リンクに備わる重みの値w
iによって定まるものとする。単位時間内では一定の入
力である入力信号xに対する出力vは vj=f(uj) (1) uj=Σwij・vi−θj (2) viは1つ前段に位置する計算ユニットの出力で、一番
最初は入力信号xである。vjは計算ユニットjの出
力、wijは計算ユニットiからjへの結合の重み(例:
実数)、θjは計算ユニットjのしきい値である。uj
計算ユニットjへの入力の総和と呼ばれる。fは計算ユ
ニットの入力関数あるいは特性関数と呼ばれる。上式
(1)の関数f(u)は通常神経生理学の知見および数
学的な扱い易さから、シグモイド{S字形の単調増加
で、飽和特性を持つ関数1/(1+e-x)}が使われ
る。。式(2)は線形式であるが、式(1)は非線形性
を有しているのでこのような計算ユニットは準線形ユニ
ットと呼ばれる。 【0004】いま、上記のような準線形のモデルによっ
て所望の情報処理が行われるようにするためには、計算
ユニットの能力とネットワークの構造とを同時に語らね
ばならない。最初に入力層と出力層のみからなり、ネッ
トワークの構造が1つの階層であるものについて説明を
する。n個の複数入力情報、つまりn変数の組合せに対
して、1つの計算ユニットが出力として設けられた場
合、入出力特性はn変数の関数を記述していることにな
る。例えば、計算ユニットの入出力関数fとして、しき
い値をもったしきい関数(入力の総和が負ならば値0、
正ならば値1とする)を用いた場合ならば、n次元空間
をある傾きの超平面で切り、入力のパターン(n次元)
がその一方の側に含まれている場合に1を、他方に含ま
れている場合に0を出力する。入力が3つであれば3次
元の空間内に傾いた平面を置きその片側が0となる。原
点からのズレ(距離)がしきい関数fのしきい値によっ
て定まる。このような1つの階層だけの構造を持つネッ
トワークを通した推論では、入力値に線形な情報を基に
計算ユニットが総和を求めるのだから、n次元の超平面
が可能な情報処理は結局、線形分離特性でしかない。 【0005】非線形的な分離を行うためには、ネットワ
ーク構造に複数の階層を必要とする。n入力計算ユニッ
ト1つが1つのn次元超平面を構成するようにして、同
じ入力を共有するm個の計算ユニットを設ければ、n次
元の空間にm個の異なる傾きを持った超平面があること
になる。それらの複数の超平面1つずつについて分離す
べき事象がどちら側にあるのかを決定して置けば、空間
の局所的な偏向が発生するので、非線形分離特性が得ら
れる。このm個の計算ユニットのすべての出力を、1つ
の計算ユニットの入力となるようなm入力計算ユニット
を配置すれば、2段階の情報処理が可能となる。このよ
うに段階を複数にした情報処理ができるネットワークを
階層的ネットワークという。最初のノードは入力ノード
と呼ばれ、基本的には何の情報処理もせず、次の段階
(階層)のノードの入力へ情報を伝達する。最終段のノ
ードは出力ノードといわれ、入力ノードと出力ノードの
間に存在するノードは中間層あるいは隠れ層のノードと
いわれる。中間層ノードと出力ノードは計算ユニットで
ある。 【0006】 【発明が解決しようとする課題】 (記述量)従来の技術においては、入出力の精度は、基
本的には中間層のノードの数によって定まるため、精度
を確保しようとするとデータ記述量が爆発的に増える場
合が存在した。中間層のノードを少なくした場合には、
最終段の計算ユニット出力が粗い段階的表現になった
り、あるいは弁別できる種類が少なくなったりする。し
かし、この中間層の数をどの程度増やせば適正であるの
かについては、定説はない。本発明の一つの目的は、ニ
ューラルネットワークモデルにおける記述量の増大の問
題を解決することにある。 【0007】(初期状態の設定)また、従来技術におい
ては、学習の基盤となるシステムの初期状態を記述する
有効な手段がなく、基本的には平衡状態やランダムな状
態から学習を始める場合が多かった。物理的な問題で
も、人間の感覚と同じ能力をシミュレートするような問
題でも、何らかの入力信号と出力すべき情報の間にある
関係は、領域として捉えられている場合が多い。ところ
でニューラルネットワークの中間層のノード1つの役割
はn次元空間に置かれた超平面の片側が有為であること
を意味することである。つまり、n次元の超空間の中に
領域を十分緻密に設定しようとすると、2のn乗から3
のn乗程度の超平面即ち中間ノードを用意し、その各々
が領域の周囲を取り囲むように配置しなければならな
い。超平面の配置、あるいは移動は、ノードのn個の入
力エッジ(方向正リンク)の重みと、計算ユニットの変
換式のしきい値とを同時に変化されることによって実施
される。つまり、中間層が1段だけで出力がただ1つで
あるネットワークを想定すれば、まず入力と中間層ノー
ドとの間には、 しきい値を持つ中間ノード数 N2=kn個 重みを有するエッジの本数 e(1−2)=n×kn本 次に、中間層ノードと出力層ノードとの間には、 重みを有するエッジの本数 e(2−3)=kn本 しきい値を持つ出力ノード N3=1個 が必要となる。以上から、 総エッジ数e=e(1−2)+e(2−3)=(n+
1)×kn本 しきい値を有する総ノード数N=N2+N3=kn+1個 重み値としきい値を合わせた総調整箇所数=(n+2)
×kn+1 となる。kは緻密さを表す係数で2<k<3が目安とな
っている。いま、kを2とし、入力信号を10個、出力
数を1とすれば、総調整箇所数は、 (10+2)×210=12,888 となり、概略の設定でも初期設定を行えるような数では
なくなる。このため、方向性を持った初期状態を指定す
ることができず、学習の方向性を付けることや学習の収
束速度を上げるなどの調整が困難であった。この初期設
定を困難にする要因は、ニューラルネットワークの構造
そのものに原因があるとも考えられる。中間層ノードに
よってn次元超平面ができることは上記のとおりである
が、当初にランダムに配置されていた複数のn次元超平
面が、後述するようなニューラルネットワークの学習規
則に則って入力信号がある度に、出力信号が望ましいパ
ターンに近似するように平面の中を傾きを変更し、原点
からの距離を変更して移動するのである。しかし、各々
の超平面が特定の領域を均等にくるむように(球状なら
ばn次元超球となるように)超平面が配置されて行くと
いう保証はない。それは、超平面同士、相互の関連を記
述して置くことができないからである。本発明の他の目
的は、初期状態を指定することができ、学習の方向性を
つけ、学習の収束速度をあげるなどの調整を容易に行う
ことができるようにすることにある。 【0008】(組合せ爆発問題)上記のように、ある程
度緻密に領域を設定するような問題で、さらに識別すべ
き結果の数(出力ノード数に等しい)が複数あるなら
ば、中間層のノード数と出力ノードが増加してゆく。こ
れまでの前提はn個の入力を基に1つの出力を導くため
の枠組みを想定して説明していた。識別や診断を行う場
合の緻密さによって係数kの値が定まるが、出力がm個
必要な場合には、中間層の数はm倍程度に増加する。上
記と同様の計算で総エッジ数と総ノード数は、 e=n×m×kn+m×kn=(n+1)×m×kn N=m×kn+m=m×(kn+1) 試みに入力数n=10、出力数m=10、k=2とする
と、 e=(10+2)×10×210=122,880 N=10×(210+1)=10,250 実際問題として上記のような1万以上の計算ユニットを
設け、総和としきい関数の演算をし、12万にものぼる
重みの計算をすることは、計算ユニットを物理的に構成
することも困難であるし、同時に計算処理時間の上から
も問題となることが多い。計算処理時間については、推
論した結果を出力する度に、結果の良否判断を行ってし
きい値や重み値を確率的に更新して行くなどの学習機能
が備わっている場合には、学習時間がさらに大きな問題
となる。このように入力と出力の組合せが少し増加して
も指数関数的にノードとエッジが増加してしまうので、
実際に実験現場で利用するソフトウェアツールなどで
は、入力数10、出力数10の場合の中間層ノード数を
たかだか10個程度にして利用したりする。これでは処
理時間の問題などは解消できても、推奨値の1千分の1
という中間ノード数によって表すことができる事象の分
離などの誤差は、容易には小さくならないことを意味す
る。そこで、本発明の他の目的は、緻密な識別や診断を
行うように構成する場合であっても、ノード数の増加が
比較的少なくて済むようにすることにある。 【0009】(学習)入力層、中間層、出力層のように
階層的に計算ユニットを配置した、階層型ニューラルネ
ットワークの方向性リンクの重みや計算ユニットのしき
い値などのパラメータを、問題の解析から初期設定を行
うことは、前述の理由で困難である。そのためニューラ
ルネットワークには学習方式が備えられることが多い。
ニューラルネットワークに例題を与えて、例題を通した
推論過程における推論の誤差を評価して、ネットワーク
の推論が目的の動作に近づくように、上記のパラメータ
を変更する機構が必要となる。このように各種パラメー
タを帰納法的に確定することを学習と呼ぶ。階層型ニュ
ーラルネットワークの学習方式には大別して、教師信号
(あるいは単に教師という)なしの学習と、教師信号あ
りの学習の2種類がある。本発明によるネットワーク型
推論方式でも後述するようにこれらの2つの学習を行う
ことができる。 【0010】学習のプロセスを司る規則、いわゆる学習
則はこれまでに多くの研究によって提案されているが、
ここでは代表例としてD.E.Rumelhartによ
って提案された誤り逆伝播(エラー・バック・プロパゲ
ーション、error back propagati
on)学習則(例えば、Rumelhart外2,「L
earning Representations b
y Back−propagating error
s」,Nature,Vol.323−9,pp533
−536)について説明する。上記式(1)、式(2)
の前提を利用して階層が3層のニューラルネットワーク
の学習を説明する。入出力層だけのニューラルネットワ
ークは単純な線形分離しかできないために制約が多かっ
たが、3層以上の階層型ニューラルネットワークは1−
2層で線形分離された特徴空間において、次の2−3層
の結合によってさらに特徴が組み合わされて線形分離さ
れる。このことから中間にある層(ここでは第2層)の
計算ユニット(ノード)を十分に用意すれば、いかなる
入出力の非線形関係をも記述できることが言われてい
る。多層型のニューラルネットワークの記述能力は向上
しても、有効な学習則である逆伝播学習則の発見によっ
てはじめて利用可能な状態になった。 【0011】入力層(第1層)の第h番目の計算ユニッ
トU1hに入力する信号をxh、第2層の第i番目の計算
ユニットをU2i、その入力の総和をui、計算ユニット
1hと計算ユニットUiの間のエッジ(方向性リンク)
の変換効率すなわち重みをwhi、計算ユニットUiの出
力をvi、出力層(第3層)のj番目の計算ユニットU
3jとの間の重みwij、U2jの入力の総和をuj、出力を
jとすれば、それらの間の関係は次のように表すこと
ができる。ただし、以後の説明を簡単にするために式
(2)のしきい値θを省略する。 vj=f(uj)=f(Σwij・vi) (3) vi=f(ui)=f(Σwhi・Xh) (4) いま学習のためにネットワークの入力ベクトルXのパタ
ーンとネットワークの初期状態の出力パターンの組
{(Xp,Vp)},p=1,2,…,N,が用意されて
いる。適当な入力パターンXを入力し、ニューラルネッ
トワークの出力vjと対応する正解パターンYの第j成
分をyjとするなら、誤差の総和Eはネットワークと正
解との誤差の絶対値の2乗で表すことができる。 E=│e│2=ΣYp−vp2 (5) <Σの底はp> 学習にって、最終的に得られるニューラルネットワーク
の結合が、訓練セット{(Xp,Vp)}に関してのニュ
ーラルネットワークの誤差の総和Eが極小になるように
なれば、学習の目標を達成したことになる。Eを最小に
するためにEのノード毎の誤差成分の2分の1のEj
最小にする。 Ej=(yj−vj2/2 (6) dEj/dvj=−(yj−vj) (7) 【0012】いま、結合の強さである重みwijが僅かに
dαだけ変化したときの出力vjへの影響の度合いdvj
/dαjは、式(3)より、 dvj/dαj=vi・f’(Σwij・vi)=f’(uj)・vi (8) となる。従って結合の重みの変化dαjが、2乗誤差E
に与える影響dEj/dαjは、 dEj/dαj=(dEj/dvj)×(dvj/dαj) =−(yj−vj)・f’(uj)・vi =−δj・vi (9) ただし、 δj=f’(uj)・(yj−vj) (10) 以上のように、ニューラルネットワークの重みを変化さ
せたときの誤差への影響が計算によって求めることがで
きるので、逆にある誤差が観測されたときに、誤差を少
なくする方向に重みを変更することができる。 【0013】ここで、一般的に行われるバックプロパゲ
ーション(逆伝播)学習則による学習は、ある入力があ
ったとき、式(3)(4)において最終出力段に発生し
た誤差のノード成分の値を基に、その前段の重みwij
正解に近づく方向に僅かに修正し、新たな重みとする。
式(10)を出力誤差から入力へと計算を逆に行って、
誤差Ejを減少させるような重みwijの変化量Δαを
計算することができる。即ち、 Δαj=η・δj・vi (11) wij=wij+Δαj=wij+η・δj・vi (12) δj=(yj−vj)・f’(uj) (10)式に同
じ δi=f’(ui)Σwij・δj (13)<Σの底はj> 式(12)は、計算ユニットUjの一般化された誤差δj
と、その結合が伝えている信号viとの積に応じて、計
算ユニットUjへの結合重みwijを修正する、修正式で
ある。常数ηは一般に小さな正数である。式(12)
は、誤差が正、即ち計算ユニットUjの活動が不足して
いる場合、計算ユニットUjに正の信号を送っていたユ
ニットからの結合の重みを減らすように働く。誤差が負
の場合には、結合重みの修正は逆に行われる。式(1
0)のδjは、一般化された誤差と呼ばれ、最終出力段
における出力ユニットUjの誤差に出力感度に相当する
f’を乗じている。これに対して、式(13)ではδi
を、丁度、出力層での誤差δjを入力とし、出力層から
入力層へ逆方向に、f’(u)を乗じながら伝搬してい
るような形の計算になっている。このことから逆伝播学
習則と呼ばれている。式(10)〜式(13)は上記に
示した3層のニューラルネットワークよりも階層の多い
場合にも、当てはめることができる。 【0014】また、学習を効果的に行うための改良も行
われている。例えば、シミュレーティド・アニーリング
(徐冷)法と言われる方法では、当初の重み変更の度合
いを大きく、学習が進んで誤差が小さくなった場合には
重みの変更度合いを小さくするような方法である。しか
し、式(12)を入力層の方向に置き換えると、式(1
3)も併せて、 whi=whi+Δαi=whi+η・δi・vh =whi+η・f’(ui)・Σwij・δj・vh (14) 結局、1度の訓練用の信号入力がされたときに、全ての
エッジに関して式(10)と式(12)、あるいは式
(14)のいずれかの計算をしなければならない。かつ
計算ユニットのしきい関数f(u)には非線形関数がお
もに使われるので計算の負荷は見かけよりも大きくな
る。上記の計算量はエッジの数に比例して増加する。一
方でエッジの数が多いほど訓練用の信号セットの量すな
わち学習回数を増加させなければならない。学習に要す
る時間は、対象が困難な問題ほど、指数関数的に増加す
る。そこで、本発明の目的は、学習に要する時間を短縮
することにある。 【0015】(学習の安定性)また、従来技術において
は、初期状態の設定の困難であることもあり学習収束の
方向性を付けることは困難である。基本的には、1回の
サンプリングごとのバックプロパゲーションによって内
部状態を変更するため入力データの与え方に偏りが有っ
たり、与え方が採用している学習方式に対して不適当な
場合学習に障害を発生する場合があった。このため、学
習速度や学習結果の妥当性に問題が出る場合があった。
本発明の他の目的は、学習に際して障害を発生しない安
定な学習を行うことのできる学習方式を得ることにあ
る。 【0016】(説明性)従来技術においては、学習の対
象となるシステム内部の処理記述が基本的にはリンクの
重みという形で表現され、概念的な具体性を持たないた
め、学習の結果を外部(即ち、入出力データ)からしか
判定できない。即ち、従来のシステムにおいては、内部
の処理記述の説明性が良くなかった。このため、学習結
果を内部状態(記述)によって直接評価することは困難
であった。従って、本発明の他の目的は、学習の結果を
容易に評価することのできる学習方式を得ることにあ
る。 【0017】(可搬性(移植/組替え))従来技術にお
いては、学習の対象となるシステム内部の処理記述が基
本的にはリンクの重みという形で表現され、基本的には
ノード間のリンクは全結合に近い状態で運用される。こ
のため、学習結果を部分的に取り出し利用する、2つの
学習結果を合わせて1つのシステムを構成する、学習結
果を異なるデータ記述形式を持つシステム(プロダクシ
ョンシステムなど)に適用する、といった一つのシステ
ムから他のシステムへの改造や、拡張、縮小などを行う
ことは困難であった。また、同様の理由で、入出力のノ
ードを追加/削除することも困難であった。従って、本
発明の他の目的は、システムへの改造や、拡張、縮小な
どを容易に行うことのできるようにすることにある。 【0018】 【課題を解決するための手段】本発明は、複数のノード
(図2の21〜23)を有する入力層と複数のノード
(24〜26)を有する出力層が方向性リンクを介して
結合され、その方向性リンクは通過する情報の変換をす
る情報変換機能を有し、前記出力層のノードは方向性リ
ンクを介して入力される情報に対して関数演算を行う機
能(図1の15〜16)を有するネットワーク型情報処
理システムにおいて、上記の方向性リンクの情報変換機
能として、帯域通過型あるいは帯域阻止型のような選択
的な特性をもつフィルタ関数に従って情報変換を行うフ
ィルタ関数演算部(図1の11〜14)を有する。 【0019】前記フィルタ関数演算部は、そのフィルタ
関数として、ファジイメンバシップ関数などの確率分布
関数い、入力情報の数量と確率分布関数とを照合し
て合致度の数値を得るものである。 【0020】さらに、前記フィルタ関数演算部は、前記
確率分布関数の外に重み付け関数を有し、入力情報の数
量と確率分布関数とを照合して合致度の数値を得るとと
もに、その得られた合致度に重み付けした出力を出力層
のノードに伝達するものである。これにより前記出力層
のノードは、伝達される情報の確実度などを前記ノード
の関数計算に活かすことができる。 【0021】また、前記出力層のノードは、しきい値論
理による2値出力でなく、加重平均値算出のような連続
値を出力する関数演算部を有する。これにより、出力層
の出力が後段に他のネットワーク型情報処理システムが
結合された際に、連続量で表される情報の伝達を行うこ
とができる。 【0022】また、本発明は、以上に説明した本発明の
ネットワーク型情報処理システムを一つの単位機能モジ
ュールとし、その単位機能モジュールを複数個用意し、
これらの複数の単位機能モジュールを方向性リンクによ
り結合した構成とすることができる。 【0023】本発明は、上述のネットワーク型情報処理
システムの学習手段に関する。以下、学習手段の構成に
ついて説明する。即ち、本発明は、前記ネットワーク型
情報処理システムが、学習用の入力情報と、前記入力情
報に対応する正しい出力情報とを、教示信号として入力
する手段を有し、複数回の反応サイクルにおいて得られ
るその教示信号、すなわち、入力信号とそれに対応する
正しい出力信号を統計的に処理し、この統計処理結果に
基づいて、前記フィルタ関数のパラメータを決定あるい
は修正する学習手段を有するネットワーク型情報処理シ
ステムである。この学習手段は、入力情報とそれに対応
する正しい出力情報を示す教示情報が予め用意され、入
力情報が与えられたとき、正しい出力情報を取り出すよ
うに学習させるものである。反応サイクルとは、「入力
があり出力を行う」という処理を1サイクルとするもの
である。 【0024】 【0025】 【0026】 【0027】 【作用】従来のニューラルネットワークシステムでは、
ネットワークのポテンシャルが方向性リンクの重み数値
として蓄えられていた。この場合の情報変換機能の効果
は、ネットワークに入力される情報の量と、上記の重み
数値とが乗算されることによって得られる。識別などを
行うべく入力の領域を区分してゆくためには、上記の複
数入力と中間層のノードとの間の情報変換機能が、前述
のように線形分離を行う多次元平面を利用し、複数の平
面で領域を囲むように配置することが必要であった。し
かし、原理的に確率的に平面の移動補正をすることしか
できないことから、前述のように数多くのノードを必要
とし、また、偏らない入力信号を数多く与えて学習させ
なければらなかった。 【0028】本発明の一つの方向性リンクのフィルタ関
数は、このような従来のニューラルネットワークの複数
の中間層が実現していた超平面に対応し、また、本発明
の入力層と出力層とを結合する方向性リンクが作り出す
領域指定は、上記従来技術の入力層と中間層と出力層の
組合せリンクとノードからなる複数の超平面が示す領域
指定に対応する。従って、本発明は、従来のニューラル
ネットワークに比べ、同一の精度を得るのに必要な記述
量が少なくなり、要素の数か少なくなって構成が簡単と
なるとともに、処理時間を短縮することができる。 【0029】また、本発明は、システム内部の処理記述
に確率分布関数のようなフィルタ関数を用いるので、非
線形な分離を可能とし、また、人がその記述内容の表す
具体的な意味を把握し易い。換言すれば本発明は処理記
述の説明性がよい。従って、本発明は、初期状態の設定
を人間が直接記述することが可能であり、また、学習の
結果得られた内部状態を人間が把握することが容易であ
り、学習結果の妥当性を人が判断することができる。更
に、別の処理系によって生成されたデータによって内部
処理の記述をすることも可能となる。これは、完全な平
衡状態から学習を開始するニューラルネットワークと比
較して、学習収束までの時間を大幅に短縮することがで
き、学習結果の質も高くできる。本発明は、ニューラル
ネットワークのようなパラメータの組合せではなく、説
明性のあるフィルタ関数によるルールの形でデータを保
有している。これは、人間あるい他のシステムによるデ
ータ操作/編集などを容易に行うことができることを意
味している。 【0030】本発明の複数の単位機能モジュールを方向
性リンクにより結合した態様のシステムにおいては、複
数の単位機能モジュールの情報処理結果を利用して、さ
らに別な単位機能モジュールにより別な情報処理を多段
に行わせるので、より高度な複雑な処理を行うことがで
きる。また、このようなシステムにおいては、複数の単
位機能モジュールに異なる方式の学習手段を適用するよ
うにすれば、各単位機能モジュールの機能に合わせた学
習を行わせることができ、より適切な学習結果を得るこ
とができる。なお、単位機能モジュールは、加重平均値
算出のような連続値を出力することができるようにする
ことができるので、上記のような多段の処理を効果ある
ものとすることができる。また、本発明は、情報授受手
段により学習の進行状態を上位系に伝達できるよにした
ので、上位系で必要におうじてパターンの生成/削除、
学習ロジックの変更、境界・拘束条件の変更などを行う
ことができ、より高度で自立的な学習が可能となる。以
上要するに、前述の記述量、初期状態の設定、組合せ爆
発問題、学習効率、学習の安定性、説明性、可搬性の諸
問題を解決することができる。 【0031】 【実施例】図2は、本発明のネットワーク型情報処理シ
ステムの実施例の概略の構成を示す図である。本実施例
の方式は、図2に示すように入力層の複数のノード2
1,22,23および出力層の複数のノード24,2
5,26が方向性リンクにより接続され、ネットワーク
を構成している。図2は形式的にみれば従来のニューラ
ルネットワークと同様の構成であるが、各ノードがフィ
ルタ関数を有する方向性リンクを介して結合される点に
おいて従来とは根本的に異なるものである。 【0032】図1は図2における破線で囲った代表的な
出力層の一つのノード25とそれに関連する方向性リン
ク(エッジ)の構成例を示すブロック図である。図1に
示すノードは、各方向性リンクにおける、入力情報を選
択的に通過させるフィルタ関数の演算を行うフィルタ関
数演算部11〜14と、フィルタ関数演算部11〜14
の出力を重み付けした加算平均処理を行う加算部15
と、その加算部15の出力にしきい演算を施すしきい関
数演算部16からなっている。入力と状況(出力)との
関係は、次のようにルールの組(マトリックス)によっ
て表すことができる。 入力1 入力2 入力3 状況1 f11<g11> f21<g21> f31<g31> … 状況1 f12<g12> f22<g22> f32<g32> … 状況1 f13<g13> f23<g23> f33<g33> … ・ ・ ・ ・ ・ ・ ・ ・ ただし、f11〜f33はそれぞれメンバーシップ関数であ
る。また、g11〜g33はそれぞれのメンバーシップ関数
の「重み」である。なお、重みの設定は必須ではない。 【0033】フィルタ関数は、本実施例では図3に示す
ように、入力ノードに与えられた入力情報の値(入力
値)を横軸にとり合致度を縦軸にしたグラフにおいて不
等辺の台形の形状を持つメンバーシップ関数(ファジィ
メンバーシップ関数)が用いられる。メンバーシップ関
数は、最大合致度を得る入力の中心の値である中心値
c、合致度vが得られる入力値の許容範囲を中心値cか
らの左および右への幅であらわす左分散値vlおよび右
分散値vr、最大合致度が得られる入力値の許容範囲を
中心値cからの幅で示した曖昧度aによって記述され
る。フィルタ関数演算部11〜14は、メンバーシップ
関数の演算即ち入力値sを合致度vに変換するものであ
る。入力値sを合致度vに変換する式は次にように表す
ることができる。 v=0.0{s≦(c−vl)または(c+vr)≦s} v=1.0{(c−a)≦sかつs≦(c+a)} v=((vl−a)−(c−a−s))/(v−a)
{(c−vl)≦sかつs≦(c−a)} v=((vr−a)−(s−c−a))/(v−a)
{(c+a)≦sかつs≦(c+vr)} ・・・・・(14) 【0034】加算部15は、フィルタ関数演算部11〜
14により算出した出力を総合するために加算平均演算
を行う。本実施例では各メンバーシップ関数による入力
情報I1〜Iiの合致度v1j〜vijに重みを乗じた値を総
合して最終合致度を求める。最終合致度算出の方法は種
々考えられるが、本実施例においては、式(15)に示
すような加重加算平均を用いている。 Vj=Σvij・gij/Σgij (15) ただし、 Vj:パターンjの合致度 vij:各メンバーシップ関数による合致度(=fij(I
i) Iiは入力値) gij:各メンバーシップ関数の重み Ns:入力データ数 なお、Σはi=1からNsまでの総和を表す。 【0035】次に、本実施例における学習について説明
する。学習は、図2に示す学習対象のシステムに教示信
号として、予め入力情報とそれに対する正しい出力信号
の組を用意しておき、その教示信号を学習対象のシステ
ムに与え、方向性リンクのフィルタ関数を変更すること
によって行う。 1)メンバーシップ関数の基本的な変更方式 ある一定の観測期間中に、入力されたデータでかつ該当
するパターンに合致したものを集計し母集団とする。図
5は入力されたデータの量子化のレベルZを横軸とし、
各レベルに対するデータの発生回数Gを縦軸にとり、デ
ータの発生分布の例を示すグラフの例である。なお、G
cは入力データのノイズ成分等を除去するためのカット
オフレベルである。母集団に含まれる要素の数が一定の
数に達した所でメンバーシップ関数の変更操作を行う。
その母集団より下記の手順に従ってメンバーシップ関数
を導出する。 【0036】図4はメンバーシップ関数のパラメータ抽
出処理のフロー図である。カットオフデータGcが出力
データ指定として設定されているか否かを判定する(ス
テップ401)。カットオフレベルGcが設定されてい
れば、各量子化レベルZiごとにカットオフレベルを差
し引いた値を求めることにより分布データを操作する
(ステップ402)。即ち、Zi−Gcを求め、新たなZ
iとする。図5の入力データ分布をカットオフレベルGc
で処理した結果を図6に示す。上記のカットオフレベル
以下のデータを切り捨てる演算処理がZの量子化レベル
のすべてについて終了するまで行われる。そのために、
各量子化レベルの演算終了ごとに、全ての量子化レベル
について終了したか否かの判定をする(ステップ40
3)。全ての量子化レベルについて終了したときはステ
ップ404に移る。また、ステップ401の判定により
カットオフレベルが設定されていなかったときもステッ
プ404に進む。 【0037】分布データの平均値正規化座標値Zmを求
める(ステップ404)。 Zm=Σ(Zi×Gi)/ΣGi ただし、Σはi=0からi=nまでの総和
を表すものとする。平均値正規化座標値Zmからマイナ
ス側、プラス側それぞれ独立に標準偏差値Sl,Srを求
める(ステップ405)。ステップ404で求めた平均
値正規化座標値Zmおよびステップ405で求めたマイ
ナス側標準偏差値Sl,プラス側標準偏差値Srを基に次
のような正規化座標値を求める(ステップ406)。即
ち、平均値正規化座標値Zmを中心に、図7に示すよう
に、マイナス側標準偏差値Slの1倍(注*)の正規化
座標値ZL1、マイナス側標準偏差値Slの3倍(注*)
の正規化座標値ZL2、プラス側標準偏差値Srの1倍
(注*)の正規化座標値ZR1、プラス側標準偏差値Sr
の3倍(注*)の正規化座標値ZR2、(注*:この値は
条件によって変更される)をそれぞれ求める。 【0038】図8に示すような正規化中心値Cs,正規
化曖昧度Vas,正規化分散値Vls,Vrsをそれぞれ次式
により求める(ステップ407)。 正規化中心値 Cs=(ZL1+ZR1)/2 正規化曖昧度 Vas=(ZR1-L1)/2 正規化左分散値 Vls=Cs-L2 正規化右分散値 Vrs=ZR2-s 次に、正規化中心値Cs,正規化曖昧度Vas,正規化左
分散値Vls,正規化右分散値Vrsをそれぞれ逆正規化し
て、中心値C,曖昧度Va,左分散値Vl,右分散値Vr
求める(ステップ408)。学習による変更前の元のメ
ンバーシップ関数と、前述の図4に示す処理フローによ
り生成したメンバーシップ関数とを用いて新しい(1回
学習後の)メンバーシップ関数を生成する。 【0039】図9は、本実施例においてメンバーシップ
関数を変更する基本的な方法(学習関数)を示す図であ
る。同図において、元の(現在の)メンバーシップ関数
は点P1,P2,P3,P4を結ぶ直線群(太線)により示
され、図4により求めた一定期間のサンプリングから得
られたデータ分布に基づくメンバーシップ関数は点
1 ',P2 ',P3 ',P4 'を結ぶ直線群(破線)により示
され、これらのメンバーシップ関数を基に新しく生成さ
れるメンバーシップ関数は点P1 ",P2 ",P3 ",P 4 "
結ぶ直線群(細線)により示されている。各4点の座標
をP(s,v)、P'(s',v')、P"(s",v")と
する。 v"=v'=v s"=(1.0−g)×s+g×s' ただし、0.0≦g≦1.0 各4点のゲイン値gは独立に設定可能とする。 【0040】各点のゲイン値の設定によって、同じ観測
データによっても、メンバーシップ関数の変更結果は異
なる。図10は、ゲインの決めかたにより変更結果がど
のように変わるかを示すものである。図10(a)は、
現在のメンバーシップ関数(細い実線)と一定期間のサ
ンプリングから得られた分布に基づくメンバーシップ関
数(破線)を示す。同図(b)は、各点のゲイン値gを
0.5としたときに生成されるメンバーシップ関数(太
い実線)を示す。また、同図(c)は、点P1のゲイン
値g=0、他の点のゲイン値g=0.5とした場合を示
し、同図(d)は、曖昧度(P2とP3間の距離)を変え
ず、底辺拡張方向のゲイン値g=1.0、かつ底辺縮小
方向のゲイン値g=0とした場合を示す。入力信号源で
あるセンサの特性、学習の意図などによって、上記ゲイ
ン値を設定し、学習の方向性を変化させることが可能で
ある。 【0041】2)パターン間のメンバーシップ関数の
続性メンバーシップ関数を個々に独立して、操作してい
と連続性の確保が困難になる。故障状況をパターン化
して保持する診断システム等においては、状況を捕捉で
きない場合は正常状態とみなすことで、連続性はあまり
問題とはならない。しかし、制御システムの場合には、
連続性確保は重要な問題で、学習によるメンバーシップ
関数の変更によって制御不能領域が発生しないようにす
ることが必要である。基本的には、連続するパターン間
の同一センサに対応するメンバーシップ関数の連続性を
補償するような機能を設けることにより上記問題を解決
する。具体的な補償アルゴリズムはいくつか考えられ
る。 【0042】図11(a)および(b)の例は、交差領
域での2つのメンバーシップ関数の交差する部分での各
々の高さの合計が常に1.0となるようにして連続性の
補償を行った場合を示すものである。このように補償す
ることにより、メンバーシップ関数が学習により変化し
てもパターン同士の交差が必ず行われ、制御が不能とな
る領域が生じることはない。 【0043】図11の例以外に、交差面積が初期状態と
同一となるようにパターンの形状を制御するという補償
アルゴリズムとすることもできる。 【0044】また、このような連続性補償の処理を用い
て、境界条件、拘束条件の設定が可能となる。なお、境
界条件とは、隣接するパターンとの境界を規定する条件
であり、拘束条件はあるパターンの形状全体を学習によ
って変化しないように規定する条件のことである。図1
2の例では、交差部のみを持つメンバーシップ関数を仮
想し、パターンAの左端の境界条件を規定している。こ
の場合、入力Sが0近傍の場合に必要とする出力が系
(システム)の特性や使用状況などによって明示的に定
まっているとする。そのように明示的に出力値が定まる
ようなときには、メンバーシップ関数のその部分(0近
傍の境界)に対して学習により境界の特性を変化させる
のは好ましくない(変化させる必然性もない)。従っ
て、境界条件を固定することにより、適切な学習を行う
ことができる。また、図13の例では、連続性を確保し
たパターンの特定のメンバーシップ関数を学習誤差逆伝
のゲインを0とすることで固定し系全体の拘束条件を
規定している。即ち、図13において、(a)は時刻T
1における各メンバーシップ関数で連続性が保持されて
いるものである。(b)は時刻T2における学習により
変形された各メンバーシップ関数示をすもので、破線の
波形は前述のように交差領域が生ずるようにして連続性
を補償した波形であり、実線の波形は、連続性を確保し
たパターンの特定のもの(この例ではパターンC)を学
誤差逆伝播のゲインを0とすることにより固定し、系
全体の拘束条件を規定した場合である。上記のような状
況に対応するため、即ち学習の範囲を明確化するために
は、境界条件、拘束条件を設定可能とするのが望ましい
し、また設定できると便利となる。 【0045】3)否定パターン 学習のためのトリガ(学習の起動条件)としては大別し
て2つのケースが想定される。システムが出力した結果
に対して肯定の教示を行う場合と、否定の教示を行う場
合である。システム、学習方式にも依存するが、前述の
1)項で説明したような変更則を想定した場合、肯定側
の学習則と否定側の学習則を共通化することは困難であ
る。学習則を一意に定めるたに、記述されたパターンの
補集合となる否定パターンを用いる。(図14参照) 記述されたパターンが否定された(否定の教示が行われ
た)場合は、否定パターンに対して肯定の教示をしたも
のとして処理を行う。この場合、学習則は肯定側の1つ
が存在すれば良いことになる。また、肯定パターン(記
述パターン)と否定パターンが常に互いに補集合となる
ことを維持するために、肯定パターンと否定パターンと
の間で連続性を補償することが必要となる。この補償の
機構としては前述の2)項で説明したと同様のアルゴリ
ズムを用いることができる。 【0046】4)出力の入力への誤差逆伝播 現在多用されているファジィ集合論やニューラルネット
ワークモデルなどを用いた推論システムでは、推論シス
テム自体としては入力情報を内部状態によって変換して
出力情報とする過程は多段であったが、再帰性を持った
ものは少ない。例えば、図15の例のように、「Aでは
無い(notA)」「Bではない(notB)」という
出力情報を入力情報としても扱うことが可能である。
「notA→B」「notB→A」というメンバーシッ
プ関数の条件を用いて規則(ルール=パターン)を記述
することにより、A,Bが補集合であることが記述可能
となる。また、この再帰ループを遅れ系としたり、図1
5の「notB」の出力のように積分器を介在させたり
することによって時間特性を持たせることも可能とな
る。また、極端な例では、入力をホールドして再帰ルー
プと教示入力のみを行うことによって入力(観測)情報
が無い状態でも学習を行うことが可能となる。 【0047】以上の実施例は、図2に示すようなネット
ワーク型情報処理装置に関するものであるが、その図2
に示すようなネットワーク型情報処理装置を一つの単位
機能モジュールとし、これを図15に示すように複数個
をフィルタ関数の機能を有する方向性リンクにより階層
的に(多段に)結合した構成とすることができる。この
ように構成することにより、複雑な状況の識別を行うこ
とができる。このようなモジュール化した階層的なネッ
トワークを構成したときには、図1のしきい関数演算部
16を省いてアナログ値で出力するようにするのがよ
い。また、このような単位機能モジュールによるネット
ワーク型情報処理システムの学習は、それぞれの単位機
能モジュールに学習手段を設け、それらの学習手段は互
いに異なる方式のものをもちいることができ、それぞれ
のモジュールに合った適切な学習を行うことができる。 【0048】上記の各実施例において、学習手段による
学習の結果、障害が発生した場合など、外部または上位
系と接続可能な情報授受手段を設けることができる。前
述のような定型的なロジックでは、学習結果の最終的な
特性は、初期状態、つまり定義するパターン、センサの
数や境界条件などに多大な影響を受ける。初期状態が実
際の系に正しく適合したものではないと、学習が収束せ
ず、誤差がある段階以上は小さくならずに振動したり、
また極端な場合は発散してしまったりする可能性もあ
る。このような場合には、仮説(=初期状態)自体を建
て直して対応する必要がある。具体的には、パターンを
増やしたり、境界条件を変えたてりすることが必要であ
る。しかし、学習ロジック自体でそのような大局的な対
応をとることは、通常の学習のオーバーヘッドを増した
りするとともにシステム全体の見通しを悪化させる要因
となる。そこで、この実施例では学習の進行状況を2乗
誤差の変化など収束の目安となるデータを把握し、情報
授受手段により上位系に伝達する。上位系ではその状態
を監視し、搭載されたロジック(よりマクロ的な学習規
則)に基づき、必要に応じてパターンの生成/削除、学
習ロジックの変更、境界条件や拘束条件の変更などを行
う。これによって、より高度で自律的な学習系が構築可
能である。 【0049】 【発明の効果】前述のように、同一の精度を得るのに、
ニューラルネットワークの場合、パラメータの記述量が
膨大になり、特に中間層が肥大化する。これに対して、
本発明は、フィルタ関数を用いることにより、従来のよ
うな多数の中間層の計算ユニットを不要とし、学習に要
する更新時間を短縮し、計算に必要な資産を少なくする
ことができる。 【0050】本発明は、フィルタ関数を用いているの
で、従来のニューラルネットワークとは異なり、人間が
内部処理(ルール)の意味を把握し易い。これにより、
本発明は、学習における初期状態の設定や、学習後の状
態の把握において有利である。このように、本発明は内
部処理の記述の説明性が良いため、初期状態を人間が直
接記述することが可能である。また、別の処理系(統計
処理など)によって生成されたデータによってルール記
述することも可能となる。これは、完全な平衡状態から
学習を開始するニューラルネットワークと比較して、学
習収束までの時間を大幅に短縮することができる可能性
が高く、学習結果の質も高くできる。 【0051】本発明は、ニューラルネットワークのよう
なパラメータの組合せではなく、説明性のあるルールの
形でデータを保有している。これは、人間あるい他のシ
ステムによるデータ操作/編集などを容易に行うことが
できることを意味している。そして、別の処理方式を持
つ他のシステムとの知識データ(ルールなど)の授受が
容易であるという利点を有する。 【0052】また、本発明によれば、学習の結果は実際
に搭載する学習アルゴリズムに依存するが、基本的には
メンバーシップ関数というマクロな指標を操作するもの
であり、ニューラルネットワークのように入出力の1点
1点の対応して内部状態を操作するものではない。この
ことは、高度な学習に対するインタフェースとして大き
な利点となるものである。
【図面の簡単な説明】 【図1】 図2における破線で囲った代表的な出力層の
一つのノード25とそれに関連する方向性リンク(エッ
ジ)の構成例を示すブロック図である。 【図2】 本発明のネットワーク型情報処理システムの
実施例の概略の構成を示す図である。 【図3】 ファジィメンバーシップ関数を説明するため
の図である。 【図4】 メンバーシップ関数のパラメータ抽出処理の
フロー図である。 【図5】 入力されたデータの量子化のレベルZを横軸
とし、各レベルに対するデータの発生回数Gを縦軸にと
り、データの発生分布の例を示すグラフの例である。 【図6】 図5のデータの発生分布をカットオフGc
より足切りした後のデータ分布を示すものである。 【図7】 各正規化座標値の算出を説明するための図で
ある。 【図8】 図5のデータ分布から得られたメンバーシッ
プ関数を示す図である。 【図9】 本実施例においてメンバーシップ関数を変更
する基本的な方法(学習関数)を説明するための図であ
る。 【図10】 学習関数のゲインの決めかたによりメンバ
ーシップ関数の変更結果がどのように変わるかを示すも
のであり、(a)は、現在のメンバーシップ関数(細い
実線)と一定期間のサンプリングから得られた分布に基
づくメンバーシップ関数(破線)を示し、(b)は、各
点のゲイン値gを0.5としたときに生成されるメンバ
ーシップ関数(太い実線)を示し、(c)は、点P1
ゲイン値g=0、他の点のゲイン値g=0.5とした場
合を示し、(d)は、曖昧度(P2とP3間の距離)を変
えず、底辺拡張方向のゲイン値g=1.0、かつ底辺縮
小方向のゲイン値g=0とした場合を示す。 【図11】 (a)および(b)は、交差領域での2つ
のメンバーシップ関数の交差する部分での各々の高さの
合計が常に1.0となるようにして連続性の補償を行っ
た場合の例を示すものである。 【図12】 交差部のみを持つメンバーシップ関数を仮
想し、パターンAの左端の境界条件を規定することを示
す図である。 【図13】 連続性を確保したパターンの特定のメンバ
ーシップ関数(パターンC)を固定し系全体の拘束条件
を規定する例を示す図で、(a)はある時点でのメンバ
ーシップ関数を示し、(b)はその後、変化のあったメ
ンバーシップ関数を示し、その点線の波形はパターンC
を拘束しない場合、実線の波形はパターンCを拘束した
場合を示す。 【図14】 学習則を一意に定めるたに、記述されたパ
ターンの補集合となる否定パターンを用いることを説明
するための図である。 【図15】 出力を入力へ誤差逆伝播して学習を行う例
を示す図である。 【図16】 複数の単位機能モジュールからなるネット
ワーク型情報処理システムの例を示す図である。 【符号の説明】 11〜14…フィルタ関数演算部、15…加算部、16
…しきい関数演算部、21〜23…入力層のノード、2
4〜26…出力層のノード。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 塩沢 恵子 東京都渋谷区神南一丁目15番8号 兼仲 ビル4階 株式会社アドイン研究所内 (72)発明者 堀川 隆治 北海道札幌市中央区北3条西二丁目1番 地 丸茶ビル4階 株式会社アドイン研 究所札幌ラボラトリー内 (72)発明者 山脇 裕二 北海道札幌市中央区北3条西二丁目1番 地 丸茶ビル4階 株式会社アドイン研 究所札幌ラボラトリー内 (56)参考文献 特開 平4−60837(JP,A) 特開 平2−275501(JP,A) 特開 昭60−204002(JP,A) 特開 平3−219362(JP,A) 川村旭・他,「ニューロ・ファジィ融 合システム」,情報処理学会研究報告, 日本,社団法人情報処理学会,1991年 5月10日,Vol.91,No.36(91− MIC−66),pp.1−8 山口享・他,「連想記憶によるファジ ールールの推論・学習方式」,電気学会 論文誌C,日本,社団法人電気学会, 1990年 3月20日,Vol.110,No. 3,pp.207−215 森健一郎,「ファジィテンプレートを 用いた筆者照合アルゴリズム」,OMR ON TECHNICS,日本,オムロ ン株式会社,1990年12月20日,Vol. 30,No.4,pp.303−308 今崎直樹,「ニューラルネットワーク によるファジィモデリング」,東芝レビ ュー,日本,株式会社東芝,1990年12月 1日,Vol.45,No.12,pp. 991−994 小高俊之・他,「平均演算子を利用し たあいまい要求処理法」,情報処理学会 研究報告,日本,社団法人情報処理学 会,1990年 3月12日,Vol.90,N o.21(90−DBS−76),pp.1− 8 山川烈・監修,「ファジィ応用ハンド ブック」,日本,株式会社工業調査会, 1991年 7月25日,初版,pp.305− 323,ISBN:4−7693−5048−1 野村博義・他,「ニューラルネットの 学習則によるファジィ推論の自動チュー ニングと障害物回避への応用」,平成3 年電気学会全国大会講演論文集,日本, 1991年 4月,第6分冊,pp.S.10 −27〜S.10−30,JST資料番号:S 0653A 中村健・他,「知識コンパイル・パタ ーン推論システム」,1989年度人工知能 学会全国大会講演論文集,日本,1989 年,pp.295−298 中村健・他,「ファジィ演算による特 徴ベクトル検索」,第5回ファジィシス テムシンポジウム講演論文集,日本, 1989年,pp.449−454,JST資料番 号:L0486A (58)調査した分野(Int.Cl.7,DB名) G06N 1/00 - 7/08 JSTファイル(JOIS) CSDB(日本国特許庁) INSPEC(DIALOG)

Claims (1)

  1. (57)【特許請求の範囲】 【請求項1】 複数のノードを有する入力層と複数のノ
    ードを有する出力層が方向性リンクを介して結合され、前記 方向性リンクは、帯域通過型あるいは帯域阻止型の
    ような選択的な特性をもつファジイメンバシップ関数な
    どの確率分布関数をフィルタ関数として、入力情報の数
    量と確率分布関数とを照合して合致度の数値を得るフィ
    ルタ関数演算部と、前記フィルタ関数演算部により得ら
    れた合致度の出力に対して重み付け関数により重み付け
    を行って出力層のノードに伝達する機能を有し、前記出力層のノードは、前記方向性リンクから伝達され
    る前記合致度に重み付けした出力に、加重平均値のよう
    な連続値を出力する演算を行う関数演算部を有するネッ
    トワーク型情報処理システムであって、 学習用の入力情報と、前記入力情報に対応する正しい出
    力情報とを、教示信号として入力する手段を有し、複数
    回の反応サイクルにおいて得られその教示信号、すな
    わち、入力信号とそれに対応する正しい出力信号を統計
    的に処理し、この統計処理結果に基づいて前記フィルタ
    関数のパラメータを決定あるいは修正する学習手段を有
    することを特徴とするネットワーク型情報処理システ
    ム。
JP31008291A 1991-10-30 1991-10-30 ネットワーク型情報処理システム Expired - Lifetime JP3396489B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31008291A JP3396489B2 (ja) 1991-10-30 1991-10-30 ネットワーク型情報処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31008291A JP3396489B2 (ja) 1991-10-30 1991-10-30 ネットワーク型情報処理システム

Publications (2)

Publication Number Publication Date
JPH05128086A JPH05128086A (ja) 1993-05-25
JP3396489B2 true JP3396489B2 (ja) 2003-04-14

Family

ID=18000969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31008291A Expired - Lifetime JP3396489B2 (ja) 1991-10-30 1991-10-30 ネットワーク型情報処理システム

Country Status (1)

Country Link
JP (1) JP3396489B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09179841A (ja) * 1995-12-25 1997-07-11 Matsushita Electron Corp 認識回路網及びその構成方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60204002A (ja) * 1984-03-28 1985-10-15 Fuji Electric Co Ltd ファジィ調節装置の模擬ファジィ推定演算装置
JPH02275501A (ja) * 1989-04-17 1990-11-09 Toshiba Corp プロセス制御装置
JPH03219362A (ja) * 1990-01-24 1991-09-26 Fujitsu Ltd 時系列データ処理方式
JP3211236B2 (ja) * 1990-06-29 2001-09-25 オムロン株式会社 近似推論のための知識自動修正装置

Non-Patent Citations (9)

* Cited by examiner, † Cited by third party
Title
中村健・他,「ファジィ演算による特徴ベクトル検索」,第5回ファジィシステムシンポジウム講演論文集,日本,1989年,pp.449−454,JST資料番号:L0486A
中村健・他,「知識コンパイル・パターン推論システム」,1989年度人工知能学会全国大会講演論文集,日本,1989年,pp.295−298
今崎直樹,「ニューラルネットワークによるファジィモデリング」,東芝レビュー,日本,株式会社東芝,1990年12月 1日,Vol.45,No.12,pp.991−994
小高俊之・他,「平均演算子を利用したあいまい要求処理法」,情報処理学会研究報告,日本,社団法人情報処理学会,1990年 3月12日,Vol.90,No.21(90−DBS−76),pp.1−8
山口享・他,「連想記憶によるファジールールの推論・学習方式」,電気学会論文誌C,日本,社団法人電気学会,1990年 3月20日,Vol.110,No.3,pp.207−215
山川烈・監修,「ファジィ応用ハンドブック」,日本,株式会社工業調査会,1991年 7月25日,初版,pp.305−323,ISBN:4−7693−5048−1
川村旭・他,「ニューロ・ファジィ融合システム」,情報処理学会研究報告,日本,社団法人情報処理学会,1991年 5月10日,Vol.91,No.36(91−MIC−66),pp.1−8
森健一郎,「ファジィテンプレートを用いた筆者照合アルゴリズム」,OMRON TECHNICS,日本,オムロン株式会社,1990年12月20日,Vol.30,No.4,pp.303−308
野村博義・他,「ニューラルネットの学習則によるファジィ推論の自動チューニングと障害物回避への応用」,平成3年電気学会全国大会講演論文集,日本,1991年 4月,第6分冊,pp.S.10−27〜S.10−30,JST資料番号:S0653A

Also Published As

Publication number Publication date
JPH05128086A (ja) 1993-05-25

Similar Documents

Publication Publication Date Title
Pulido et al. Particle swarm optimization of ensemble neural networks with fuzzy aggregation for time series prediction of the Mexican Stock Exchange
Melin et al. Hybrid intelligent systems for pattern recognition using soft computing: an evolutionary approach for neural networks and fuzzy systems
de Jesus Rubio SOFMLS: online self-organizing fuzzy modified least-squares network
Werbos Neural networks for control and system identification
Jang et al. Neuro-fuzzy modeling and control
Castillo et al. Soft computing and fractal theory for intelligent manufacturing
Kasabov On-line learning, reasoning, rule extraction and aggregation in locally optimized evolving fuzzy neural networks
Salleh et al. A modified neuro-fuzzy system using metaheuristic approaches for data classification
Lin et al. The design of neuro-fuzzy networks using particle swarm optimization and recursive singular value decomposition
Zhou et al. A new type of recurrent fuzzy neural network for modeling dynamic systems
Ahmadi et al. Learning fuzzy cognitive maps using imperialist competitive algorithm
Zgurovsky et al. Artificial Intelligence Systems Based on Hybrid Neural Networks
Dhahri et al. Hierarchical multi-dimensional differential evolution for the design of beta basis function neural network
Anochi et al. Self-configuring two types of neural networks by mpca
Ibrahim et al. Regulated Kalman filter based training of an interval type-2 fuzzy system and its evaluation
Chakroborty et al. Calibrating the membership functions of the fuzzy inference system: instantiated by car-following data
Chen et al. Design and application of Nagar-Bardini structure-based interval type-2 fuzzy logic systems optimized with the combination of backpropagation algorithms and recursive least square algorithms
JP3354593B2 (ja) ネットワーク型情報処理装置の学習システム
JP3396489B2 (ja) ネットワーク型情報処理システム
Lin et al. A recurrent fuzzy cellular neural network system with automatic structure and template learning
Takagi Fusion techniques of fuzzy systems and neural networks, and fuzzy systems and genetic algorithms
Terziyska A distributed adaptive neuro-fuzzy network for chaotic time series prediction
Lin et al. On relationship of multilayer perceptrons and piecewise polynomial approximators
Chen Comparison study of iterative algorithms for center-of-sets type-reduction of Takagi Sugeno Kang type general type-2 fuzzy logic systems
Chen et al. Design of Takagi Sugeno Kang Type Interval Type-2 Fuzzy Logic Systems Optimized with Hybrid Algorithms

Legal Events

Date Code Title Description
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100207

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100207

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100207

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100207

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110207

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120207

Year of fee payment: 9

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120207

Year of fee payment: 9