JPH06176001A - ネットワーク型情報処理システムとその学習方法 - Google Patents

ネットワーク型情報処理システムとその学習方法

Info

Publication number
JPH06176001A
JPH06176001A JP4349999A JP34999992A JPH06176001A JP H06176001 A JPH06176001 A JP H06176001A JP 4349999 A JP4349999 A JP 4349999A JP 34999992 A JP34999992 A JP 34999992A JP H06176001 A JPH06176001 A JP H06176001A
Authority
JP
Japan
Prior art keywords
output
nodes
information processing
processing system
type information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4349999A
Other languages
English (en)
Other versions
JP3476211B2 (ja
Inventor
Takeshi Nakamura
健 中村
Toshihide Fujimaki
俊秀 藤巻
Kazuhiko Hamaya
和彦 浜谷
Masaaki Watanabe
正明 渡辺
Yoichi Ueishi
陽一 上石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AdIn Research Inc
Original Assignee
AdIn Research Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AdIn Research Inc filed Critical AdIn Research Inc
Priority to JP34999992A priority Critical patent/JP3476211B2/ja
Publication of JPH06176001A publication Critical patent/JPH06176001A/ja
Application granted granted Critical
Publication of JP3476211B2 publication Critical patent/JP3476211B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 多連続値入力と連続値出力の関係記述するこ
とができ、また、高速に学習を収束できること。 【構成】 複数の第1のノード(102〜104)と、
複数の第2のノード(105〜108)と、前記の第1
のノードと第2のノードを結合する非線形の選択型関数
特性を持つ方向性リンクとを備えたネットワーク型情報
処理システムにおいて、各第2のノードに対し予め定義
された固有の出力値と第2のノードの出力値とに基づい
て合成出力値を求める出力合成手段(109〜112)
を設けたものである。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、制御システム、信号処
理システムなどの連続値出力を伴う分野に有用なネット
ワーク構造を有する情報処理システムおよびその学習シ
ステムに関する。
【0002】
【従来の技術】高度な情報処理機能を実現するための従
来の技術の一つとして、情報処理を行う構造が人間の脳
の神経細胞をモデルとしたニューラルネットワークがあ
る(例えば、Cohen,Feigenbaum著、
「人工知能ハンドブック」共立出版社発行、p487−
493、 甘利外、特集「ニューラルネットワークに
ついて」,人工知能学会誌,Vol.4,pp118−
176(1989))。従来のニューラルネットワーク
技術においては、入出力の精度は、基本的には中間層の
ノードの数によって定まるため、精度を確保しようとす
るとデータ記述量が爆発的に増える場合が存在した。中
間層のノードを少なくした場合には、最終段の計算ユニ
ット出力が粗い段階的表現になったり、あるいは弁別で
きる種類が少なくなったりする。さらに識別すべき結果
の数(出力ノード数に等しい)に応じて、中間層のノー
ド数と出力ノードが増加してゆく。そのため、計算ユニ
ットを物理的に構成することも困難であるし、同時に計
算処理時間の上からも問題となることが多かった。推論
した結果を出力する度に、結果の良否判断を行ってしき
い値や重み値を確率的に更新して行くなどの学習機能が
備わっている場合には、学習時間がさらに大きな問題と
なっていた。また、従来技術においては、学習の対象と
なるシステム内部の処理記述が基本的にはリンクの重み
という形で表現され、概念的な具体性を持たないため、
学習の結果を外部(即ち、入出力データ)からしか判定
できないという問題があった。
【0003】本願の特許出願人は先に、以上のような従
来の技術の諸問題を解決するための発明について、特許
出願をした(特願平3−310082号「ネットワーク
型情報処理システム」)。この特願平3−310082
号の発明のネットワーク型情報処理システムは、複数の
ノードを有する入力層と複数のノードを有する出力層が
方向性リンクを介して結合され、その方向性リンクは通
過する情報の変換をする情報変換機能を有し、前記出力
層のノードは方向性リンクを介して入力される情報に対
して関数演算を行う機能を有するネットワーク型情報処
理システムにおいて、上記の方向性リンクの情報変換機
能として、帯域通過型あるいは帯域阻止型のような選択
的な特性をもつフィルタ関数に従って情報変換を行うフ
ィルタ関数演算部を有するものである。これによれば、
一つの方向性リンクのフィルタ関数は、従来のニューラ
ルネットワークの複数の中間層が実現していた超平面に
対応し、また、入力層と出力層とを結合する方向性リン
クが作り出す領域指定は、上記従来技術の入力層と中間
層と出力層の組合せリンクとノードからなる複数の超平
面が示す領域指定に対応する。従って、上記ネットワー
ク型情報処理システムの発明は、従来のニューラルネッ
トワークに比べ、同一の精度を得るのに必要な記述量が
少なくなり、要素の数か少なくなって構成が簡単となる
とともに、処理時間を短縮することができる。そのネッ
トワーク型情報処理システムにおける学習方式は、前記
ネットワーク型情報処理システムが入力情報から方向性
リンクと計算ユニットを通して情報処理を行うのと平行
して、同じ入力情報から正常な情報処理結果を得る手段
を有し、その正常な結果を教師信号として、教師信号と
上記の情報処理結果(計算ユニットの出力)との差異
(誤差)を評価関数によって求め、その差異の大小やベ
クトル値を算出し、学習関数を介して、方向性リンクの
フィルタ関数を修正する学習手段を有する。ここで、正
常な情報処理結果を得る手段とは、例えば、入力情報と
それに対応する正しい出力情報を対比させた教師情報を
予め用意しておき、入力情報が与えられたとき、正しい
出力情報を取り出すように構成したものである。
【0004】その後、本願の特許出願人は、特願平3−
310082号の発明における学習処理を改良するため
に、さらに特許出願をした(特願平4−175056号
「ネットワーク型情報処理装置の学習システム」)。そ
の概要は次の通りである。そのネットワーク型情報処理
装置は、複数の入力ノードと、複数の出力ノードと、前
記入力ノードと出力ノードを結合する方向性リンクとを
有する。その方向性リンクは非線形の選択型関数である
フィルタ関数を記憶するフィルタ関数記憶手段(図22
のパターンテーブル2213)と、方向性リンクを通過
する情報を前記フィルタ関数により変換をするフィルタ
関数演算手段(図22の2212)を有する。また、前
記出力ノードは方向性リンクを介して入力される情報に
対して関数演算を行う手段(図22の加算部2214、
しきい関数演算部2215)を有する。このネットワー
ク型情報処理装置(図22の221)の学習システム
は、学習用のデータを前記ネットワーク型情報処理装置
に入力する入力手段(図22のフィルタ関数演算部22
2)と、入力された学習用データの示す領域が、既存の
認識領域に含まれるか否かを判定する領域判定手段(図
22の領域判定部223)と、その領域判定手段により
前記既存の認識領域に含まれると判定された場合に、そ
の既存の認識領域を形成するフィルタ関数のセットにお
ける各フィルタ関数を個別に更新するフィルタ関数更新
手段(図22のフィルタ関数更新部224)と、前記領
域判定手段により前記既存の認識領域に含まれないと判
定された場合に、新たな認識領域を形成するフィルタ関
数のセットを生成するフィルタ関数生成手段(図22の
フィルタ関数生成部225)とを備えた基本構成を有す
る。既存の認識領域とは、既存のフィルタ関数のセット
により限定される領域のことである。
【0005】上記の基本構成において、領域判定手段
は、入力データが示す領域(多次元領域における空間座
標)が、ネットワーク型情報処理装置の既存のフィルタ
関数セットが限定する認識領域に属するか否かを判定す
る。フィルタ関数更新手段は、その判定の結果、前記認
識領域に属するものであるとき、その認識領域に対応す
るフィルタ関数セットの各々のフィルタ関数を、ネット
ワーク型情報処理装置の目的に合うように、個別に更新
する。前記認識領域に属さないと判定されたときは、フ
ィルタ関数生成手段により新たな認識領域を設定する。
これにより、同じ階層にあるフィルタ関数のセットが多
次元の領域を軸方向に非対象に切り取るように認識領域
を分離できる。従って、自然に大小の認識領域が生成さ
れ、境界領域に小さなルールが生成されので、認識率が
高まる。
【0006】
【発明が解決しようとする課題】前記先の出願の発明の
ネットワーク型情報処理システムは、基本的には、ある
特定の出力に対する多連続値入力の対応関係を記述する
ものである。従ってその出力は離散的なものであり、そ
のままでは連続値出力を得ることができない。そこで、
本発明は、前記先の出願の発明を拡張し、多連続値入力
と連続値出力の関係記述することのできるネットワーク
型情報処理システムとその学習方法を提供することを目
的とするものである。また、本発明は、高速に動作し、
少数の入出力の組から学習を収束させることのできるネ
ットワーク型情報処理システムの学習方法を提供するこ
とを目的とするものである。
【0007】
【課題を解決するための手段および作用】本発明は、複
数の第1のノード(図1の101〜104)と、複数の
第2のノード(図1の105〜108)と、前記の第1
のノードと第2のノードを結合する非線形の選択型関数
特性を持つ方向性リンクとを備えたネットワーク型情報
処理システムにおいて、各第2のノードに対し予め定義
された固有の出力値と第2のノードの出力値とに基づい
て合成出力値を求める出力合成手段(図1の109〜1
12)を設けたネットワーク型情報処理システムであ
る。
【0008】前記各第2のノードに予め定義された固有
の出力値は、第2のノードのそれぞれに対応して、それ
を合成して出力するときに用いる値である。本発明の一
態様では、その値は、等差数列あるいは等比数列に従っ
た値を各第2のノードに対応して割当てたものである。
例えば等差数列に従って、10個の第2のノードに順に
割当てると、その出力値は0,0、0.1、0.2、
0.3、・・・・0.7、0.8、0.9、1.0のよ
うに設定される。合成出力値は、選択された第2のノー
ドの出力値(合致度)とそのノードに対応する前記定義
された固有の出力値に基づいて合成される。例えば、選
択された第2のノードの合致度を加重として、前記定義
された固有の出力値を加重平均する。
【00】このネットワーク型情報処理システムに対する
学習は、出力教示データとして連続値を与え、その教示
データに応じて一つまたは複数の第2のノードを選択
し、教示データの値を所定の配分方式に従って配分し、
その配分された値を教示データとする個々の第2のノー
ドに対する学習処理(即ち、選択型関数であるフィルタ
関数の変更など)を行う。
【0009】前記配分方式は、本発明の一態様によれば
入力された前記連続値に対して数値的に両側に位置する
第2のノードの離散値に対して、線形補間により配分す
るものである。
【0010】このように学習されたネットワーク型情報
処理システムは、多連続値入力と多連続値出力の関係が
記述されたものとなる。なお、本明細書において、入力
または出力の「連続値」とは、多値で離散的ではない連
続量、例えば制御系における速度や流量などのアナログ
量をセンサによって検出しデジタル値に変換した場合の
ような連続量とみなせる多値をとり得るものである。従
って、本発明によれば、固有の出力値(離散値)をもつ
複数の第2のノードを設定し、その固有の出力値を合致
度に基づき合成するようにしたので、連続値の出力が可
能となる。
【0011】また、本発明は、上述のネットワーク型情
報処理システムにおいて、そのネットワーク型情報処理
システム(図17のNetB)の出力の誤差を出力する
少なくとも一つの第2のネットワーク型情報処理システ
ム(図17をのNetB)を付加した態様とすることが
できる。この態様においては、1出力に対して複数のネ
ットワーク型処理システムを用い、一方のネットワーク
型情報システムの出力と教示された出力の誤差を、第2
のネットワーク型情報システムの出力として学習を行う
ことにより、精度的な向上をはかることがてきる。
【0012】また、本発明は、複数の第1のノードと、
複数の第2のノードと、前記第1のノードと第2のノー
ドを結合する非線形の選択型関数特性を持つ方向性リン
クとを備えたネットワーク型情報処理システム(図18
の181)において、各第2のノードに対し定義される
出力値を非線形の選択型関数として有し、前記定義され
る出力値と第2のノードの出力値を反映した連続値で表
される1以上の合成出力値を得る機能を持つ第2のネッ
トワーク型情報処理システム(図18の182)を付加
した構成とすることができる。その学習においては、第
2のネットワーク型処理システムの学習を行い、その学
習結果により、第1のネットワーク型処理システムにお
ける学習対象の第2のノードを選択する。そしてその選
択された第2のノードに関し、パターンセットの生成変
更を行う。具体例によれば、学習時に入出力データの入
力が行われると、その教示出力データを入力情報とする
パターンテーブルに対しての教示を行う。高い合致度を
示すパターンセットがあれば、そのパターンセットと対
をなすネットワーク型情報処理システム(図18の18
1)のパターンテーブルを選択し、教示を行う。この発
明の態様においては、出力合成手段にネットワーク型情
報処理システムを用いたので、複数出力が可能となり、
また出力の精度の向上が期待できる。
【0013】
【実施例】ネットワーク型情報処理装置の学習は、基本
的には多入力、1出力の未知の系Mがあり、この入出力
は可観測であるとして、この入出力から系Mと等価な特
性を有する系Bを得ることである。未知の系が、多入力
−多出力の系の場合には、多入力−1出力に対応した上
記系Bを複数用意することにより対応することができ
る。実施例1 図1は本発明の実施例1によるネットワーク型情報処理
装置の構成の概略を示す図である。これは4入力1出力
の場合を示すものである。なお、出力が2になれば同様
のネットワークが2つ並列で構成される。このネットワ
ーク型情報処理装置は、図1に示すように第1層の複数
のノード11,12,13,14と、第2層の複数のノ
ード105,106,107,108と、第3層の複数
のノード109,110,111が方向性リンクにより
接続され、ネットワークを構成している。第3層の出力
にはそれらの出力を合成する出力合成部112が接続さ
れている。第1層の各ノードは、多連続入力I0〜I3
第2層の各ノードへの方向性リンクに分配するものであ
る。各入力は多連続入力である。本明細書において、入
力または出力の「多連続」とは、前述のとおり多値で離
散的ではない連続量、例えば制御系における速度や流量
などのアナログ量をセンサによって検出しデジタル値に
変換した場合のような多値をとり得るものである。第1
層と第2層のノードの間を結合する方向性リンクはフィ
ルタ関数(メンバーシップ関数)MF00〜MF33と重み
00〜w33とからなっている。
【0014】第2層の各ノード105〜108は、接続
された各方向性リンクのフィルタ関数の出力値VMF00
MF33とそれに対応する重みw00〜w33を用いて、加重
平均あるいは加重相乗平均の演算を行う。例えば、ノー
ド105の出力値VPS0は、加重平均および加重相乗平
均は、それぞれ下記の式で表される。加重加算平均の場
合、 VPS0={(VMF00)×w00+・・・+(VMF30)×w
30}/(w00+w01+・・+w03) 加重相乗平均の場合、 VPS0={(VMF00w00×・・・×(VMF30w30
1/(w00+w01+・・+w03)
【0015】第3層の各ノード109〜111は、最大
値を残すMax演算を行う。例えばノード109の出力
値VPT0は次式で表される。 VPT0=Max{VPS0,VPS1
【0016】出力合成部112は、第3層のノードから
の出力VPT0〜VPT2を合成して連続値の出力値を得るも
のである。連続値を得るために、第3層のノードからの
出力に対し、異なる設定出力値が割当てられている。そ
の設定出力値の割当方法としては、次のようなもの間が
ある。 a) 等差数列による設定 系Mの出力の値域が、0.0〜1.0のとき、第3層の
ノードを11個設定し、各々の設定出力値を下記のよう
に設定する。 O0 0.0 O1 0.1 O2 0.2 ・・ ・・ O5 0.2 ・・ ・・ O10 1.0 b) 等比数列による設定 O0 0.5 O1 0.25 O2 0.125 ・・ ・・ O5 (0.5)6 ・・ ・・ O10 (0.5)11
【0017】図2は図1に示すネットワーク型情報処理
装置のネットワークのリンク上のフィルタ関数MFと重
みwを表形式で表現したものである。図において台形の
波形201〜216はフィルタ関数MFを表し、その台
形波形の高さは重みwが乗じてあるため異なっている。
パターンセットPS0〜PS3はそれぞれ第2層のノード
105〜108に対応し、パターンテーブルPT0〜P
2は出力層(第3層)のノード109〜111に対応
している。
【0018】図3は、図1における演算を行う部分の構
成例を示すブロック図である。図3に示すノードは、各
方向性リンクにおける、入力情報を選択的に通過させる
フィルタ関数の演算を行うフィルタ関数演算部31〜3
4と、フィルタ関数演算部31〜34の出力を重み付け
した加算平均処理を行う加算部35と、その加算部35
の出力にしきい演算を施すしきい関数演算部36からな
っている。
【0019】フィルタ関数は、図4に示すように、入力
ノードに与えられた入力情報の値(入力値)を横軸にと
り合致度を縦軸にしたグラフにおいて不等辺の台形の形
状を持つメンバーシップ関数(ファジィメンバーシップ
関数)が用いられる。メンバーシップ関数は、最大合致
度を得る入力の中心の値である中心値c、合致度vが得
られる入力値の許容範囲を中心値cからの左および右へ
の幅であらわす左分散値vlおよび右分散値vr、最大合
致度が得られる入力値の許容範囲を中心値cからの幅で
示した曖昧度aによって記述される。フィルタ関数演算
部31〜34は、メンバーシップ関数の演算即ち入力値
sを合致度vに変換するものである。入力値sを合致度
vに変換する式は次にように表することができる。 v=0.0{s≦(c−vl)または(c+vr)≦s} v=1.0{(c−a)≦sかつs≦(c+a)} v=((vl−a)−(c−a−s))/(v−a) {(c−vl)≦sかつs≦(c−a)} v=((vr−a)−(s−c−a))/(v−a) {(c+a)≦sかつs≦(c+vr)}
【0020】加算部35は、フィルタ関数演算部31〜
34により算出した出力を総合するために加算平均演算
を行う。本実施例では各メンバーシップ関数による入力
情報I0〜Iiの合致度v1j〜vijに重みを乗じた値を総
合して総合合致度を求める。総合合致度算出の方法は前
述のように種々考えられるが、本実施例においては、加
重加算平均を用いる。
【0021】以上のような構成によるネットワーク型情
報処理装置による学習の動作について説明する。系に対
する入出力データの入力が行われると、まず出力データ
を解析し、出力ノードを一定数(1〜N個)選択し、同
時に各出力ノード(=パターンテーブル)に対する教示
の強さを決定する。次にパターンテーブルにおいては、
入力データと上記のように決定された教示の強さを教師
データとして、パターンの変更処理を実行する。図5
は、その学習時の動作の概要を示す処理フロー図であ
る。図1および図2に示すネットワーク型情報処理装置
を用い、パターンテーブルPT0、PT1、PT2に定義
された出力値OPT0、OPT1、OPT2をそれぞれ、0.
1、1.0、2.0と仮定する。
【0022】(ステップS51)入力I0〜I3をそれぞ
れ第1層のノード101〜104に入力すると共に、教
示出力値Ot(例えば、0.7)を入力する。
【0023】(ステップS52)どのパターンテーブル
PTを教示対象とするかを選択する。例えば、前記のよ
うに教示出力値Otとして0.7が入力された場合に
は、0.7は区間(0.0, 1.0)に存在するの
で、パターンテーブルPT0、PT1を選択する。
【0024】(ステップS53)選択されたパターンテ
ーブルに定義された出力値OPT0、OPT1と入力された教
示出力値Otを基に教示強さを決定する。例えば、線形
配分によってパターンテーブルPT0に対する教示強さ
を0.3とし、パターンテーブルPT1に対する教示強
さを0.7とする。
【0025】(ステップS54)入力データI0〜I3
用いて、選択されたパターンテーブルPT0、PT1の出
力値(合致度)を算出する。即ち、図1のノード10
5、106における演算により、それらの出力値
PS0、VPS1を求め、更にそれらのVPS0、VPS1からノ
ード109における演算VPT0=Max{VPS0
PS1}により出力値VPT0を求める。また、ノード10
7における演算によりその出力値VPS2を求め、ノード
110における演算VPT1=VPS2により出力値VPT1
求める。
【0026】(ステップS55)ステップS54で算出
したパターンテーブルPT0、PT1の出力値について、
一つずつ以下の処理を行う。この例では、まずVPT0
関して処理を行い、次にVPT1について処理を行う。
【0027】(ステップS56)出力値VPT0を評価す
るために、その出力値VPT0とパターンセット拡張のた
めの閾値Vextと比較する。
【0028】(ステップS57)ステップS56の比較
の結果、出力値VPT0が閾値Vextより小さい(Vext
≧VPT0)ときは、出力値VPT0と同じ合致度を持つ
パターンセットPS(最大合致度を得たPS)に対して
学習処理を実施する。
【0029】(ステップS58)ステップS56の比較
の結果、出力値VPT0が閾値Vextより大きい(Vext
<VPT0)ときは、パターンテーブルPT0に新規に
パターンセットを追加し、そのパターンセットに対して
学習処理を実施する。この例の場合には、パターンセッ
トPS4を生成し、パターンテーブルPT0に追加する。
【0030】次に、出力値VPT1について、ステップS
56〜S58の処理を行う。このようにして、前記選択
された教示対象パターンテーブルの処理がすべて終了し
たら、学習処理を終了する。
【0031】ステップS57またはS58における選択
されたパターンセット、または生成されたパターンセッ
トに対する学習処理について、さらに詳細に説明する。
なお、この学習処理例として、本出願人が先に出願した
特願平特願平04−175056号「ネットワーク型情
報処理装置の学習システム」の明細書において開示した
フィルタ関数の変更方式を用いる。図22はその学習シ
ステムの機能ブロック図である。選択または生成された
パターンセットの学習のために教示データとして、図2
2に示すネットワーク型情報処理装置221に入力デー
タおよび教師データを入力し、パターンセットを構成す
る各次元のフィルタ関数を変更する。図6はフィルタ関
数の変更の処理フローを示すものである。教示信号とし
て入力するデータは、履歴バッファ2274に格納され
る(ステップS61)。履歴バッファ2274は一つの
パターンセット即ちルールに入力された各次元のデータ
を保持するもので、所定のM個の入力の履歴を蓄える容
量も持っている。各ルールに対応して履歴バッファが用
意され、各履歴バッファごとに入力されたデータをカウ
ントするカウンタ(図示せず)が設けられている。履歴
バッファ2271の入力データ数を数えるカウンタは、
入力されるごとにカウンタの値を1増加させる(ステッ
プS62)。次に、カウンタの値が1か否かを判定し
(ステップS63)、もし1であれば、フィルタ関数更
新部224により次のようにフィルタ関数のパラメータ
を更新する(ステップS64)。即ち、履歴データ数に
応じて更新方法を切り替えて更新を行う。なお、 N:履歴データ数(サンプリングデータ数) M:履歴バッファーサイズ X0:初期入力データ X1:履歴データの最小値 X2:履歴データの最大値 R1:正規空間最小値 R2:正規空間最大値 C:中心値 A:曖昧度 V:分散値 とする。
【0032】a)N=1の場合 C=X0 A=0 V=学習処理時の情報として設定 図7は設定されたフィルタ関数の例を示すものである。
更新方法指定部228は、カウンタの値の判定の結果、
2以上であった場合は、カウンタの値が所定の数Mを越
えているか否かを判定する(ステップS65)。その判
定の結果Mを越えていない場合は、フィルタ関数を次の
方法で更新する(ステップS66)。
【0033】b)2<N<Mの場合 C=(X1+X2)/2 A=(X2−X1)/2 V=A+2A/N 図8は設定されたメンバーシップ関数の例を示すもので
ある。上述のa)およびb)の場合は、そもそも統計的
に意味を持たない少数のデータを対象としている場合で
あり、学習方法も統計的というよりは特に非の無い直観
的な手法に頼らざるを得ない。ファジィの特性を反映
し、データ捕捉と評価が確実であると判断できる手法の
一例である。
【0034】ステップS65の判定の結果、カウンタの
値が履歴バッファの数を越えている場合には、次に示す
ような統計処理により変更する(ステップS67)。な
お、統計処理により設定する方法は、本出願人の出願に
よる特願平3−310082号「ネットワーク型情報処
理システム」の明細書に開示されている方法を用いるこ
とができる。 c) 統計処理による変更 ある一定の観測期間中に、入力されたデータでかつ該当
するパターンに合致したものを集計し母集団とする。図
10は入力されたデータの量子化のレベルZを横軸と
し、各レベルに対するデータの発生回数Gを縦軸にと
り、データの発生分布の例を示すグラフの例である。な
お、Gcは入力データのノイズ成分等を除去するための
カットオフレベルである。母集団に含まれる要素の数が
一定の数に達した所でフィルタ関数更新部224は、フ
ィルタ関数であるメンバーシップ関数の変更操作を行
う。その母集団より下記の手順に従ってメンバーシップ
関数を導出する。
【0035】図9はメンバーシップ関数のパラメータ抽
出処理のフロー図である。カットオフデータGcが出力
データ指定として設定されているか否かを判定する(ス
テップ91)。カットオフレベルGcが設定されていれ
ば、各量子化レベルZiごとにカットオフレベルを差し
引いた値を求めることにより分布データを操作する(ス
テップ92)。即ち、Zi−Gcを求め、新たなZiとす
る。図10の入力データ分布をカットオフレベルGc
処理した結果を図11に示す。上記のカットオフレベル
以下のデータを切り捨てる演算処理がZの量子化レベル
のすべてについて終了するまで行われる。そのために、
各量子化レベルの演算終了ごとに、全ての量子化レベル
について終了したか否かの判定をする(ステップ9
3)。全ての量子化レベルについて終了したときはステ
ップ94に移る。また、ステップ91の判定によりカッ
トオフレベルが設定されていなかったときもステップ9
4に進む。
【0036】分布データの平均値正規化座標値Zmを求
める(ステップ94)。 Zm=Σ(Zi×Gi)/ΣGi ただし、Σはi=0からi=nまでの総和を表すものと
する。 平均値正規化座標値Zmからマイナス側、プラス側それ
ぞれ独立に標準偏差値Sl,Srを求める(ステップ9
5)。ステップ94で求めた平均値正規化座標値Zm
よびステップ95で求めたマイナス側標準偏差値Sl
プラス側標準偏差値Srを基に次のような正規化座標値
を求める(ステップ96)。即ち、平均値正規化座標値
mを中心に、図12に示すように、マイナス側標準偏
差値Slの1倍(注*)の正規化座標値ZL1、マイナス
側標準偏差値Slの3倍(注*)の正規化座標値ZL2
プラス側標準偏差値Srの1倍(注*)の正規化座標値
R1、プラス側標準偏差値Srの3倍(注*)の正規化
座標値ZR2、(注*:この値は条件によって変更され
る)をそれぞれ求める。
【0037】図13に示すような正規化中心値Cs,正
規化曖昧度Vas,正規化分散値Vls,Vrsをそれぞれ次
式により求める(ステップ97)。 正規化中心値 Cs=(ZL1+ZR1)/2 正規化曖昧度 Vas=(ZR1-L1)/2 正規化左分散値 Vls=Cs-L2 正規化右分散値 Vrs=ZR2-s 次に、正規化中心値Cs,正規化曖昧度Vas,正規化左
分散値Vls,正規化右分散値Vrsをそれぞれ逆正規化し
て、中心値C,曖昧度Va,左分散値Vl,右分散値Vr
求める(ステップ98)。学習による変更前の元のメン
バーシップ関数と、前述の図9に示す処理フローにより
生成したメンバーシップ関数とを用いて新しい(1回学
習後の)メンバーシップ関数を生成する。
【0038】図14は、本実施例においてメンバーシッ
プ関数を変更する方法(学習関数)を示す図である。同
図において、元の(現在の)メンバーシップ関数は点P
1,P2,P3,P4を結ぶ直線群(太線)により示され、
図9により求めた一定期間のサンプリングから得られた
データ分布に基づくメンバーシップ関数は点P1 '
2 ',P3 ',P4 'を結ぶ直線群(破線)により示され、
これらのメンバーシップ関数を基に新しく生成されるメ
ンバーシップ関数は点P1 ",P2 ",P3 ",P4 "を結ぶ直
線群(細線)により示されている。各4点の座標をP
(s,v)、P'(s',v')、P"(s",v")とす
る。 v"=v'=v s"=(1.0−g)×s+g×s' ただし、0.0≦g≦1.0 各4点のゲイン値gは独立に設定可能とする。
【0039】各点のゲイン値の設定によって、同じ観測
データによっても、メンバーシップ関数の変更結果は異
なる。図15は、ゲインの決めかたにより変更結果がど
のように変わるかを示すものである。図15(a)は、
現在のメンバーシップ関数(細い実線)と一定期間のサ
ンプリングから得られた分布に基づくメンバーシップ関
数(破線)を示す。同図(b)は、各点のゲイン値gを
0.5としたときに生成されるメンバーシップ関数(太
い実線)を示す。また、同図(c)は、点P1のゲイン
値g=0、他の点のゲイン値g=0.5とした場合を示
し、同図(d)は、曖昧度(P2とP3間の距離)を変え
ず、底辺拡張方向のゲイン値g=1.0、かつ底辺縮小
方向のゲイン値g=0とした場合を示す。入力信号源で
あるセンサの特性、学習の意図などによって、上記ゲイ
ン値を設定し、学習の方向性を変化させることが可能で
ある。
【0040】ここで、教示出力ノードの選択に関して、
種々の変形例を含めて説明する。 a)線形補間 線形補間による方式は、等差数列により設定出力値を設
定する形態の場合(実施例1はこの場合に該当する)に
有効な方法である。等比数列により設定出力値を設定す
る形態の場合には、原理的に用いることはできない。線
形補間による方式には、次のような方式がある。等差数
列による設定の場合に、出力信号としてある指定値、例
えば0.13が入力されたとする。この場合、教示は設
定出力が前記指定値0.13の近傍にある2つの出力値
1,O2に対して実施することになる。また、この区間
0.1〜0.2における教師信号の位置によって、各出
力ノードに対する教示の強さを得る。この例において
は、線形補間を用いることによりO1に対しては0.7
の強さ、O2に対しては0.3の強さで教示する。
【0041】b)選択的教示 出力の教師信号を基に特定の出力ノードを選択して教示
を行うものである。等差数列により固有の出力値を設定
する場合にも、上記a)の線形補間を用いないで、設定
出力値が教師信号の最も近傍にある出力ノードを選択し
て教示を行うようにすることができる。ただし、これは
あまり実際的ではない。この選択的教示方式は等比数列
による出力値の設定の場合に有効である。例えば、出力
信号として0.13が入力されたとする。教師信号より
も小さくかつ最も大きな設定出力値を持つ出力ノードを
選択する。この場合は、出力ノードはO2(0.12
5)である。次にこの差分を計算し(0.13−0.1
25=0.005)、同様にこの差分よりも小さく最も
大きな設定出力値を持つ出力ノードを選択する。この場
合は、O7(0.0039)である。同様の処理を繰り
返し、差分よりも小さい出力ノードがなくなるまで処理
を行う。このようにして選択された出力ノードに対し
て、強さ1.0で教示を行う。
【0042】c) 出力配分関数 前述の線形補間の一般化として、出力区分間にあるデー
タを、出力ノードに配分する関数を考える。この関数
は、各出力ノード毎に定義してもよいが、通常は、各出
力ノードで共通のものを使う。この関数は、教示データ
値と出力ノード値の差の絶対値に応じてILAのカウン
ト値を返す。なお、配分関数の性格上1つのデータに対
しては、カウント値の総和は常に1になるように設計す
る。前述の線形補間の場合は、出力ノードの出力値点上
で1で、最近燐ノード2つの出力値点で0になる正規三
角ファジイMFに相当する。一般の関数の場合は、関数
出力定義域が広くなれば、配分は2つより多くのノード
があるものである。
【0043】次に、学習を終了した後のネットワーク型
情報処理装置の推論時の動作について説明する。入力デ
ータをネットワーク型情報処理装置の入力に与え、出力
ノードの出力値即ち合致度を得る。各出力のノードに定
義されている固有の設定出力値を、上記出力ノードの出
力値(合致度)によって加重平均し合成して系Bの出力
とする。図16は本実施例における推論時の動作例を示
すフロー図である。 (ステップS161)入力I0〜I3をそれぞれ第1層の
ノード101〜104に入力する。 (ステップS162)入力データを用いてPT0,P
1,PT2の出力値(合致度)を算出する。この例で
は、VPT0=Max{VPSO,VPS1}=0.1、VPT1
PS2=0.6、VPT1=VPS3=0.9であったと仮定
する。 (ステップS163)出力の存在する区間を決定する。
例えば、近接する2つのパターンテーブルの合致度合計
が最も高い組合せを選択することにより区間を決定す
る。
【0044】(ステップS164)合致度を基に、出力
値を合成する。例えば、それぞれのパターンテーブルP
Tに定義された出力値を、合致度を重みとして加重平均
することにより出力値の合成を行う。例の場合、出力値
0は、O0=1.0×0.6+2.0×0.9/(0.
6+0.9)となる。 (ステップS165)得られた出力を出力する。
【0045】上の説明では、推論時の出力合成の方法と
して、近接する2つのパターンテーブルPTの合致度合
計の高い組み合わせを選択するものであったが、この他
に以下のような各種の合成の仕方を採用することができ
る。 a) すべての出力ノードの設定出力値を合成する方法 この場合、出力ノードの合致度を加重として、設定出力
値を荷重平均する。
【0046】b) 特定の出力ノードを選択し設定出力
値を合成する方法 これには、例えば、 合致度が一定以上の出力ノードのみを選択する 合致度が上位N個までの出力ノードを選択する などがある。なお、設定出力値を等比数列によって設定
した場合は、論理的に矛盾を生じる可能性があるため、
原則としての方式をとることはできない。また、上記
方法の変形として次のような方法もある。 最大合致度の出力ノードと、その近傍2n点個(計
2n+1)のルールを選ぶ 近傍2n点個のノードの合致度の和が最大のノード
の組を用いる。
【0047】c) 学習時配分関数に対応した出力合成 合成するための出力ノードの選び方 ある入出力データを学習時に与えて、フィルタ関数の変
更処理における前記履歴バッファのカウント(ILAカ
ウント)を配分関数により配分した場合、ILAカウン
トはそのルール条件部の各パターンセットを決定するた
めに使用される。そして、その入力ベクトルとの分配さ
れたルール(パターンセット)との合致度が分配ILA
カウントが完全に一致することは考えにくいが、相関関
係は期待できる。そこで推論時は、分配時に使った出力
ノードを使って出力値を合成する。この場合、使用する
出力ノードの決定方法としては、使用する出力ノードの
合致度の総和が最大のものを選ぶのが自然である。ある
いは、簡略的に最も合致度の高い出力ノードに注目し
て、それを中心とする分配ノードを採用することもでき
る。 合成出力値の算出は、各出力ノードの条件部合致度
で加重平均をとる。
【0048】(実施例1の変形例)以上の実施例1は、
多入力−連続1出力を実現する処理系としては最もコン
パクトな実施形態を例示するものである。さらに精度な
どを向上させるために、次に説明する並列化や階層化を
行うことができる。
【0049】(並列化)多連続値入力−連続値1出力に
対応する形態としては、図1に示すのと同様な系(以
下、パターングループという)を複数用意する。(系B
0,・・・,系BN)各々のパターングループでは、学習
の特性(履歴バッファの大きさ、フィルタ関数の学習ゲ
イン値、重み変更のゲイン値など)を変えておき、各々
独立に学習処理を行わせる。系Bとしての出力は、各々
のパターングループの出力を合成することにより得られ
る。
【0050】(階層化)多入力−連続1出力に対応する
形態としては、図1に示すのと同様な系(以下、パター
ングループという)を複数用意する。(系B0,・・
・,系BN) 系B0では図1に示すのと同様に、系Mの入出力をその
まま学習にもちいるが、系B0以外の系(パターングル
ープ)では、学習に用いる出力情報を系Mの出力としな
い。系B1では、系B0の出力と系Bの誤差を学習させる
よう構成する。同様に、系B2は、系B0,B1の合成出
力と、系Mとの誤差を学習する。学習の段階としては、
まず系B0のみを学習させ、系Mとの誤差が一定値以下
となるか、誤差の減少が停止した時点で、系B0の学習
を停止し、系B0の特性を保存する。次に系B1の学習を
開始する。同様にして、次々に系Biを固定する。
【0051】図17は、階層化の場合のネットワーク構
成例を示すもので、2入力1出力の場合の一例である。
上半分のネットワークNetAは、図1のネットワーク
型情報処理装置と同一の構成、同一の入出力を持つもの
である。下半分のネットワークNetBは、図1のネッ
トワーク型情報処理装置と同様の構成を有し、入力デー
タ自体はネットワークNetAと同じであるが、出力は
異なる。ネットワークNetAが出力をそのまま教示す
るのに対して、ネットワークNetBは、教示出力とネ
ットワークNetAの出力の差を教示する。要するにネ
ットワークNetBは、入力とNetAの誤差を学習す
る形態となる。推論の際は、ネットワークNetAの出
力OPG0からネットワークNetBの出力OPG1を減算す
る形となる。学習時の基本的な運用形態としては、概略
次のとおりである。 まず、ネットワークNetAのみで学習を行う。 ネットワークNetAの学習において、誤差がある
程度小さくなったらネットワークNetAの学習を停止
する。 ネットワークNetAの出力と教示出力の誤差によ
ってネットワークNetBの学習を行う。
【0052】実施例2 図18は実施例2によるネットワーク型情報処理装置の
構成をパターンテーブルの形式で示す図である。この実
施例2は、2つのネットワーク181と182からなっ
ており、左側のネットワーク181は図1および2に示
す実施例1のネットワークと同じ構成である。実施例1
と異なる点は次のとおりである。即ち、実施例1では、
各パターンテーブルPT0〜PT2の出力値OPT0〜
OPT2が固定的であったのに対して、実施例2では、
別のネットワーク182によって既述され可変である点
において相違する。
【0053】以上のように構成された実施例2の学習時
に動作について図19および図20により説明する。出
力側のネットワーク182の学習を行い次に入力側のネ
ットワーク181の学習を行う。 (ステップS191)入力{I0,・・・・,I3}と教
示出力値{Ot0,Ot1}を入力する。
【0054】(ステップS192)教示出力値{Ot0
t1}を用いて、ネットワーク182のパターンセット
PS’0,PS’1,PS’2の出力値(合致度)V
PS'0,VPS'1,VPS'2を算出する。
【0055】(ステップS193)算出した合致度のな
かで最大の合致度をもつパターンセットPSを選択す
る。この例ではVPS'0が最大であったと仮定する。
【0056】(ステップS194)選択されたパターン
セットPS’0の合致度VPS'0を評価する。即ち、その
合致度VPS'0を選択されたパターンセットPS拡張のた
めの閾値((Vext)と比較し、Vext≧VPS’
0ならばステップS195へ、Vext<VPS’0な
らばステップS197へ進む。
【0057】(ステップS195)ステップS194の
評価においてVext≧VPS’0であったなら、最大
合致度を得たパターンセットPS’0に対して学習処理
を実施する。この学習処理は、実施例1において図6よ
り図15を用いて詳述したパターンセットを構成する各
次元のフィルタ関数を変更する処理と同じ処理を行う。
【0058】(ステップS196)入力側のネットワー
ク181の教示対象パターンテーブルPTをPT0(出
力側のネットワーク182の選択されたてパターンセッ
トPS’0と対応するパターンテーブルPT)とする。
ステップS199へ進む。
【0059】(ステップS197)ステップS194の
評価においてVext<VPS’0であったときには、
出力側ネットワーク182に新規にパターンセットPS
を追加する。この例においてはPS’3を生成する。そ
して、そのパターンセットPS’3に対して学習処理を
実施する。この学習処理も、実施例1において図6より
図15を用いて詳述したパターンセットを構成する各次
元のフィルタ関数を変更する処理と同じ処理を行う。
【0060】(ステップS198)入力側のネットワー
ク181の教示対象パターンテーブルPTをPT0(P
S’0と接続されるPT)とする。ステップS199へ
進む。 (ステップS199)出力側学習処理を終了し、入力側
ネットワーク181の学習処理に移る。
【0061】(ステップS200)入力データを用い
て、ステップS198で決定した学習対象PT0の出力
値(合致度を算出する)。
【0062】(ステップS201)学習対象のパターン
テーブルの合致度VPT0を評価する。即ち、この合致度
PT0をパターンセットPSの拡張のための閾値(Ve
xt)と比較する。Vext≧VPT0ならばステップ
S202へ、Vext<VPT0ならばステップS20
3へ進む。
【0063】(ステップS202)ステップS201の
評価においてVext≧VPS’0であった場合に、V
PT0と同じ合致度を持つパターンセットPS0(最大
合致度を得たPS)に対して学習処理を実施する。この
学習処理も、実施例1において図6より図15を用いて
詳述したパターンセットを構成する各次元のフィルタ関
数を変更する処理と同じ処理を行う。ステップS204
へ進む。
【0064】(ステップS203)ステップS194の
評価においてVext<VPS’0であったときには、
パターンテーブルPT0に新規にパターンセットPSを
追加する。この場合は、パターンセットPS4を生成し
パターンテーブルPT0に追加する。そのパターンセッ
トPS4に対して学習処理を実施する。この学習処理
も、実施例1において図6より図15を用いて詳述した
パターンセットを構成する各次元のフィルタ関数を変更
する処理と同じ処理を行う。 (ステップS204)学習を終了する。
【0065】次に、学習を終了した後のネットワーク型
情報処理装置の推論時の動作について説明する。図21
は本実施例における推論時の動作例を示すフロー図であ
る。 (ステップS211)入力I0〜I3をそれぞれ第1層の
ノードに入力する。 (ステップS212)入力データを用いてPT0,P
1,PT2の出力値(合致度)を算出する。この例で
は、VPT0=Max{VPSO,VPS1}=0.1、VPT1
PS2=0.6、VPT2=VPS3=0.9であったと仮定
する。 (ステップS213)前記算出した各合致度によってパ
ターンテーブルを選択する。例えば、合致度の降順に2
つのパターンテーブルのを選択する。この例の場合は、
選択されるパターンテーブルはPT1とPT2である。
【0066】(ステップS214)選択されたパターン
テーブルPT1とPT2に接続されるパターンセットのフ
ィルタ関数の中心値を仮の出力値とする。例えば、出力
0に対するその値が{O0PS'1,OPS'2}={1.0,
2.0}であったとする。
【0067】(ステップ215)合致度を基に、出力値
を合成する。例えば、それぞれのパターンテーブルPT
に定義された出力値を、合致度を重みとして加重平均す
ることにより出力値の合成を行う。例の場合、出力値O
0は、O0=1.0×0.6+2.0×0.9/(0.6
+0.9)=1.6となる。 (ステップ216)得られた出力O0を出力する。出力
1に関してもS214〜S216の処理を同様に行
う。
【0068】
【発明の効果】本発明によれば、多連続値入力と連続値
出力の関係を記述したネットワーク型情報処理装置を実
現することができる。また、高速に動作し少数の入出力
の組から学習を収束させることができる。
【図面の簡単な説明】
【図1】 本発明の実施例1によるネットワーク型情報
処理装置の構成の概略を示す図
【図2】 図1に示すネットワーク型情報処理装置をネ
ットワークのリンク上のフィルタ関数MFと重みwを表
形式で表現したパターンテーブルを示す図
【図3】 図1における演算を行う部分の構成例を示す
ブロック図
【図4】 ファジイメンバーシップ関数(フィルタ関
数)を説明するための図
【図5】 学習時の動作の概要を示す処理フロー図
【図6】 フィルタ関数の変更処理を示すフロー図
【図7】 履歴データ数が1であるときに設定されるフ
ィルタ関数を示す図
【図8】13 履歴データ数が2以上でMより小さいと
きに設定されるフィルタ関数を示す図
【図9】 メンバーシップ関数のパラメータ抽出処理の
フロー図
【図10】 入力されたデータの量子化のレベルZを横
軸とし、各レベルに対するデータの発生回数Gを縦軸に
とり、データの発生分布の例を示すグラフの例を示す図
【図11】 図10のデータの発生分布をカットオフG
cにより足切りした後のデータ分布を示す図
【図12】 各正規化座標値の算出を説明するための図
【図13】 図10のデータ分布から得られたメンバー
シップ関数を示す図
【図14】 メンバーシップ関数を変更する基本的な方
法(学習関数)を説明するための図
【図15】 学習関数のゲインの決めかたによりメンバ
ーシップ関数の変更結果がどのように変わるかを示すも
のであり、(a)は、現在のメンバーシップ関数(細い
実線)と一定期間のサンプリングから得られた分布に基
づくメンバーシップ関数(破線)を示し、(b)は、各
点のゲイン値gを0.5としたときに生成されるメンバ
ーシップ関数(太い実線)を示し、(c)は、点P1の
ゲイン値g=0、他の点のゲイン値g=0.5とした場
合を示し、(d)は、曖昧度(P2とP3間の距離)を
変えず、底辺拡張方向のゲイン値g=1.0、かつ底辺
縮小方向のゲイン値g=0とした場合を示す
【図16】 実施例1の推論時の動作のフローの例を示
す図
【図17】 階層化の場合のネットワーク構成例を示す
図で、2入力1出力の場合の一例
【図18】 パターンテーブルとして表した実施例2の
構成を示す図
【図19】 実施例2の学習時の動作を示す処理フロー
【図20】 実施例2の学習時の動作を示す処理フロー
図(図19の続き)
【図21】 実施例2の推論時の動作のフローの例を示
す図
【図22】 特願平4−175056号のネットワーク
型情報処理システムの学習システムの機能ブロック図
【符号の説明】
11,12,13,14…第1層のノード(入力ノー
ド)、105,106,107,108…第2層のノー
ド、109,110,111…第3層のノード、112
…出力合成部。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 浜谷 和彦 東京都渋谷区神南一丁目15番8号 兼仲ビ ル4階 株式会社アドイン研究所内 (72)発明者 渡辺 正明 東京都渋谷区神南一丁目15番8号 兼仲ビ ル4階 株式会社アドイン研究所内 (72)発明者 上石 陽一 東京都渋谷区神南一丁目15番8号 兼仲ビ ル4階 株式会社アドイン研究所内

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 複数の第1のノードと、複数の第2のノ
    ードと、前記の第1のノードと第2のノードを結合する
    非線形の選択型関数特性を持つ方向性リンクとを備えた
    ネットワーク型情報処理システムにおいて、 各第2のノードに対し予め定義された固有の出力値と第
    2のノードの出力値とに基づいて合成出力値を求める出
    力合成手段を設けたことを特徴とするネットワーク型情
    報処理システム。
  2. 【請求項2】 前記出力合成手段は、合成に用いる第2
    のノードを所定の選択方式により選択した後、合成出力
    を求めるものであることを特徴とする請求項1記載のネ
    ットワーク型情報処理システム。
  3. 【請求項3】 前記各第2のノードに予め定義された固
    有の出力値は、等差数列あるいは等比数列に従った値を
    割当てたものであることを特徴とする請求項1記載のネ
    ットワーク型情報処理システム。
  4. 【請求項4】 前記請求項1記載のネットワーク型情報
    処理システムにおいて、そのネットワーク型情報処理シ
    ステムの出力の誤差を出力する少なくとも一つの第2の
    ネットワーク型情報処理システムを付加したことを特徴
    とするネットワーク型情報処理システム。
  5. 【請求項5】 複数の第1のノードと、複数の第2のノ
    ードと、前記の第1のノードと第2のノードを結合する
    非線形の選択型関数特性を持つ方向性リンクと、各第2
    のノードに対し予め定義された固有の出力値と第2のノ
    ードの出力値とに基づいて合成出力値を求める出力合成
    手段とを備えたネットワーク型情報処理システムの学習
    方法であって、 出力教示データとして連続値を与え、その教示データに
    応じて一つまたは複数の第2のノードを選択し、教示デ
    ータの値を所定の配分方式に従って配分し、その配分さ
    れた値を教示データとする個々の第2のノードに対する
    学習処理を行うことを特徴とするネットワーク型情報処
    理システムの学習方法。
  6. 【請求項6】 前記配分方式は、入力された前記連続値
    に対して数値的に両側に位置する第2のノードの離散値
    に対して、線形補間により配分するものであることを特
    徴とする請求項5記載のネットワーク型情報処理システ
    ムの学習方法。
  7. 【請求項7】 複数の第1のノードと、複数の第2のノ
    ードと、前記第1のノードと第2のノードを結合する非
    線形の選択型関数特性を持つ方向性リンクとを備えたネ
    ットワーク型情報処理システムにおいて、 各第2のノードに対し定義される出力値を非線形の選択
    型関数として有し、前記定義される出力値と第2のノー
    ドの出力値を反映した連続値で表される1以上の合成出
    力値を得る機能を持つ第2のネットワーク型情報処理シ
    ステムを付加したことを特徴とするネットワーク型情報
    処理システム。
  8. 【請求項8】 複数の第1のノードと、複数の第2のノ
    ードと、前記第1のノードと第2のノードを結合する非
    線形の選択型関数特性を持つ方向性リンクとを備えたネ
    ットワーク型情報処理システムに、各第2のノードに対
    し定義される出力値を非線形の選択型関数として有し、
    前記定義される出力値と第2のノードの出力値を反映し
    た連続値で表される1以上の合成出力値を得る機能を持
    つ第2のネットワーク型情報処理システムを付加したネ
    ットワーク型情報処理システムにおいて、第2のネット
    ワーク型処理システムの学習を行い、その学習結果によ
    り、第1のネットワーク型処理システムにおける学習対
    象の第2のノードを選択することを特徴とするネットワ
    ーク型情報処理システムの学習方法。
JP34999992A 1992-12-03 1992-12-03 ネットワーク型情報処理システムとその学習方法 Expired - Lifetime JP3476211B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34999992A JP3476211B2 (ja) 1992-12-03 1992-12-03 ネットワーク型情報処理システムとその学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34999992A JP3476211B2 (ja) 1992-12-03 1992-12-03 ネットワーク型情報処理システムとその学習方法

Publications (2)

Publication Number Publication Date
JPH06176001A true JPH06176001A (ja) 1994-06-24
JP3476211B2 JP3476211B2 (ja) 2003-12-10

Family

ID=18407550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34999992A Expired - Lifetime JP3476211B2 (ja) 1992-12-03 1992-12-03 ネットワーク型情報処理システムとその学習方法

Country Status (1)

Country Link
JP (1) JP3476211B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004192584A (ja) * 2002-12-13 2004-07-08 Adoin Kenkyusho:Kk 遺伝的アルゴリズムを用いた、ネットワーク型情報処理システムとその学習装置、学習方法及び学習方法のプログラムを記録した記録媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02100757A (ja) * 1988-10-07 1990-04-12 Ricoh Co Ltd 並列ニューラルネットワーク学習方式
JPH02292602A (ja) * 1989-05-02 1990-12-04 Nkk Corp 人工神経回路網型ファジィ制御装置
JPH03271806A (ja) * 1990-03-20 1991-12-03 Fujitsu Ltd ファジィ制御器
JPH041824A (ja) * 1990-04-19 1992-01-07 Adoin Kenkyusho:Kk 動的推論パターン生成システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02100757A (ja) * 1988-10-07 1990-04-12 Ricoh Co Ltd 並列ニューラルネットワーク学習方式
JPH02292602A (ja) * 1989-05-02 1990-12-04 Nkk Corp 人工神経回路網型ファジィ制御装置
JPH03271806A (ja) * 1990-03-20 1991-12-03 Fujitsu Ltd ファジィ制御器
JPH041824A (ja) * 1990-04-19 1992-01-07 Adoin Kenkyusho:Kk 動的推論パターン生成システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004192584A (ja) * 2002-12-13 2004-07-08 Adoin Kenkyusho:Kk 遺伝的アルゴリズムを用いた、ネットワーク型情報処理システムとその学習装置、学習方法及び学習方法のプログラムを記録した記録媒体

Also Published As

Publication number Publication date
JP3476211B2 (ja) 2003-12-10

Similar Documents

Publication Publication Date Title
Lucca et al. Improving the Performance of Fuzzy Rule-Based Classification Systems Based on a Nonaveraging Generalization of CC-Integrals Named $ C_ {F_1F_2} $-Integrals
Stanley et al. Efficient reinforcement learning through evolving neural network topologies
Meybodi et al. New learning automata based algorithms for adaptation of backpropagation algorithm parameters
Lin et al. A self-adaptive neural fuzzy network with group-based symbiotic evolution and its prediction applications
CN113573322B (zh) 基于改进遗传算法的多目标区域传感器网络覆盖优化方法
Khan et al. Evolution of Optimal ANNs for Non-Linear Control Problems using Cartesian Genetic Programming.
Mao et al. Adaptive-tree-structure-based fuzzy inference system
Li et al. An algorithm for extracting fuzzy rules based on RBF neural network
JP3043539B2 (ja) ニューラル・ネットワーク
JP3476211B2 (ja) ネットワーク型情報処理システムとその学習方法
Dhahri et al. Hierarchical learning algorithm for the beta basis function neural network
Van Tinh et al. A new method for forecasting enrolments combining time-variant fuzzy logical relationship groups and K-means clustering
Chen et al. A new method to generate fuzzy rules from relational database systems for estimating null values
Srivastava et al. Choquet fuzzy integral based modeling of nonlinear system
Hurtado et al. Reliability assessment of structural systems using neural networks
JP2860057B2 (ja) ニューラルネットワークシステム
JP3310009B2 (ja) ニューラルネットワークシステム
JP4696529B2 (ja) 多層ニューラルネットワーク装置とそのソフトウェア
Lee et al. Inductive learning of fuzzy rule-based classifier with self-constructing clustering
Li et al. Design of a two-stage fuzzy classification model
Chen et al. Rough set-based incremental learning approach to face recognition
JP5011529B2 (ja) データ処理装置、データ処理方法及びプログラム
Attia et al. Modeling Nonlinear Systems by a Fuzzy Logic Neural Network Using Genetic Algorithms
Pal et al. Forecasting of a Partially Fuzzy Time Series using Genetic Algorithm
Ciaramella et al. Fuzzy relational neural network for data analysis

Legal Events

Date Code Title Description
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100926

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110926

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120926

Year of fee payment: 9