JP3476211B2 - Network type information processing system and its learning method - Google Patents

Network type information processing system and its learning method

Info

Publication number
JP3476211B2
JP3476211B2 JP34999992A JP34999992A JP3476211B2 JP 3476211 B2 JP3476211 B2 JP 3476211B2 JP 34999992 A JP34999992 A JP 34999992A JP 34999992 A JP34999992 A JP 34999992A JP 3476211 B2 JP3476211 B2 JP 3476211B2
Authority
JP
Japan
Prior art keywords
output
node
nodes
value
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP34999992A
Other languages
Japanese (ja)
Other versions
JPH06176001A (en
Inventor
健 中村
俊秀 藤巻
和彦 浜谷
正明 渡辺
陽一 上石
Original Assignee
日本政策投資銀行
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本政策投資銀行 filed Critical 日本政策投資銀行
Priority to JP34999992A priority Critical patent/JP3476211B2/en
Publication of JPH06176001A publication Critical patent/JPH06176001A/en
Application granted granted Critical
Publication of JP3476211B2 publication Critical patent/JP3476211B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、制御システム、信号処
理システムなどの連続値出力を伴う分野に有用なネット
ワーク構造を有する情報処理システムおよびその学習シ
ステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing system having a network structure and a learning system thereof useful in fields involving continuous value output such as control systems and signal processing systems.

【0002】[0002]

【従来の技術】高度な情報処理機能を実現するための従
来の技術の一つとして、情報処理を行う構造が人間の脳
の神経細胞をモデルとしたニューラルネットワークがあ
る(例えば、Cohen,Feigenbaum著、
「人工知能ハンドブック」共立出版社発行、p487−
493、 甘利外、特集「ニューラルネットワークに
ついて」,人工知能学会誌,Vol.4,pp118−
176(1989))。従来のニューラルネットワーク
技術においては、入出力の精度は、基本的には中間層の
ノードの数によって定まるため、精度を確保しようとす
るとデータ記述量が爆発的に増える場合が存在した。中
間層のノードを少なくした場合には、最終段の計算ユニ
ット出力が粗い段階的表現になったり、あるいは弁別で
きる種類が少なくなったりする。さらに識別すべき結果
の数(出力ノード数に等しい)に応じて、中間層のノー
ド数と出力ノードが増加してゆく。そのため、計算ユニ
ットを物理的に構成することも困難であるし、同時に計
算処理時間の上からも問題となることが多かった。推論
した結果を出力する度に、結果の良否判断を行ってしき
い値や重み値を確率的に更新して行くなどの学習機能が
備わっている場合には、学習時間がさらに大きな問題と
なっていた。また、従来技術においては、学習の対象と
なるシステム内部の処理記述が基本的にはリンクの重み
という形で表現され、概念的な具体性を持たないため、
学習の結果を外部(即ち、入出力データ)からしか判定
できないという問題があった。
2. Description of the Related Art As one of conventional techniques for realizing advanced information processing functions, there is a neural network whose information processing structure is modeled on nerve cells of the human brain (for example, by Cohen and Feigenbaum). ,
"Artificial Intelligence Handbook" published by Kyoritsu Publisher, p487-
493, Amari et al., Special Feature "About Neural Networks", Journal of Japan Society for Artificial Intelligence, Vol. 4, pp118-
176 (1989)). In the conventional neural network technology, since the input / output accuracy is basically determined by the number of nodes in the middle layer, the data description amount may increase explosively when trying to ensure the accuracy. When the number of nodes in the middle layer is reduced, the output of the calculation unit at the final stage becomes a coarse stepwise expression, or the types that can be discriminated are reduced. Further, the number of nodes in the middle layer and the number of output nodes increase according to the number of results to be identified (equal to the number of output nodes). Therefore, it is difficult to physically configure the calculation unit, and at the same time, there are many problems in terms of calculation processing time. If the learning function is provided such that each time the inferred result is output, the quality of the result is judged and the threshold value and weight value are updated stochastically, the learning time becomes an even greater problem. Was there. Further, in the prior art, since the processing description inside the system to be learned is basically expressed in the form of link weight and has no conceptual concreteness,
There is a problem that the learning result can be determined only from the outside (that is, input / output data).

【0003】本願の特許出願人は先に、以上のような従
来の技術の諸問題を解決するための発明について、特許
出願をした(特願平3−310082号「ネットワーク
型情報処理システム」)。この特願平3−310082
号の発明のネットワーク型情報処理システムは、複数の
ノードを有する入力層と複数のノードを有する出力層が
方向性リンクを介して結合され、その方向性リンクは通
過する情報の変換をする情報変換機能を有し、前記出力
層のノードは方向性リンクを介して入力される情報に対
して関数演算を行う機能を有するネットワーク型情報処
理システムにおいて、上記の方向性リンクの情報変換機
能として、帯域通過型あるいは帯域阻止型のような選択
的な特性をもつフィルタ関数に従って情報変換を行うフ
ィルタ関数演算部を有するものである。これによれば、
一つの方向性リンクのフィルタ関数は、従来のニューラ
ルネットワークの複数の中間層が実現していた超平面に
対応し、また、入力層と出力層とを結合する方向性リン
クが作り出す領域指定は、上記従来技術の入力層と中間
層と出力層の組合せリンクとノードからなる複数の超平
面が示す領域指定に対応する。従って、上記ネットワー
ク型情報処理システムの発明は、従来のニューラルネッ
トワークに比べ、同一の精度を得るのに必要な記述量が
少なくなり、要素の数か少なくなって構成が簡単となる
とともに、処理時間を短縮することができる。そのネッ
トワーク型情報処理システムにおける学習方式は、前記
ネットワーク型情報処理システムが入力情報から方向性
リンクと計算ユニットを通して情報処理を行うのと平行
して、同じ入力情報から正常な情報処理結果を得る手段
を有し、その正常な結果を教師信号として、教師信号と
上記の情報処理結果(計算ユニットの出力)との差異
(誤差)を評価関数によって求め、その差異の大小やベ
クトル値を算出し、学習関数を介して、方向性リンクの
フィルタ関数を修正する学習手段を有する。ここで、正
常な情報処理結果を得る手段とは、例えば、入力情報と
それに対応する正しい出力情報を対比させた教師情報を
予め用意しておき、入力情報が与えられたとき、正しい
出力情報を取り出すように構成したものである。
The patent applicant of the present application has previously filed a patent application for an invention for solving the above-mentioned problems of the prior art (Japanese Patent Application No. 3-310082 "Network type information processing system"). . This Japanese Patent Application No. 3-310082
In the network type information processing system according to the invention of No. 1, an input layer having a plurality of nodes and an output layer having a plurality of nodes are coupled via a directional link, and the directional link converts information passing therethrough. In the network-type information processing system having a function, and the node of the output layer has a function of performing a function operation on information input via a directional link, the information conversion function of the directional link has a bandwidth. It has a filter function operation unit for performing information conversion according to a filter function having a selective characteristic such as a pass type or a band stop type. According to this
The filter function of one directional link corresponds to the hyperplane realized by a plurality of intermediate layers of the conventional neural network, and the area specification created by the directional link connecting the input layer and the output layer is This corresponds to the area designation indicated by a plurality of hyperplanes each consisting of a combination link of the input layer, the intermediate layer, and the output layer and a node in the above-mentioned conventional technique. Therefore, according to the invention of the network type information processing system, the amount of description required to obtain the same accuracy is reduced as compared with the conventional neural network, the number of elements is reduced, the configuration is simplified, and the processing time is reduced. Can be shortened. The learning method in the network type information processing system is a means for obtaining a normal information processing result from the same input information while the network type information processing system processes information from input information through a directional link and a calculation unit. And the normal result as a teacher signal, the difference (error) between the teacher signal and the above information processing result (output of the calculation unit) is obtained by an evaluation function, and the magnitude of the difference and the vector value are calculated, It has a learning means for modifying the filter function of the directional link via the learning function. Here, as the means for obtaining a normal information processing result, for example, teacher information prepared by comparing input information with correct output information corresponding thereto is prepared in advance, and when input information is given, correct output information is obtained. It is configured to be taken out.

【0004】その後、本願の特許出願人は、特願平3−
310082号の発明における学習処理を改良するため
に、さらに特許出願をした(特願平4−175056号
「ネットワーク型情報処理装置の学習システム」)。そ
の概要は次の通りである。そのネットワーク型情報処理
装置は、複数の入力ノードと、複数の出力ノードと、前
記入力ノードと出力ノードを結合する方向性リンクとを
有する。その方向性リンクは非線形の選択型関数である
フィルタ関数を記憶するフィルタ関数記憶手段(図22
のパターンテーブル2213)と、方向性リンクを通過
する情報を前記フィルタ関数により変換をするフィルタ
関数演算手段(図22の2212)を有する。また、前
記出力ノードは方向性リンクを介して入力される情報に
対して関数演算を行う手段(図22の加算部2214、
しきい関数演算部2215)を有する。このネットワー
ク型情報処理装置(図22の221)の学習システム
は、学習用のデータを前記ネットワーク型情報処理装置
に入力する入力手段(図22のフィルタ関数演算部22
2)と、入力された学習用データの示す領域が、既存の
認識領域に含まれるか否かを判定する領域判定手段(図
22の領域判定部223)と、その領域判定手段により
前記既存の認識領域に含まれると判定された場合に、そ
の既存の認識領域を形成するフィルタ関数のセットにお
ける各フィルタ関数を個別に更新するフィルタ関数更新
手段(図22のフィルタ関数更新部224)と、前記領
域判定手段により前記既存の認識領域に含まれないと判
定された場合に、新たな認識領域を形成するフィルタ関
数のセットを生成するフィルタ関数生成手段(図22の
フィルタ関数生成部225)とを備えた基本構成を有す
る。既存の認識領域とは、既存のフィルタ関数のセット
により限定される領域のことである。
After that, the patent applicant of the present application filed Japanese Patent Application No. 3-
In order to improve the learning process in the invention of No. 310082, a patent application was further filed (Japanese Patent Application No. 4-175056 "Learning system for network type information processing device"). The outline is as follows. The network type information processing device has a plurality of input nodes, a plurality of output nodes, and a directional link connecting the input nodes and the output nodes. The directional link has a filter function storing means (FIG. 22) for storing a filter function which is a non-linear selection type function.
Pattern table 2213) and filter function calculation means (2212 in FIG. 22) for converting the information passing through the directional link by the filter function. Further, the output node is a means for performing a function operation on the information input via the directional link (adding unit 2214 in FIG. 22,
It has a threshold function computing unit 2215). The learning system of this network type information processing apparatus (221 in FIG. 22) is an input means (filter function calculation unit 22 of FIG. 22) for inputting learning data to the network type information processing apparatus.
2), a region determination unit (region determination unit 223 in FIG. 22) that determines whether the region indicated by the input learning data is included in the existing recognition region, and the region determination unit determines the existing region. Filter function updating means (filter function updating unit 224 in FIG. 22) for individually updating each filter function in the set of filter functions forming the existing recognition region when it is determined to be included in the recognition region; And a filter function generating unit (filter function generating unit 225 in FIG. 22) that generates a set of filter functions forming a new recognition region when the region determination unit determines that the region is not included in the existing recognition region. It has a basic configuration. The existing recognition area is an area defined by an existing set of filter functions.

【0005】上記の基本構成において、領域判定手段
は、入力データが示す領域(多次元領域における空間座
標)が、ネットワーク型情報処理装置の既存のフィルタ
関数セットが限定する認識領域に属するか否かを判定す
る。フィルタ関数更新手段は、その判定の結果、前記認
識領域に属するものであるとき、その認識領域に対応す
るフィルタ関数セットの各々のフィルタ関数を、ネット
ワーク型情報処理装置の目的に合うように、個別に更新
する。前記認識領域に属さないと判定されたときは、フ
ィルタ関数生成手段により新たな認識領域を設定する。
これにより、同じ階層にあるフィルタ関数のセットが多
次元の領域を軸方向に非対象に切り取るように認識領域
を分離できる。従って、自然に大小の認識領域が生成さ
れ、境界領域に小さなルールが生成されので、認識率が
高まる。
In the above basic configuration, the area determining means determines whether the area (spatial coordinates in the multidimensional area) indicated by the input data belongs to the recognition area limited by the existing filter function set of the network type information processing apparatus. To judge. As a result of the determination, the filter function update means, when the filter function update means belongs to the recognition area, individually sets each filter function of the filter function set corresponding to the recognition area so as to meet the purpose of the network type information processing apparatus. To update. When it is determined that the recognition area does not belong to the recognition area, a new recognition area is set by the filter function generating means.
As a result, the recognition regions can be separated so that a set of filter functions in the same layer cuts a multidimensional region in the axial direction asymmetrically. Therefore, large and small recognition areas are naturally generated, and small rules are generated in the boundary area, so that the recognition rate is increased.

【0006】[0006]

【発明が解決しようとする課題】前記先の出願の発明の
ネットワーク型情報処理システムは、基本的には、ある
特定の出力に対する多連続値入力の対応関係を記述する
ものである。従ってその出力は離散的なものであり、そ
のままでは連続値出力を得ることができない。そこで、
本発明は、前記先の出願の発明を拡張し、多連続値入力
と連続値出力の関係記述することのできるネットワーク
型情報処理システムとその学習方法を提供することを目
的とするものである。また、本発明は、高速に動作し、
少数の入出力の組から学習を収束させることのできるネ
ットワーク型情報処理システムの学習方法を提供するこ
とを目的とするものである。
The network type information processing system of the invention of the above-mentioned application basically describes the correspondence relationship of a multi-continuous value input to a specific output. Therefore, the output is discrete, and continuous value output cannot be obtained as it is. Therefore,
An object of the present invention is to extend the invention of the above-mentioned application to provide a network type information processing system capable of describing the relationship between multiple continuous value inputs and continuous value outputs and a learning method thereof. The present invention also operates at high speed,
It is an object of the present invention to provide a learning method for a network type information processing system which can converge learning from a small number of input / output pairs.

【0007】[0007]

【課題を解決するための手段および作用】本発明は、複
数の第1のノード(図1の101〜104)と、複数の
第2のノード(図1の105〜108)と、前記の第1
のノードと第2のノードを結合する非線形の選択型関数
特性を持つ方向性リンクとを備えたネットワーク型情報
処理システムにおいて、入力値から演算された第2のノ
ードの出力値である合致度と、各第2のノードに対し予
め等差数列あるいは等比数列に従って定義された固有の
出力値とに基づいて合成出力値を求める出力合成手段
(図1の109〜112)を設けたネットワーク型情報
処理システムである。
According to the present invention, there are provided a plurality of first nodes (101 to 104 in FIG. 1), a plurality of second nodes (105 to 108 in FIG. 1), and the above-mentioned first node. 1
In a network-type information processing system including a directional link having a non-linear selective function characteristic connecting the second node and the second node, the second node calculated from the input value.
And the degree of matching, which is the output value of the node, for each second node.
A unique sequence defined according to the arithmetic or geometric sequence
Output combining means for obtaining a combined output value based on the output value is a network type information processing system in which a (109 to 112 in FIG. 1).

【0008】前記各第2のノードに予め定義された固有
の出力値は、第2のノードのそれぞれに対応して、それ
を合成して出力するときに用いる値である。本発明の一
態様では、その値は、等差数列あるいは等比数列に従っ
た値を各第2のノードに対応して割当てたものである。
例えば等差数列に従って、10個の第2のノードに順に
割当てると、その出力値は0,0、0.1、0.2、
0.3、・・・・0.7、0.8、0.9、1.0のよ
うに設定される。合成出力値は、選択された第2のノー
ドの出力値(合致度)とそのノードに対応する前記定義
された固有の出力値に基づいて合成される。例えば、選
択された第2のノードの合致度を加重として、前記定義
された固有の出力値を加重平均する。
The unique output value defined in advance in each of the second nodes is a value to be used when combining and outputting the corresponding second node. In one aspect of the present invention, the value is a value according to a geometric progression or a geometric progression assigned to each second node.
For example, according to the arithmetic sequence, when the 10 second nodes are sequentially assigned, the output values thereof are 0, 0, 0.1, 0.2,
It is set as 0.3, ..., 0.7, 0.8, 0.9, 1.0. The combined output value is combined based on the output value (matching degree) of the selected second node and the defined unique output value corresponding to the node. For example, with the degree of matching of the selected second node as a weight, the defined unique output values are weighted and averaged.

【00】このネットワーク型情報処理システムに対する
学習は、出力教示データとして連続値を与え、その教示
データに応じて一つまたは複数の第2のノードを選択
し、教示データの値を所定の配分方式に従って配分し、
その配分された値を教示データとする個々の第2のノー
ドに対する学習処理(即ち、選択型関数であるフィルタ
関数の変更など)を行う。
In the learning for this network type information processing system, a continuous value is given as output teaching data, one or a plurality of second nodes are selected according to the teaching data, and the value of the teaching data is distributed in a predetermined manner. According to
Learning processing (that is, change of the filter function which is a selection type function, etc.) is performed for each second node using the distributed value as teaching data.

【0009】前記配分方式は、本発明の一態様によれば
入力された前記連続値に対して数値的に両側に位置する
第2のノードの離散値に対して、線形補間により配分す
るものである。
According to an aspect of the present invention, the allocation method allocates the discrete values of the second nodes numerically located on both sides of the input continuous value by linear interpolation. is there.

【0010】このように学習されたネットワーク型情報
処理システムは、多連続値入力と多連続値出力の関係が
記述されたものとなる。なお、本明細書において、入力
または出力の「連続値」とは、多値で離散的ではない連
続量、例えば制御系における速度や流量などのアナログ
量をセンサによって検出しデジタル値に変換した場合の
ような連続量とみなせる多値をとり得るものである。従
って、本発明によれば、固有の出力値(離散値)をもつ
複数の第2のノードを設定し、その固有の出力値を合致
度に基づき合成するようにしたので、連続値の出力が可
能となる。
The network type information processing system learned as described above describes the relationship between multi-continuous value input and multi-continuous value output. In the present specification, the term “continuous value” of input or output refers to a case where a multivalued non-discrete continuous quantity, for example, an analog quantity such as speed or flow rate in a control system is detected by a sensor and converted into a digital value. It is possible to take multiple values that can be regarded as continuous quantities such as. Therefore, according to the present invention, a plurality of second nodes having unique output values (discrete values) are set, and the unique output values are combined on the basis of the degree of matching. It will be possible.

【0011】また、本発明は、上述のネットワーク型情
報処理システムにおいて、そのネットワーク型情報処理
システム(図17のNetB)の出力の誤差を出力する
少なくとも一つの第2のネットワーク型情報処理システ
ム(図17をのNetB)を付加した態様とすることが
できる。この態様においては、1出力に対して複数のネ
ットワーク型処理システムを用い、一方のネットワーク
型情報システムの出力と教示された出力の誤差を、第2
のネットワーク型情報システムの出力として学習を行う
ことにより、精度的な向上をはかることがてきる。
Further, according to the present invention, in the above-mentioned network type information processing system, at least one second network type information processing system (FIG. 17) for outputting an error of the output of the network type information processing system (NetB in FIG. 17). It is possible to adopt a mode in which Net B) of 17 is added. In this mode, a plurality of network type processing systems are used for one output, and the error between the output of one network type information system and the taught output is
It is possible to improve accuracy by learning as the output of the network type information system.

【0012】また、本発明は、複数の第1のノードと、
複数の第2のノードと、前記第1のノードと第2のノー
ドを結合する非線形の選択型関数特性を持つ方向性リン
クとを備えたネットワーク型情報処理システム(図18
の181)において、各第2のノードに対し定義される
出力値を非線形の選択型関数として有し、前記定義され
る出力値と第2のノードの出力値を反映した連続値で表
される1以上の合成出力値を得る機能を持つ第2のネッ
トワーク型情報処理システム(図18の182)を付加
した構成とすることができる。その学習においては、第
2のネットワーク型処理システムの学習を行い、その学
習結果により、第1のネットワーク型処理システムにお
ける学習対象の第2のノードを選択する。そしてその選
択された第2のノードに関し、パターンセットの生成変
更を行う。具体例によれば、学習時に入出力データの入
力が行われると、その教示出力データを入力情報とする
パターンテーブルに対しての教示を行う。高い合致度を
示すパターンセットがあれば、そのパターンセットと対
をなすネットワーク型情報処理システム(図18の18
1)のパターンテーブルを選択し、教示を行う。この発
明の態様においては、出力合成手段にネットワーク型情
報処理システムを用いたので、複数出力が可能となり、
また出力の精度の向上が期待できる。
The present invention also includes a plurality of first nodes,
A network type information processing system including a plurality of second nodes and a directional link having a non-linear selective function characteristic that connects the first node and the second node (FIG. 18).
181) of the above, has an output value defined for each second node as a non-linear selection type function, and is represented by a continuous value reflecting the output value defined above and the output value of the second node. A second network type information processing system (182 in FIG. 18) having a function of obtaining one or more combined output values can be added. In the learning, the second network type processing system is learned, and the second node to be learned in the first network type processing system is selected according to the learning result. Then, for the selected second node, generation / change of the pattern set is performed. According to the specific example, when input / output data is input during learning, teaching is performed on the pattern table having the teaching output data as input information. If there is a pattern set showing a high degree of matching, a network type information processing system (18 in FIG. 18) paired with the pattern set is provided.
Select the pattern table of 1) and teach. In the aspect of the present invention, since the network type information processing system is used as the output synthesizing means, it is possible to output a plurality of data.
Further, improvement of output accuracy can be expected.

【0013】[0013]

【実施例】ネットワーク型情報処理装置の学習は、基本
的には多入力、1出力の未知の系Mがあり、この入出力
は可観測であるとして、この入出力から系Mと等価な特
性を有する系Bを得ることである。未知の系が、多入力
−多出力の系の場合には、多入力−1出力に対応した上
記系Bを複数用意することにより対応することができ
る。実施例1 図1は本発明の実施例1によるネットワーク型情報処理
装置の構成の概略を示す図である。これは4入力1出力
の場合を示すものである。なお、出力が2になれば同様
のネットワークが2つ並列で構成される。このネットワ
ーク型情報処理装置は、図1に示すように第1層の複数
のノード11,12,13,14と、第2層の複数のノ
ード105,106,107,108と、第3層の複数
のノード109,110,111が方向性リンクにより
接続され、ネットワークを構成している。第3層の出力
にはそれらの出力を合成する出力合成部112が接続さ
れている。第1層の各ノードは、多連続入力I0〜I3
第2層の各ノードへの方向性リンクに分配するものであ
る。各入力は多連続入力である。本明細書において、入
力または出力の「多連続」とは、前述のとおり多値で離
散的ではない連続量、例えば制御系における速度や流量
などのアナログ量をセンサによって検出しデジタル値に
変換した場合のような多値をとり得るものである。第1
層と第2層のノードの間を結合する方向性リンクはフィ
ルタ関数(メンバーシップ関数)MF00〜MF33と重み
00〜w33とからなっている。
[Embodiment] Learning of a network type information processing device basically has an unknown system M with multiple inputs and one output, and assuming that this input / output is observable, a characteristic equivalent to the system M from this input / output. To obtain system B having In the case where the unknown system is a multi-input-multi-output system, it can be dealt with by preparing a plurality of the systems B corresponding to multi-input-1 output. Embodiment 1 FIG. 1 is a diagram showing a schematic configuration of a network type information processing apparatus according to Embodiment 1 of the present invention. This shows the case of 4 inputs and 1 output. If the output becomes 2, two similar networks are configured in parallel. As shown in FIG. 1, this network type information processing apparatus includes a plurality of nodes 11, 12, 13, 14 of a first layer, a plurality of nodes 105, 106, 107, 108 of a second layer, and a plurality of nodes of a third layer. A plurality of nodes 109, 110, 111 are connected by directional links to form a network. An output combining unit 112 that combines the outputs of the third layer is connected to the output of the third layer. Each node in the first layer distributes multiple continuous inputs I 0 to I 3 into directional links to each node in the second layer. Each input is a multi-continuous input. In the present specification, “multi-continuous” of input or output is a multi-valued non-discrete continuous quantity as described above, for example, an analog quantity such as speed or flow rate in a control system is detected by a sensor and converted into a digital value. It can be multi-valued as in the case. First
The directional links connecting the layers and the nodes of the second layer are composed of filter functions (membership functions) MF 00 to MF 33 and weights w 00 to w 33 .

【0014】第2層の各ノード105〜108は、接続
された各方向性リンクのフィルタ関数の出力値VMF00
MF33とそれに対応する重みw00〜w33を用いて、加重
平均あるいは加重相乗平均の演算を行う。例えば、ノー
ド105の出力値VPS0は、加重平均および加重相乗平
均は、それぞれ下記の式で表される。加重加算平均の場
合、 VPS0={(VMF00)×w00+・・・+(VMF30)×w
30}/(w00+w01+・・+w03) 加重相乗平均の場合、 VPS0={(VMF00w00×・・・×(VMF30w30
1/(w00+w01+・・+w03)
The nodes 105 to 108 of the second layer respectively output the output values V MF00 to VMF00 of the filter function of each directional link connected thereto.
The weighted average or the weighted geometric average is calculated using the V MF33 and the weights w 00 to w 33 corresponding thereto. For example, as for the output value V PS0 of the node 105, the weighted average and the weighted geometric average are expressed by the following equations, respectively. In the case of the weighted averaging, V PS0 = {(V MF00 ) × w 00 + ··· + (V MF30) × w
30} / (w 00 + w 01 + ·· + w 03) when the weighted geometric mean, V PS0 = {(V MF00 ) w00 × ··· × (V MF30) w30}
1 / (w00 + w01 + ... + w03)

【0015】第3層の各ノード109〜111は、最大
値を残すMax演算を行う。例えばノード109の出力
値VPT0は次式で表される。 VPT0=Max{VPS0,VPS1
Each of the nodes 109 to 111 in the third layer performs a Max operation that leaves the maximum value. For example, the output value V PT0 of the node 109 is expressed by the following equation. V PT0 = Max {V PS0, V PS1}

【0016】出力合成部112は、第3層のノードから
の出力VPT0〜VPT2を合成して連続値の出力値を得るも
のである。連続値を得るために、第3層のノードからの
出力に対し、異なる設定出力値が割当てられている。そ
の設定出力値の割当方法としては、次のようなもの間が
ある。 a) 等差数列による設定 系Mの出力の値域が、0.0〜1.0のとき、第3層の
ノードを11個設定し、各々の設定出力値を下記のよう
に設定する。 O0 0.0 O1 0.1 O2 0.2 ・・ ・・ O5 0.2 ・・ ・・ O10 1.0 b) 等比数列による設定 O0 0.5 O1 0.25 O2 0.125 ・・ ・・ O5 (0.5)6 ・・ ・・ O10 (0.5)11
The output synthesizing unit 112 synthesizes the outputs V PT0 to V PT2 from the nodes of the third layer to obtain continuous output values. Different set output values are assigned to the outputs from the layer 3 nodes in order to obtain continuous values. The method of allocating the set output value includes the following. a) When the output range of the setting system M based on the arithmetic progression is 0.0 to 1.0, 11 nodes of the third layer are set, and each set output value is set as follows. O 0 0.0 O 1 0.1 O 2 0.2 ··· · O 5 0.2 ··· · · O 10 1.0 b) Setting by geometric progression O 0 0.5 O 1 0.25 O 2 0.125 ··· · O 5 (0.5) 6 ··· · O 10 (0.5) 11

【0017】図2は図1に示すネットワーク型情報処理
装置のネットワークのリンク上のフィルタ関数MFと重
みwを表形式で表現したものである。図において台形の
波形201〜216はフィルタ関数MFを表し、その台
形波形の高さは重みwが乗じてあるため異なっている。
パターンセットPS0〜PS3はそれぞれ第2層のノード
105〜108に対応し、パターンテーブルPT0〜P
2は出力層(第3層)のノード109〜111に対応
している。
FIG. 2 is a table representation of the filter function MF and weight w on the network link of the network type information processing apparatus shown in FIG. In the figure, trapezoidal waveforms 201 to 216 represent filter functions MF, and the heights of the trapezoidal waveforms are different because they are multiplied by the weight w.
The pattern sets PS 0 to PS 3 respectively correspond to the nodes 105 to 108 of the second layer, and the pattern tables PT 0 to P T.
T 2 corresponds to the nodes 109 to 111 of the output layer (third layer).

【0018】図3は、図1における演算を行う部分の構
成例を示すブロック図である。図3に示すノードは、各
方向性リンクにおける、入力情報を選択的に通過させる
フィルタ関数の演算を行うフィルタ関数演算部31〜3
4と、フィルタ関数演算部31〜34の出力を重み付け
した加算平均処理を行う加算部35と、その加算部35
の出力にしきい演算を施すしきい関数演算部36からな
っている。
FIG. 3 is a block diagram showing an example of the configuration of the portion for performing the calculation shown in FIG. The node illustrated in FIG. 3 is a filter function calculation unit 31 to 3 that performs a calculation of a filter function that selectively passes input information in each directional link.
4, an adder unit 35 that performs addition and averaging processing by weighting the outputs of the filter function operation units 31 to 34, and the adder unit 35.
Of the threshold value calculation unit 36 for performing a threshold calculation on the output of the.

【0019】フィルタ関数は、図4に示すように、入力
ノードに与えられた入力情報の値(入力値)を横軸にと
り合致度を縦軸にしたグラフにおいて不等辺の台形の形
状を持つメンバーシップ関数(ファジィメンバーシップ
関数)が用いられる。メンバーシップ関数は、最大合致
度を得る入力の中心の値である中心値c、合致度vが得
られる入力値の許容範囲を中心値cからの左および右へ
の幅であらわす左分散値vlおよび右分散値vr、最大合
致度が得られる入力値の許容範囲を中心値cからの幅で
示した曖昧度aによって記述される。フィルタ関数演算
部31〜34は、メンバーシップ関数の演算即ち入力値
sを合致度vに変換するものである。入力値sを合致度
vに変換する式は次にように表することができる。 v=0.0{s≦(c−vl)または(c+vr)≦s} v=1.0{(c−a)≦sかつs≦(c+a)} v=((vl−a)−(c−a−s))/(v−a) {(c−vl)≦sかつs≦(c−a)} v=((vr−a)−(s−c−a))/(v−a) {(c+a)≦sかつs≦(c+vr)}
As shown in FIG. 4, the filter function is a member having a trapezoidal shape of unequal sides in a graph in which the horizontal axis represents the value (input value) of the input information given to the input node and the vertical axis represents the degree of matching. A ship function (fuzzy membership function) is used. The membership function is the center value c which is the center value of the input that obtains the maximum matching score, and the left variance value v that represents the allowable range of the input value that obtains the matching score v as the width from the center value c to the left and right. It is described by l and the right variance value v r , and the ambiguity a which shows the allowable range of the input value at which the maximum matching degree is obtained by the width from the central value c. The filter function calculation units 31 to 34 are for calculating the membership function, that is, converting the input value s into the matching degree v. An equation for converting the input value s into the matching degree v can be expressed as follows. v = 0.0 {s ≦ (c−v l ) or (c + v r ) ≦ s} v = 1.0 {(c−a) ≦ s and s ≦ (c + a)} v = ((v l −a ) - (c-a-s )) / (v-a) {(c-v l) ≦ s and s ≦ (c-a)} v = ((v r -a) - (s-c-a )) / (v-a) {(c + a) ≦ s and s ≦ (c + v r) }

【0020】加算部35は、フィルタ関数演算部31〜
34により算出した出力を総合するために加算平均演算
を行う。本実施例では各メンバーシップ関数による入力
情報I0〜Iiの合致度v1j〜vijに重みを乗じた値を総
合して総合合致度を求める。総合合致度算出の方法は前
述のように種々考えられるが、本実施例においては、加
重加算平均を用いる。
The adder 35 includes filter function calculators 31 to 31.
An arithmetic mean calculation is performed in order to integrate the outputs calculated by 34. In the present embodiment obtains an overall matching degree by comprehensively a value obtained by multiplying the weight to the matching degree v 1j to v ij of input information I 0 ~I i by each membership function. Although various methods of calculating the total degree of coincidence can be considered as described above, the weighted addition average is used in the present embodiment.

【0021】以上のような構成によるネットワーク型情
報処理装置による学習の動作について説明する。系に対
する入出力データの入力が行われると、まず出力データ
を解析し、出力ノードを一定数(1〜N個)選択し、同
時に各出力ノード(=パターンテーブル)に対する教示
の強さを決定する。次にパターンテーブルにおいては、
入力データと上記のように決定された教示の強さを教師
データとして、パターンの変更処理を実行する。図5
は、その学習時の動作の概要を示す処理フロー図であ
る。図1および図2に示すネットワーク型情報処理装置
を用い、パターンテーブルPT、PT、PTに定
義された出力値OPT0、OPT1、OPT2をそれぞ
れ、0.0、1.0、2.0と仮定する。
A learning operation by the network type information processing apparatus having the above-mentioned configuration will be described. When input / output data is input to the system, first, the output data is analyzed, a fixed number (1 to N) of output nodes are selected, and at the same time, the strength of teaching for each output node (= pattern table) is determined. . Next, in the pattern table,
The pattern changing process is executed using the input data and the teaching strength determined as described above as the teacher data. Figure 5
[Fig. 6] is a process flow diagram showing an outline of an operation at the time of learning. Using the network type information processing apparatus shown in FIGS. 1 and 2, output values O PT0 , O PT1 , and O PT2 defined in the pattern tables PT 0 , PT 1 , and PT 2 are respectively 0.0 , 1.0, and Assume 2.0.

【0022】(ステップS51)入力I0〜I3をそれぞ
れ第1層のノード101〜104に入力すると共に、教
示出力値Ot(例えば、0.7)を入力する。
(Step S51) Inputs I 0 to I 3 are input to the nodes 101 to 104 of the first layer, respectively, and a teaching output value O t (for example, 0.7) is input.

【0023】(ステップS52)どのパターンテーブル
PTを教示対象とするかを選択する。例えば、前記のよ
うに教示出力値Otとして0.7が入力された場合に
は、0.7は区間(0.0, 1.0)に存在するの
で、パターンテーブルPT0、PT1を選択する。
(Step S52) Which pattern table PT is selected as a teaching target is selected. For example, when 0.7 is input as the teaching output value O t as described above, since 0.7 exists in the section (0.0, 1.0), the pattern tables PT 0 and PT 1 are set. select.

【0024】(ステップS53)選択されたパターンテ
ーブルに定義された出力値OPT0、OPT1と入力された教
示出力値Otを基に教示強さを決定する。例えば、線形
配分によってパターンテーブルPT0に対する教示強さ
を0.3とし、パターンテーブルPT1に対する教示強
さを0.7とする。
(Step S53) The teaching intensity is determined based on the output values O PT0 and O PT1 defined in the selected pattern table and the input teaching output value O t . For example, the teaching strength for the pattern table PT 0 is set to 0.3 and the teaching strength for the pattern table PT 1 is set to 0.7 by linear distribution.

【0025】(ステップS54)入力データI0〜I3
用いて、選択されたパターンテーブルPT0、PT1の出
力値(合致度)を算出する。即ち、図1のノード10
5、106における演算により、それらの出力値
PS0、VPS1を求め、更にそれらのVPS0、VPS1からノ
ード109における演算VPT0=Max{VPS0
PS1}により出力値VPT0を求める。また、ノード10
7における演算によりその出力値VPS2を求め、ノード
110における演算VPT1=VPS2により出力値VPT1
求める。
(Step S54) Using the input data I 0 to I 3 , the output values (coincidence) of the selected pattern tables PT 0 and PT 1 are calculated. That is, the node 10 of FIG.
By the operation on the 5,106, their calculated output value V PS0, V PS1, further operation of the node 109 from their V PS0, V PS1 V PT0 = Max {V PS0,
The output value V PT0 is obtained from V PS1 }. Also, the node 10
Searching for the output value V PS2 by the operation on 7, obtaining the output value V PT1 by calculating V PT1 = V PS2 at node 110.

【0026】(ステップS55)ステップS54で算出
したパターンテーブルPT0、PT1の出力値について、
一つずつ以下の処理を行う。この例では、まずVPT0
関して処理を行い、次にVPT1について処理を行う。
(Step S55) With respect to the output values of the pattern tables PT 0 and PT 1 calculated in step S54,
The following processing is performed one by one. In this example, processing is performed first for V PT0 and then for V PT1 .

【0027】(ステップS56)出力値VPT0を評価す
るために、その出力値VPT0とパターンセット拡張のた
めの閾値Vextと比較する。
[0027] To evaluate (step S56) the output value V PT0, is compared with a threshold value V ext for the output value V PT0 and the pattern set extension.

【0028】(ステップS57) ステップS56の比較の結果、出力値VPT0が、閾値
Vextより小さい(Vext>VPT0)ときは、出
力値VPT0と同じ合致度を持つパターンセットPS
(パターンテーブルPTの複数のパターンセットPS
0,PS1・・中で最大の合致度を得たパターンセット
PS)に対して学習処理を実施する。
(Step S57) When the output value V PT0 is smaller than the threshold value Vext (Vext> V PT0 ) as a result of the comparison in step S56, the pattern set PS having the same matching degree as the output value V PT0.
(A plurality of pattern sets PS of the pattern table PT 0
The learning process is performed on the pattern set PS which has the maximum matching degree among 0, PS1 ...

【0029】(ステップS58)ステップS56の比較
の結果、出力値VPT0が閾値Vextより大きい(Vext
<VPT0)ときは、パターンテーブルPT0に新規に
パターンセットを追加し、そのパターンセットに対して
学習処理を実施する。この例の場合には、パターンセッ
トPS4を生成し、パターンテーブルPT0に追加する。
(Step S58) As a result of the comparison in step S56, the output value V PT0 is larger than the threshold value V ext (Vext
<VPT0) time, add the pattern set new patterns table PT 0, performing the learning process for the pattern set. In the case of this example, the pattern set PS 4 is generated and added to the pattern table PT 0 .

【0030】次に、出力値VPT1について、ステップS
56〜S58の処理を行う。このようにして、前記選択
された教示対象パターンテーブルの処理がすべて終了し
たら、学習処理を終了する。
Next, for the output value V PT1 , step S
The processing of 56 to S58 is performed. In this way, when all the processes of the selected teaching target pattern table are completed, the learning process is completed.

【0031】ステップS57またはS58における選択
されたパターンセット、または生成されたパターンセッ
トに対する学習処理について、さらに詳細に説明する。
なお、この学習処理例として、本出願人が先に出願した
特願平特願平04−175056号「ネットワーク型情
報処理装置の学習システム」の明細書において開示した
フィルタ関数の変更方式を用いる。図22はその学習シ
ステムの機能ブロック図である。選択または生成された
パターンセットの学習のために教示データとして、図2
2に示すネットワーク型情報処理装置221に入力デー
タおよび教師データを入力し、パターンセットを構成す
る各次元のフィルタ関数を変更する。図6はフィルタ関
数の変更の処理フローを示すものである。教示信号とし
て入力するデータは、履歴バッファ2271に格納され
る(ステップS61)。履歴バッファ2271は一つの
パターンセット即ちルールに入力された各次元のデータ
を保持するもので、所定のM個の入力の履歴を蓄える容
量も持っている。各ルールに対応して履歴バッファが用
意され、各履歴バッファに入力されたデータをカウント
するカウンタ(図示せず)が設けられている。履歴バッ
ファ2271の入力データ数を数えるカウンタは、入力
されるごとにカウンタの値を1増加させる(ステップS
62)。次に、カウンタの値が1か否かを判定し(ステ
ップS63)、もし1であれば、フィルタ関数更新部2
24により次のようにフィルタ関数のパラメータを更新
する(ステップS64)。即ち、履歴データ数に応じて
更新方法を切り替えて更新を行う。なお、N:履歴デー
タ数(サンプリングデータ数)M:履歴バッファーサイ
ズX:初期入力データX:履歴データの最小値
:履歴データの最大値R:正規空間最小値R
正規空間最大値C:中心値A:曖昧度V:分散値とす
る。
The learning process for the selected pattern set or the generated pattern set in step S57 or S58 will be described in more detail.
As an example of this learning processing, the method of changing the filter function disclosed in the specification of Japanese Patent Application No. 04-175056 “Learning system for network type information processing apparatus” previously filed by the present applicant is used. FIG. 22 is a functional block diagram of the learning system. As learning data for learning the selected or generated pattern set, FIG.
Input data and teacher data are input to the network-type information processing device 221 shown in FIG. 2 to change the filter function of each dimension forming the pattern set. FIG. 6 shows a processing flow for changing the filter function. The data input as the teaching signal is stored in the history buffer 2271 (step S61). The history buffer 2271 holds data of each dimension input to one pattern set, that is, a rule, and also has a capacity of storing a history of a predetermined M number of inputs. A history buffer is prepared corresponding to each rule, and a counter (not shown) for counting the data input to each history buffer is provided. The counter that counts the number of input data of the history buffer 2271 increments the value of the counter by 1 each time it is input (step S
62). Next, it is determined whether or not the value of the counter is 1 (step S63). If it is 1, the filter function updating unit 2
The parameters of the filter function are updated by 24 as follows (step S64). That is, the update method is switched according to the number of history data to perform the update. N: number of history data (number of sampling data) M: history buffer size X 0 : initial input data X 1 : minimum value of history data X 2 : maximum value of history data R 1 : minimum value of normal space R 2 :
Normal space maximum value C: center value A: ambiguity V: variance value.

【0032】a)N=1の場合 C=X0 A=0 V=学習処理時の情報として設定 図7は設定されたフィルタ関数の例を示すものである。
更新方法指定部228は、カウンタの値の判定の結果、
2以上であった場合は、カウンタの値が所定の数Mを越
えているか否かを判定する(ステップS65)。その判
定の結果Mを越えていない場合は、フィルタ関数を次の
方法で更新する(ステップS66)。
A) In the case of N = 1 C = X 0 A = 0 V = Set as information in learning processing FIG. 7 shows an example of the set filter function.
The update method designating unit 228 determines whether the result of the counter value determination is
If it is 2 or more, it is determined whether or not the value of the counter exceeds a predetermined number M (step S65). If the result of the determination does not exceed M, the filter function is updated by the following method (step S66).

【0033】b)2<N<Mの場合 C=(X1+X2)/2 A=(X2−X1)/2 V=A+2A/N 図8は設定されたメンバーシップ関数の例を示すもので
ある。上述のa)およびb)の場合は、そもそも統計的
に意味を持たない少数のデータを対象としている場合で
あり、学習方法も統計的というよりは特に非の無い直観
的な手法に頼らざるを得ない。ファジィの特性を反映
し、データ捕捉と評価が確実であると判断できる手法の
一例である。
B) When 2 <N <M C = (X 1 + X 2 ) / 2 A = (X 2 −X 1 ) / 2 V = A + 2A / N FIG. 8 shows an example of the set membership function. It is shown. In the cases of a) and b) above, a small number of data that do not have statistical significance in the first place are targeted, and the learning method must rely on an intuitive non-intuitive method rather than statistically. I don't get it. This is an example of a method that can judge that data capture and evaluation are reliable by reflecting the characteristics of fuzzy.

【0034】ステップS65の判定の結果、カウンタの
値が履歴バッファの数を越えている場合には、次に示す
ような統計処理により変更する(ステップS67)。な
お、統計処理により設定する方法は、本出願人の出願に
よる特願平3−310082号「ネットワーク型情報処
理システム」の明細書に開示されている方法を用いるこ
とができる。 c) 統計処理による変更 ある一定の観測期間中に、入力されたデータでかつ該当
するパターンに合致したものを集計し母集団とする。図
10は入力されたデータの量子化のレベルZを横軸と
し、各レベルに対するデータの発生回数Gを縦軸にと
り、データの発生分布の例を示すグラフの例である。な
お、Gcは入力データのノイズ成分等を除去するための
カットオフレベルである。母集団に含まれる要素の数が
一定の数に達した所でフィルタ関数更新部224は、フ
ィルタ関数であるメンバーシップ関数の変更操作を行
う。その母集団より下記の手順に従ってメンバーシップ
関数を導出する。
If the result of determination in step S65 is that the value of the counter exceeds the number of history buffers, it is changed by the statistical processing as described below (step S67). As the method of setting by statistical processing, the method disclosed in the specification of Japanese Patent Application No. 3-310082 “Network type information processing system” filed by the present applicant can be used. c) Changes due to statistical processing During a certain observation period, the input data that matches the relevant pattern is aggregated and used as the population. FIG. 10 is an example of a graph showing an example of a data generation distribution in which the horizontal axis represents the quantization level Z of input data and the vertical axis represents the number G of data generations for each level. Note that G c is a cutoff level for removing noise components and the like of the input data. When the number of elements included in the population reaches a certain number, the filter function updating unit 224 performs a changing operation of the membership function which is a filter function. A membership function is derived from the population according to the following procedure.

【0035】図9はメンバーシップ関数のパラメータ抽
出処理のフロー図である。カットオフデータGcが出力
データ指定として設定されているか否かを判定する(ス
テップ91)。カットオフレベルGcが設定されていれ
ば、各量子化レベルZiごとにカットオフレベルを差し
引いた値を求めることにより分布データを操作する(ス
テップ92)。即ち、Zi−Gcを求め、新たなZiとす
る。図10の入力データ分布をカットオフレベルGc
処理した結果を図11に示す。上記のカットオフレベル
以下のデータを切り捨てる演算処理がZの量子化レベル
のすべてについて終了するまで行われる。そのために、
各量子化レベルの演算終了ごとに、全ての量子化レベル
について終了したか否かの判定をする(ステップ9
3)。全ての量子化レベルについて終了したときはステ
ップ94に移る。また、ステップ91の判定によりカッ
トオフレベルが設定されていなかったときもステップ9
4に進む。
FIG. 9 is a flow chart of the membership function parameter extraction processing. It is determined whether or not the cutoff data G c is set as the output data designation (step 91). If the cutoff level G c is set, the distribution data is manipulated by obtaining a value obtained by subtracting the cutoff level for each quantization level Z i (step 92). That is, Z i −G c is obtained and set as a new Z i . FIG. 11 shows the result of processing the input data distribution of FIG. 10 at the cutoff level G c . The arithmetic processing for truncating the data below the cutoff level is performed until all the quantization levels of Z are completed. for that reason,
Each time the calculation of each quantization level is completed, it is judged whether or not all the quantization levels are completed (step 9).
3). When all the quantization levels have been completed, the process proceeds to step 94. Also, if the cutoff level is not set by the determination in step 91, step 9
Go to 4.

【0036】分布データの平均値正規化座標値Zmを求
める(ステップ94)。 Zm=Σ(Zi×Gi)/ΣGi ただし、Σはi=0からi=nまでの総和を表すものと
する。 平均値正規化座標値Zmからマイナス側、プラス側それ
ぞれ独立に標準偏差値Sl,Srを求める(ステップ9
5)。ステップ94で求めた平均値正規化座標値Zm
よびステップ95で求めたマイナス側標準偏差値Sl
プラス側標準偏差値Srを基に次のような正規化座標値
を求める(ステップ96)。即ち、平均値正規化座標値
mを中心に、図12に示すように、マイナス側標準偏
差値Slの1倍(注*)の正規化座標値ZL1、マイナス
側標準偏差値Slの3倍(注*)の正規化座標値ZL2
プラス側標準偏差値Srの1倍(注*)の正規化座標値
R1、プラス側標準偏差値Srの3倍(注*)の正規化
座標値ZR2、(注*:この値は条件によって変更され
る)をそれぞれ求める。
Average value of distribution data Normalized coordinate value ZmSeeking
(Step 94). Zm= Σ (Zi× Gi) / ΣGi However, Σ represents the total sum from i = 0 to i = n
To do. From the averaged normalized coordinate value Zm, the minus side and the plus side
Standard deviation value S independentlyl, Sr(Step 9
5). Average value normalized coordinate value Z obtained in step 94mOh
And the standard deviation value S on the negative side obtained in step 95l
Positive standard deviation SrNormalized coordinate values based on
Is calculated (step 96). That is, the average value normalized coordinate value
ZmAs shown in Fig. 12, centering on the
Difference value SlNormalized coordinate value Z which is 1 times (Note *)L1,minus
Side standard deviation value SlNormalized coordinate value Z of 3 times (*)L2,
Positive standard deviation SrNormalized coordinate value of 1 times (*)
ZR1, Plus standard deviation SrNormalization of 3 times (*)
Coordinate value ZR2, (Note *: This value may change depending on conditions.
Each).

【0037】図13に示すような正規化中心値Cs,正
規化曖昧度Vas,正規化分散値Vls,Vrsをそれぞれ次
式により求める(ステップ97)。 正規化中心値 Cs=(ZL1+ZR1)/2 正規化曖昧度 Vas=(ZR1-L1)/2 正規化左分散値 Vls=Cs-L2 正規化右分散値 Vrs=ZR2-s 次に、正規化中心値Cs,正規化曖昧度Vas,正規化左
分散値Vls,正規化右分散値Vrsをそれぞれ逆正規化し
て、中心値C,曖昧度Va,左分散値Vl,右分散値Vr
求める(ステップ98)。学習による変更前の元のメン
バーシップ関数と、前述の図9に示す処理フローにより
生成したメンバーシップ関数とを用いて新しい(1回学
習後の)メンバーシップ関数を生成する。
The normalized center value C s , the normalized ambiguity V as , and the normalized variance values V ls , V rs as shown in FIG. 13 are obtained by the following equations (step 97). Normalized center value C s = (Z L1 + Z R1 ) / 2 Normalized ambiguity V as = (Z R1- Z L1 ) / 2 Normalized left variance value V ls = C s- Z L2 Normalized right variance value V rs = Z R2- C s Next, the normalized center value C s , the normalized ambiguity V as , the normalized left variance value V ls , and the normalized right variance value V rs are denormalized to obtain the central value C, Ambiguity V a , left variance V l , right variance V r
(Step 98). A new membership function (after one-time learning) is generated by using the original membership function before the change by learning and the membership function generated by the processing flow shown in FIG. 9 described above.

【0038】図14は、本実施例においてメンバーシッ
プ関数を変更する方法(学習関数)を示す図である。同
図において、元の(現在の)メンバーシップ関数は点P
1,P2,P3,P4を結ぶ直線群(太線)により示され、
図9により求めた一定期間のサンプリングから得られた
データ分布に基づくメンバーシップ関数は点P1 '
2 ',P3 ',P4 'を結ぶ直線群(破線)により示され、
これらのメンバーシップ関数を基に新しく生成されるメ
ンバーシップ関数は点P1 ",P2 ",P3 ",P4 "を結ぶ直
線群(細線)により示されている。各4点の座標をP
(s,v)、P'(s',v')、P"(s",v")とす
る。 v"=v'=v s"=(1.0−g)×s+g×s' ただし、0.0≦g≦1.0 各4点のゲイン値gは独立に設定可能とする。
FIG. 14 shows the membership table in this embodiment.
It is a figure which shows the method (learning function) of changing the loop function. same
In the figure, the original (current) membership function is the point P
1, P2, P3, PFourIndicated by a straight line group (thick line) connecting
Obtained from sampling for a certain period of time calculated from FIG.
The membership function based on the data distribution is point P1 '
P2 ', P3 ', PFour 'Indicated by a group of straight lines (broken line) connecting
Newly generated methods based on these membership functions
The intersection function is point P1 ", P2 ", P3 ", PFour "Straight tie
It is indicated by a group of lines (thin lines). P coordinates of each 4 points
(S, v), P'(S', V'), P"(S", V")
It v"= V'= V s"= (1.0-g) xs + gxs' However, 0.0 ≦ g ≦ 1.0 The gain value g at each of the four points can be set independently.

【0039】各点のゲイン値の設定によって、同じ観測
データによっても、メンバーシップ関数の変更結果は異
なる。図15は、ゲインの決めかたにより変更結果がど
のように変わるかを示すものである。図15(a)は、
現在のメンバーシップ関数(細い実線)と一定期間のサ
ンプリングから得られた分布に基づくメンバーシップ関
数(破線)を示す。同図(b)は、各点のゲイン値gを
0.5としたときに生成されるメンバーシップ関数(太
い実線)を示す。また、同図(c)は、点P1のゲイン
値g=0、他の点のゲイン値g=0.5とした場合を示
し、同図(d)は、曖昧度(P2とP3間の距離)を変え
ず、底辺拡張方向のゲイン値g=1.0、かつ底辺縮小
方向のゲイン値g=0とした場合を示す。入力信号源で
あるセンサの特性、学習の意図などによって、上記ゲイ
ン値を設定し、学習の方向性を変化させることが可能で
ある。
The result of changing the membership function varies depending on the same observation data depending on the setting of the gain value at each point. FIG. 15 shows how the change result changes depending on how to determine the gain. FIG. 15A shows
The current membership function (thin solid line) and the membership function based on the distribution obtained from sampling for a certain period (dashed line) are shown. FIG. 11B shows a membership function (thick solid line) generated when the gain value g at each point is set to 0.5. Further, FIG. 7C shows the case where the gain value g of the point P 1 is g = 0 and the gain value of the other points is g = 0.5, and FIG. 7D is the ambiguity (P 2 and P The distance between 3 ) is not changed and the gain value g in the base expanding direction is 1.0, and the gain value in the base contracting direction is g = 0. The gain value can be set and the directionality of learning can be changed according to the characteristics of the sensor that is the input signal source, the intention of learning, and the like.

【0040】ここで、教示出力ノードの選択に関して、
種々の変形例を含めて説明する。 a)線形補間 線形補間による方式は、等差数列により設定出力値を設
定する形態の場合(実施例1はこの場合に該当する)に
有効な方法である。等比数列により設定出力値を設定す
る形態の場合には、原理的に用いることはできない。線
形補間による方式には、次のような方式がある。等差数
列による設定の場合に、出力信号としてある指定値、例
えば0.13が入力されたとする。この場合、教示は設
定出力が前記指定値0.13の近傍にある2つの出力値
1,O2に対して実施することになる。また、この区間
0.1〜0.2における教師信号の位置によって、各出
力ノードに対する教示の強さを得る。この例において
は、線形補間を用いることによりO1に対しては0.7
の強さ、O2に対しては0.3の強さで教示する。
Here, regarding the selection of the teaching output node,
A description will be given including various modifications. a) Linear interpolation The linear interpolation method is an effective method in the case where the set output value is set by the arithmetic sequence (the first embodiment corresponds to this case). In the case of the form in which the set output value is set by the geometric progression, it cannot be used in principle. The linear interpolation method includes the following methods. It is assumed that a specified value, for example, 0.13 is input as an output signal in the case of setting by the arithmetic sequence. In this case, the teaching is carried out for two output values O 1 and O 2 whose set output is near the specified value 0.13. Further, the teaching intensity for each output node is obtained from the position of the teacher signal in this section 0.1 to 0.2. In this example, 0.7 is used for O 1 by using linear interpolation.
And a strength of 0.3 for O 2 .

【0041】b)選択的教示 出力の教師信号を基に特定の出力ノードを選択して教示
を行うものである。等差数列により固有の出力値を設定
する場合にも、上記a)の線形補間を用いないで、設定
出力値が教師信号の最も近傍にある出力ノードを選択し
て教示を行うようにすることができる。ただし、これは
あまり実際的ではない。この選択的教示方式は等比数列
による出力値の設定の場合に有効である。例えば、出力
信号として0.13が入力されたとする。教師信号より
も小さくかつ最も大きな設定出力値を持つ出力ノードを
選択する。この場合は、出力ノードはO2(0.12
5)である。次にこの差分を計算し(0.13−0.1
25=0.005)、同様にこの差分よりも小さく最も
大きな設定出力値を持つ出力ノードを選択する。この場
合は、O7(0.0039)である。同様の処理を繰り
返し、差分よりも小さい出力ノードがなくなるまで処理
を行う。このようにして選択された出力ノードに対し
て、強さ1.0で教示を行う。
B) The teaching is performed by selecting a specific output node based on the teacher signal of the selective teaching output. Even when a unique output value is set by the arithmetic sequence, the teaching is performed by selecting the output node whose set output value is the closest to the teacher signal without using the linear interpolation of a) above. You can However, this is not very practical. This selective teaching method is effective when the output value is set by a geometric progression. For example, assume that 0.13 is input as an output signal. An output node smaller than the teacher signal and having the largest set output value is selected. In this case, the output node is O 2 (0.12
5). Next, this difference is calculated (0.13-0.1
25 = 0.005), similarly, an output node smaller than this difference and having the largest set output value is selected. In this case, it is O 7 (0.0039). The same processing is repeated until the output nodes smaller than the difference do not exist. The output node selected in this way is taught with a strength of 1.0.

【0042】c) 出力配分関数 前述の線形補間の一般化として、出力区分間にあるデー
タを、出力ノードに配分する関数を考える。ここで、出
力区分間にあるデータとは、例えば、0.13のように
2つの出力値0.1と0.2の間の値のような、出力区
分間にあるデータを意味する。この配分関数は、各出力
ノード毎に定義してもよいが、通常は、各出力ノードで
共通のものを使う。この配分関数は、教示データ値と出
力ノード値の差の絶対値に基づいて、各PS毎に与えら
れる教示の強さを表す配分値を返す。なお、配分関数の
性格上1つのデータに対しては、配分値の総和は常に1
になるように設計する。一般の関数の場合は、関数出力
定義域が広くなれば、配分は2つより多くのノードがあ
るものである。
C) Output distribution function As a generalization of the above-mentioned linear interpolation, consider a function that allocates data between output sections to output nodes. Out here
Data between force categories is, for example, 0.13
Output range, such as a value between two output values 0.1 and 0.2
Means the data in minutes. This distribution function may be defined for each output node, but normally a common one is used for each output node. This distribution function is given for each PS based on the absolute value of the difference between the teaching data value and the output node value .
Returns a distribution value that indicates the strength of the taught instruction . Due to the nature of the distribution function, the sum of distribution values is always 1 for one piece of data.
Designed to be. For functions of general, if wider function output domain, the allocation is that there is more than two nodes.

【0043】次に、学習を終了した後のネットワーク型
情報処理装置の推論時の動作について説明する。入力デ
ータをネットワーク型情報処理装置の入力に与え、出力
ノードの出力値即ち条件部合致度を得る。各出力のノー
ドに定義されている固有の設定出力値を、上記出力ノー
ドの出力値(条件部合致度)によって加重平均し合成し
て系Bの出力とする。図16は本実施例における推論時
の動作例を示すフロー図である。 (ステップS161) 入力I〜Iをそれぞれ第1層のノード101〜10
4に入力する。 (ステップS162) 入力データを用いてPT,PT,PTの出力値
(合致度)を算出する。この例では、VPT0=Max
{VPSO,VPS1}=0.1、VPT1=VPS2
=0.6、VPT2=VPS3=0.9であったと仮定
する。 (ステップS163) 出力の存在する区間を決定する。例えば、近接する2つ
のパターンテーブルの合致度合計が最も高い組合せを選
択することにより区間を決定する。
Next, the operation of the network type information processing apparatus after the learning is completed at the time of inference will be described. The input data is given to the input of the network type information processing apparatus, and the output value of the output node, that is, the degree of condition part matching is obtained. The unique set output value defined in each output node is weighted and averaged by the output value ( conditional part matching degree) of the output node and combined to obtain the output of the system B. FIG. 16 is a flowchart showing an operation example at the time of inference in this embodiment. (Step S161) Inputs I 0 to I 3 are input to the nodes 101 to 10 of the first layer, respectively.
Enter in 4. (Step S162) The output values (coincidence) of PT 0 , PT 1 and PT 2 are calculated using the input data. In this example, V PT0 = Max
{V PSO , V PS1 } = 0.1, V PT1 = V PS2
= 0.6, V PT2 = V PS3 = 0.9. (Step S163) The section in which the output exists is determined. For example, the section is determined by selecting the combination having the highest total matching score of two adjacent pattern tables.

【0044】(ステップS164)合致度を基に、出力
値を合成する。例えば、それぞれのパターンテーブルP
Tに定義された出力値を、合致度を重みとして加重平均
することにより出力値の合成を行う。例の場合、出力値
0は、O0=1.0×0.6+2.0×0.9/(0.
6+0.9)となる。 (ステップS165)得られた出力を出力する。
(Step S164) The output values are combined based on the matching degree. For example, each pattern table P
The output values defined in T are weighted and averaged using the degree of matching as a weight to synthesize the output values. In the case of the example, the output value O 0 is O 0 = 1.0 × 0.6 + 2.0 × 0.9 / (0.
6 + 0.9). (Step S165) The obtained output is output.

【0045】上の説明では、推論時の出力合成の方法と
して、近接する2つのパターンテーブルPTの合致度合
計の高い組み合わせを選択するものであったが、この他
に以下のような各種の合成の仕方を採用することができ
る。 a) すべての出力ノードの設定出力値を合成する方法 この場合、出力ノードの合致度を加重として、設定出力
値を荷重平均する。
In the above description, as a method of output composition at the time of inference, a combination having a high total matching degree between two adjacent pattern tables PT is selected. Can be adopted. a) Method of synthesizing set output values of all output nodes In this case, the set output values are weighted averaged with the coincidence of the output nodes as a weight.

【0046】b) 特定の出力ノードを選択し設定出力
値を合成する方法 これには、例えば、 合致度が一定以上の出力ノードのみを選択する 合致度が上位N個までの出力ノードを選択する などがある。なお、設定出力値を等比数列によって設定
した場合は、論理的に矛盾を生じる可能性があるため、
原則としての方式をとることはできない。また、上記
方法の変形として次のような方法もある。 最大合致度の出力ノードと、その近傍2n点個(計
2n+1)のルールを選ぶ 近傍2n点個のノードの合致度の和が最大のノード
の組を用いる。
B) Method of selecting a specific output node and synthesizing the set output value. For this, for example, only output nodes having a certain degree of matching are selected. Output nodes having the highest degree of matching N are selected. and so on. Note that if the set output value is set by a geometric progression, logical inconsistency may occur, so
The principle method cannot be adopted. Further, there is the following method as a modification of the above method. Select the output node with the maximum degree of matching and the rule of 2n points in the vicinity (total 2n + 1) of rules. The set of nodes with the maximum sum of the degrees of matching of the nodes of the 2n points in the vicinity is used.

【0047】c) 学習時配分関数に対応した出力合成 合成するための出力ノードの選び方 論時は、分配時に使った出力ノードを使って出力値を
合成する。この場合、使用する出力ノードの決定方法と
しては、使用する出力ノードの合致度の総和が最大のも
のを選ぶのが自然である。あるいは、簡略的に最も合致
度の高い出力ノードに注目して、それを中心とする分配
ノードを採用することもできる。 合成出力値の算出
は、各出力ノードの出力値で加重平均をとる。
[0047] c) when Choosing inference output node for outputting the synthesis corresponding to the learning time allocation function combines the output value with an output node with the time of distribution. In this case, as the method of determining the output node to be used, it is natural to select the one having the maximum sum of the matching degrees of the output nodes to be used. Alternatively, it is also possible to simply pay attention to the output node having the highest degree of matching and adopt the distribution node having the output node as the center. The composite output value is calculated by weighted averaging the output values of the output nodes.

【0048】(実施例1の変形例)以上の実施例1は、
多入力−連続1出力を実現する処理系としては最もコン
パクトな実施形態を例示するものである。さらに精度な
どを向上させるために、次に説明する並列化や階層化を
行うことができる。
(Modification of First Embodiment) The first embodiment described above is
This is an example of the most compact embodiment as a processing system that realizes multi-input-continuous one-output. In order to further improve accuracy and the like, parallelization and hierarchization described below can be performed.

【0049】(並列化)多連続値入力−連続値1出力に
対応する形態としては、図1に示すのと同様な系(以
下、パターングループという)を複数用意する。(系B
0,・・・,系BN)各々のパターングループでは、学習
の特性(履歴バッファの大きさ、フィルタ関数の学習ゲ
イン値、重み変更のゲイン値など)を変えておき、各々
独立に学習処理を行わせる。系Bとしての出力は、各々
のパターングループの出力を合成することにより得られ
る。
(Parallelization) As a form corresponding to multiple continuous value input-one continuous value output, a plurality of systems (hereinafter referred to as pattern groups) similar to that shown in FIG. 1 are prepared. (System B
0 , ..., System B N ) In each pattern group, learning characteristics (size of history buffer, learning gain value of filter function, gain value of weight change, etc.) are changed and learning processing is performed independently. To perform. The output as the system B is obtained by combining the outputs of the respective pattern groups.

【0050】(階層化) 多入力?連続1出力に対応する形態としては、 図1に示
すのと同様な系(以下、パターングループという)を複
数用意する。(系B0,・・・,系BN)系B0では 、図
1に示すのと同様に、系Mの入出力をそのまま学習にも
ちいるが、系B0以外の系(パターングループ)では、
学習に用いる出力情報を系Mの出力としない。系B1で
は、系B0の出力と系Bの誤差を学習させるよう構成す
る。同様に、系B2は、系B0,B1の合成出力と、系M
との誤差を学習する。学習の段階としては、まず系B0
のみを学習させ、系Mとの誤差が一定値以下となるか、
誤差の減少が停止した時点で、系B0の学習を停止し、
系B0の特性を保存する。次に系B1の学習を開始する。
同様にして、次々に系Biを固定する。 つまり、「系
B」は、未知の系「系M」に入出力値を与え学習させた
既知の系である。
(Hierarchization) As a form corresponding to multi-input-continuous one output, a plurality of systems (hereinafter referred to as pattern groups) similar to those shown in FIG. 1 are prepared. (System B0, ..., System BN) In system B0, the input and output of system M are used for learning as they are, as in the case shown in FIG. 1, but in systems other than system B0 (pattern groups),
The output information used for learning is not the output of the system M. The system B1 is configured to learn the output of the system B0 and the error of the system B. Similarly, the system B2 is the combined output of the systems B0 and B1 and the system M2.
Learn the error between and. As the learning stage, firstly, the system B0
If only the error with the system M is less than a certain value,
When the reduction of the error is stopped, the learning of the system B0 is stopped,
Save the characteristics of system B0. Next, the learning of the system B1 is started.
Similarly, the systems Bi are fixed one after another. In other words, "system
“B” was trained by giving input / output values to the unknown system “system M”
It is a known system.

【0051】図17は、階層化の場合のネットワーク構
成例を示すもので、2入力1出力の場合の一例である。
上半分のネットワークNetAは、図1のネットワーク
型情報処理装置と同一の構成、同一の入出力を持つもの
である。下半分のネットワークNetBは、図1のネッ
トワーク型情報処理装置と同様の構成を有し、入力デー
タ自体はネットワークNetAと同じであるが、出力は
異なる。ネットワークNetAが出力をそのまま教示す
るのに対して、ネットワークNetBは、教示出力とネ
ットワークNetAの出力の差を教示する。要するにネ
ットワークNetBは、入力とNetAの誤差を学習す
る形態となる。推論の際は、ネットワークNetAの出
力OPG0からネットワークNetBの出力OPG1を減算す
る形となる。学習時の基本的な運用形態としては、概略
次のとおりである。 まず、ネットワークNetAのみで学習を行う。 ネットワークNetAの学習において、誤差がある
程度小さくなったらネットワークNetAの学習を停止
する。 ネットワークNetAの出力と教示出力の誤差によ
ってネットワークNetBの学習を行う。
FIG. 17 shows a network configuration example in the case of hierarchization, which is an example of a case of two inputs and one output.
The upper half network NetA has the same configuration and the same input / output as the network type information processing apparatus of FIG. The network NetB in the lower half has the same configuration as the network type information processing apparatus of FIG. 1, and the input data itself is the same as the network NetA, but the output is different. The network NetA teaches the output as it is, whereas the network NetB teaches the difference between the teaching output and the output of the network NetA. In short, the network NetB has a form in which the error between the input and NetA is learned. At the time of inference, the output O PG1 of the network NetB is subtracted from the output O PG0 of the network NetA. The basic operation mode during learning is as follows. First, learning is performed only by the network NetA. In the learning of the network NetA, when the error becomes small to some extent, the learning of the network NetA is stopped. The network NetB is learned by the error between the output of the network NetA and the teaching output.

【0052】実施例2 図18は実施例2によるネットワーク型情報処理装置の
構成をパターンテーブルの形式で示す図である。この実
施例2は、2つのネットワーク181と182からなっ
ており、左側のネットワーク181は図1および2に示
す実施例1のネットワークと同じ構成である。実施例1
と異なる点は次のとおりである。即ち、実施例1では、
各パターンテーブルPT0〜PT2の出力値OPT0〜
OPT2が固定的であったのに対して、実施例2では、
別のネットワーク182によって既述され可変である点
において相違する。
Embodiment 2 FIG. 18 is a diagram showing the configuration of a network type information processing apparatus according to Embodiment 2 in the form of a pattern table. The second embodiment is composed of two networks 181 and 182, and the network 181 on the left side has the same configuration as the network of the first embodiment shown in FIGS. Example 1
The difference from is as follows. That is, in Example 1,
Output value OPT0 of each pattern table PT0-PT2
While OPT2 was fixed, in Example 2,
The difference is that it has already been described by another network 182 and is variable.

【0053】以上のように構成された実施例2の学習時
に動作について図19および図20により説明する。出
力側のネットワーク182の学習を行い次に入力側のネ
ットワーク181の学習を行う。 (ステップS191)入力{I0,・・・・,I3}と教
示出力値{Ot0,Ot1}を入力する。
The operation at the time of learning of the second embodiment configured as described above will be described with reference to FIGS. 19 and 20. The output side network 182 is learned, and then the input side network 181 is learned. (Step S191) Inputs {I 0 , ..., I 3 } and teaching output values {O t0 , O t1 } are input.

【0054】(ステップS192)教示出力値{Ot0
t1}を用いて、ネットワーク182のパターンセット
PS’0,PS’1,PS’2の出力値(合致度)V
PS'0,VPS'1,VPS'2を算出する。
(Step S192) Teaching output value {O t0 ,
O t1 }, the output value (matching degree) V of the pattern set PS′0, PS′1, PS′2 of the network 182 is used.
PS'0 , VPS'1 and VPS'2 are calculated.

【0055】(ステップS193)算出した合致度のな
かで最大の合致度をもつパターンセットPSを選択す
る。この例ではVPS'0が最大であったと仮定する。
(Step S193) The pattern set PS having the highest matching score is selected from the calculated matching scores. In this example, assume that V PS'0 was the maximum.

【0056】(ステップS194)選択されたパターン
セットPS’0の合致度VPS'0を評価する。即ち、その
合致度VPS'0を選択されたパターンセットPS拡張のた
めの閾値((Vext)と比較し、Vext≧VPS’
0ならばステップS195へ、Vext<VPS’0な
らばステップS197へ進む。
(Step S194) The matching degree V PS'0 of the selected pattern set PS ' 0 is evaluated. That is, the matching degree V PS'0 is compared with a threshold value ((Vext) for expanding the selected pattern set PS, and Vext ≧ VPS '
If 0, the process proceeds to step S195, and if Vext <VPS'0, the process proceeds to step S197.

【0057】(ステップS195)ステップS194の
評価においてVext≧VPS’0であったなら、最大
合致度を得たパターンセットPS’0に対して学習処理
を実施する。この学習処理は、実施例1において図6よ
り図15を用いて詳述したパターンセットを構成する各
次元のフィルタ関数を変更する処理と同じ処理を行う。
(Step S195) If Vext ≧ VPS′0 in the evaluation of step S194, the learning process is performed on the pattern set PS ′ 0 having the maximum degree of matching. This learning process is the same as the process of changing the filter function of each dimension that forms the pattern set described in detail in the first embodiment with reference to FIGS. 6 to 15.

【0058】(ステップS196)入力側のネットワー
ク181の教示対象パターンテーブルPTをPT0(出
力側のネットワーク182の選択されたてパターンセッ
トPS’0と対応するパターンテーブルPT)とする。
ステップS199へ進む。
(Step S196) The teaching object pattern table PT of the input side network 181 is set to PT 0 (the pattern table PT corresponding to the selected new pattern set PS ′ 0 of the output side network 182).
Proceed to step S199.

【0059】(ステップS197)ステップS194の
評価においてVext<VPS’0であったときには、
出力側ネットワーク182に新規にパターンセットPS
を追加する。この例においてはPS’3を生成する。そ
して、そのパターンセットPS’3に対して学習処理を
実施する。この学習処理も、実施例1において図6より
図15を用いて詳述したパターンセットを構成する各次
元のフィルタ関数を変更する処理と同じ処理を行う。
(Step S197) When Vext <VPS'0 in the evaluation of step S194,
A new pattern set PS for the output side network 182
To add. In this example generates a PS '3. Then, the learning process is performed on the pattern set PS ′ 3 . This learning process also performs the same process as the process of changing the filter function of each dimension forming the pattern set described in detail in the first embodiment with reference to FIGS. 6 to 15.

【0060】(ステップS198)入力側のネットワー
ク181の教示対象パターンテーブルPTをPT0(P
S’0と接続されるPT)とする。ステップS199へ
進む。 (ステップS199)出力側学習処理を終了し、入力側
ネットワーク181の学習処理に移る。
(Step S198) Set the teaching target pattern table PT of the network 181 on the input side to PT 0 (P
And PT) which is connected to the S '0. Proceed to step S199. (Step S199) The output side learning process is terminated, and the input side network 181 learning process is started.

【0061】(ステップS200)入力データを用い
て、ステップS198で決定した学習対象PT0の出力
値(合致度を算出する)。
(Step S200) Using the input data, the output value of the learning target PT 0 determined in step S198 (the degree of matching is calculated).

【0062】(ステップS201)学習対象のパターン
テーブルの合致度VPT0を評価する。即ち、この合致度
PT0をパターンセットPSの拡張のための閾値(Ve
xt)と比較する。Vext≧VPT0ならばステップ
S202へ、Vext<VPT0ならばステップS20
3へ進む。
(Step S201) The matching degree V PT0 of the learning target pattern table is evaluated. That is, the matching degree V PT0 is set to the threshold value (Ve) for expanding the pattern set PS.
xt). If Vext ≧ VPT0, go to step S202. If Vext <VPT0, go to step S20.
Go to 3.

【0063】(ステップS202)ステップS201の
評価においてVext≧VPS’0であった場合に、V
PT0と同じ合致度を持つパターンセットPS0(最大
合致度を得たPS)に対して学習処理を実施する。この
学習処理も、実施例1において図6より図15を用いて
詳述したパターンセットを構成する各次元のフィルタ関
数を変更する処理と同じ処理を行う。ステップS204
へ進む。
(Step S202) If Vext ≧ VPS′0 in the evaluation of step S201, V
The learning process is performed on the pattern set PS 0 having the same degree of coincidence as PT0 (PS having the maximum degree of coincidence). This learning process also performs the same process as the process of changing the filter function of each dimension forming the pattern set described in detail in the first embodiment with reference to FIGS. 6 to 15. Step S204
Go to.

【0064】(ステップS203)ステップS194の
評価においてVext<VPS’0であったときには、
パターンテーブルPT0に新規にパターンセットPSを
追加する。この場合は、パターンセットPS4を生成し
パターンテーブルPT0に追加する。そのパターンセッ
トPS4に対して学習処理を実施する。この学習処理
も、実施例1において図6より図15を用いて詳述した
パターンセットを構成する各次元のフィルタ関数を変更
する処理と同じ処理を行う。 (ステップS204)学習を終了する。
(Step S203) When Vext <VPS'0 in the evaluation of step S194,
The pattern set PS is newly added to the pattern table PT0. In this case, the pattern set PS 4 is generated and added to the pattern table PT 0 . A learning process is performed on the pattern set PS 4 . This learning process also performs the same process as the process of changing the filter function of each dimension forming the pattern set described in detail in the first embodiment with reference to FIGS. 6 to 15. (Step S204) The learning ends.

【0065】次に、学習を終了した後のネットワーク型
情報処理装置の推論時の動作について説明する。図21
は本実施例における推論時の動作例を示すフロー図であ
る。 (ステップS211)入力I0〜I3をそれぞれ第1層の
ノードに入力する。 (ステップS212)入力データを用いてPT0,P
1,PT2の出力値(合致度)を算出する。この例で
は、VPT0=Max{VPSO,VPS1}=0.1、VPT1
PS2=0.6、VPT2=VPS3=0.9であったと仮定
する。 (ステップS213)前記算出した各合致度によってパ
ターンテーブルを選択する。例えば、合致度の降順に2
つのパターンテーブルのを選択する。この例の場合は、
選択されるパターンテーブルはPT1とPT2である。
Next, the operation of the network type information processing apparatus after inference at the time of inference will be described. Figure 21
FIG. 7 is a flow chart showing an operation example at the time of inference in this embodiment. (Step S211) Inputs I 0 to I 3 are input to the nodes of the first layer, respectively. (Step S212) PT 0 , P using the input data
The output values (coincidence) of T 1 and PT 2 are calculated. In this example, V PT0 = Max {V PSO , V PS1 } = 0.1, V PT1 =
Assume that V PS2 = 0.6 and V PT2 = V PS3 = 0.9. (Step S213) A pattern table is selected according to the calculated matching degrees. For example, 2 in descending order of match
Select from the two pattern tables. In this case,
The pattern tables selected are PT 1 and PT 2 .

【0066】(ステップS214)選択されたパターン
テーブルPT1とPT2に接続されるパターンセットのフ
ィルタ関数の中心値を仮の出力値とする。例えば、出力
0に対するその値が{O0PS'1,OPS'2}={1.0,
2.0}であったとする。
(Step S214) The central value of the filter function of the pattern set connected to the selected pattern tables PT 1 and PT 2 is set as the temporary output value. For example, its value for the output O 0 is {O 0PS'1 , OPS'2 } = {1.0,
2.0}.

【0067】(ステップ215)合致度を基に、出力値
を合成する。例えば、それぞれのパターンテーブルPT
に定義された出力値を、合致度を重みとして加重平均す
ることにより出力値の合成を行う。例の場合、出力値O
0は、O0=1.0×0.6+2.0×0.9/(0.6
+0.9)=1.6となる。 (ステップ216)得られた出力O0を出力する。出力
1に関してもS214〜S216の処理を同様に行
う。
(Step 215) The output values are combined based on the matching degree. For example, each pattern table PT
The output values defined in 1 above are weighted and averaged using the degree of matching as a weight to synthesize the output values. In the case of the example, the output value O
0 is O 0 = 1.0 × 0.6 + 2.0 × 0.9 / (0.6
+0.9) = 1.6. (Step 216) The obtained output O 0 is output. The processes of S214 to S216 are similarly performed for the output O 1 .

【0068】[0068]

【発明の効果】本発明によれば、多連続値入力と連続値
出力の関係を記述したネットワーク型情報処理装置を実
現することができる。また、高速に動作し少数の入出力
の組から学習を収束させることができる。
According to the present invention, it is possible to realize a network type information processing apparatus which describes the relationship between multiple continuous value inputs and continuous value outputs. In addition, it can operate at high speed and converge learning from a small number of input / output pairs.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の実施例1によるネットワーク型情報
処理装置の構成の概略を示す図
FIG. 1 is a diagram showing a schematic configuration of a network type information processing apparatus according to a first embodiment of the present invention.

【図2】 図1に示すネットワーク型情報処理装置をネ
ットワークのリンク上のフィルタ関数MFと重みwを表
形式で表現したパターンテーブルを示す図
FIG. 2 is a diagram showing a pattern table in which the network type information processing apparatus shown in FIG. 1 is represented in a tabular form by a filter function MF and a weight w on a network link.

【図3】 図1における演算を行う部分の構成例を示す
ブロック図
FIG. 3 is a block diagram showing a configuration example of a portion for performing calculation in FIG.

【図4】 ファジイメンバーシップ関数(フィルタ関
数)を説明するための図
FIG. 4 is a diagram for explaining a fuzzy membership function (filter function).

【図5】 学習時の動作の概要を示す処理フロー図FIG. 5 is a processing flow chart showing an outline of operations during learning.

【図6】 フィルタ関数の変更処理を示すフロー図FIG. 6 is a flowchart showing a filter function changing process.

【図7】 履歴データ数が1であるときに設定されるフ
ィルタ関数を示す図
FIG. 7 is a diagram showing a filter function set when the number of history data is 1.

【図8】13 履歴データ数が2以上でMより小さいと
きに設定されるフィルタ関数を示す図
FIG. 8 is a diagram showing a filter function set when the number of history data is 2 or more and less than M.

【図9】 メンバーシップ関数のパラメータ抽出処理の
フロー図
FIG. 9 is a flow chart of parameter extraction processing of membership function.

【図10】 入力されたデータの量子化のレベルZを横
軸とし、各レベルに対するデータの発生回数Gを縦軸に
とり、データの発生分布の例を示すグラフの例を示す図
FIG. 10 is a diagram showing an example of a graph showing an example of a data generation distribution in which the horizontal axis represents the quantization level Z of input data and the vertical axis represents the number of times G data is generated for each level.

【図11】 図10のデータの発生分布をカットオフG
cにより足切りした後のデータ分布を示す図
FIG. 11 is a cutoff G of the data generation distribution of FIG.
The figure which shows the data distribution after cutting off by c

【図12】 各正規化座標値の算出を説明するための図FIG. 12 is a diagram for explaining calculation of each normalized coordinate value.

【図13】 図10のデータ分布から得られたメンバー
シップ関数を示す図
13 is a diagram showing a membership function obtained from the data distribution of FIG.

【図14】 メンバーシップ関数を変更する基本的な方
法(学習関数)を説明するための図
FIG. 14 is a diagram for explaining a basic method (learning function) for changing a membership function.

【図15】 学習関数のゲインの決めかたによりメンバ
ーシップ関数の変更結果がどのように変わるかを示すも
のであり、(a)は、現在のメンバーシップ関数(細い
実線)と一定期間のサンプリングから得られた分布に基
づくメンバーシップ関数(破線)を示し、(b)は、各
点のゲイン値gを0.5としたときに生成されるメンバ
ーシップ関数(太い実線)を示し、(c)は、点P1の
ゲイン値g=0、他の点のゲイン値g=0.5とした場
合を示し、(d)は、曖昧度(P2とP3間の距離)を
変えず、底辺拡張方向のゲイン値g=1.0、かつ底辺
縮小方向のゲイン値g=0とした場合を示す
FIG. 15 shows how the result of changing the membership function changes depending on how to determine the gain of the learning function. (A) shows the current membership function (thin solid line) and sampling for a certain period. Shows a membership function (dashed line) based on the distribution obtained from, (b) shows a membership function (thick solid line) generated when the gain value g at each point is 0.5, and (c) ) Shows the case where the gain value of the point P1 is g = 0 and the gain value of the other points is g = 0.5, and (d) is the base extension without changing the ambiguity (distance between P2 and P3). Direction gain value g = 1.0 and bottom side reduction direction gain value g = 0 are shown.

【図16】 実施例1の推論時の動作のフローの例を示
す図
FIG. 16 is a diagram showing an example of an operation flow during inference according to the first embodiment.

【図17】 階層化の場合のネットワーク構成例を示す
図で、2入力1出力の場合の一例
FIG. 17 is a diagram showing an example of a network configuration in the case of hierarchization, which is an example of the case of two inputs and one output.

【図18】 パターンテーブルとして表した実施例2の
構成を示す図
FIG. 18 is a diagram showing a configuration of a second embodiment expressed as a pattern table.

【図19】 実施例2の学習時の動作を示す処理フロー
FIG. 19 is a processing flow chart showing an operation at the time of learning in the second embodiment.

【図20】 実施例2の学習時の動作を示す処理フロー
図(図19の続き)
FIG. 20 is a processing flow chart showing an operation at the time of learning in the second embodiment (continuation of FIG. 19).

【図21】 実施例2の推論時の動作のフローの例を示
す図
FIG. 21 is a diagram showing an example of the flow of operations during inference according to the second embodiment.

【図22】 特願平4−175056号のネットワーク
型情報処理システムの学習システムの機能ブロック図
FIG. 22 is a functional block diagram of a learning system of a network-type information processing system of Japanese Patent Application No. 4-175056.

【符号の説明】[Explanation of symbols]

11,12,13,14…第1層のノード(入力ノー
ド)、105,106,107,108…第2層のノー
ド、109,110,111…第3層のノード、112
…出力合成部。
11, 12, 13, 14 ... First layer nodes (input nodes), 105, 106, 107, 108 ... Second layer nodes, 109, 110, 111 ... Third layer nodes, 112
... Output synthesizer.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 浜谷 和彦 東京都渋谷区神南一丁目15番8号 兼仲 ビル4階 株式会社アドイン研究所内 (72)発明者 渡辺 正明 東京都渋谷区神南一丁目15番8号 兼仲 ビル4階 株式会社アドイン研究所内 (72)発明者 上石 陽一 東京都渋谷区神南一丁目15番8号 兼仲 ビル4階 株式会社アドイン研究所内 (56)参考文献 特開 平3−271806(JP,A) 特開 平2−100757(JP,A) 特開 平2−292602(JP,A) 特開 平4−1824(JP,A) 中野馨・他,「ニューロコンピュータ の基礎」,日本,株式会社コロナ社, 1990年 4月 5日,初版,pp.44− 47,ISBN:4−339−02276−4 中村健・他,「ファジィ演算による特 徴ベクトル検索」,第5回ファジィシス テムシンポジウム講演論文集,日本,国 際ファジィシステム学会日本支部,1989 年 6月 2日,pp.449−454 中村健・他,「知識コンパイル・パタ ーン型推論システム」,1989年度人工知 能学会全国大会(第3回)論文集,日 本,社団法人人工知能学会,1989年,p p.295−298 川村旭・他,「ニューロ・ファジィ融 合システム」,情報処理学会研究報告, 日本,社団法人情報処理学会,1991年 5月10日,Vol.91, No.36(91 −MIC−66),pp.1−8 (58)調査した分野(Int.Cl.7,DB名) G06N 1/00 - 7/08 G06G 7/60 G05B 13/00 - 13/04 JSTファイル(JOIS) CSDB(日本国特許庁)─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Kazuhiko Hamaya, 1-15-8, Jinnan, Shibuya-ku, Tokyo Ken Naka Building, 4th floor, within the Add-In Research Laboratory (72) Inventor Masaaki Watanabe 1-15, Jinnan, Shibuya-ku, Tokyo No. 8 Kannaka Building, 4th floor, Add-in Research Institute, Inc. (72) Inventor Yoichi Ueishi 1-15-8, Jinnan, Shibuya-ku, Tokyo, 4th Floor, Kannaka Building, Add-in Research Institute, Inc. (56) References 3-271806 (JP, A) JP 2-100757 (JP, A) JP 2-292602 (JP, A) JP 4-1824 (JP, A) Nakano Kaoru, et al. Basics, Japan, Corona Co., Ltd., April 5, 1990, first edition, pp. 44-47, ISBN: 4-339-02276-4 Ken Nakamura et al., "Characteristic Vector Search by Fuzzy Arithmetic", Proc. Of the 5th Fuzzy System Symposium, Japan, International Fuzzy System Society of Japan, 1989. June 2, pp. 449-454 Ken Nakamura et al., "Knowledge Compile Pattern Pattern Inference System," Proceedings of the 1989 National Congress of Artificial Intelligence (3rd), Japan, Japan Society for Artificial Intelligence, 1989, pp . 295-298 Asahi Kawamura et al., "Neuro-Fuzzy Fusion System", Information Processing Society of Japan, Research Report, Japan, Information Processing Society of Japan, May 10, 1991, Vol. 91, No. 36 (91-MIC-66), pp. 1-8 (58) Fields investigated (Int.Cl. 7 , DB name) G06N 1/00-7/08 G06G 7/60 G05B 13/00-13/04 JST file (JOIS) CSDB (Japan Patent Office )

Claims (7)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】複数の第1のノードと、第1のノードに
向性リンクを介して結合された複数の第2ノードと、第
2のノードに結合された出力合成手段とを有するネット
ワーク型情報処理システムであって、 前記方向性リンクは、非線形の選択型関数をフィルタ関
数として持ち、入力情報に対する前記非線形の選択型関
数の関数値を算出するフィルタ関数演算部を有し、 前記各第2のノードは、複数の前記方向性リンクのフィ
ルタ関数演算部からの出力を総合する演算を行って、そ
の第2のノードに結合された複数の方向性リンクの非線
形の選択型関数のセット(組)に対する入力情報の合致
度を算出する演算部を有し、 前記出力合成手段は、複数の第2のノードの出力する合
致度の大きさに基づく予め設定した選択規則により1以
上の第2のノードを選択し、その選択された第2のノー
ドの出力する合致度に基づいて、各第2のノードに対応
して予め定義された離散値である固有の出力値を合成し
て連続値である合成出力を得るものであることを特徴と
するネットワーク型情報処理システム。
1. A plurality of first nodes, square to the first node
A plurality of second nodes coupled via directional links,
A net having output combining means coupled to two nodes
A work-type information processing system, wherein the directional link filters a non-linear selective function.
A non-linear selection type function for input information.
A second filter function calculating unit for calculating a function value of the number of the directional links.
The output from the output function
Non-line of directional links connected to the second node of the
Matching input information for a set of shape-selective functions
An arithmetic unit for calculating a degree, the output combining unit outputs the plurality of second nodes if
1 or more according to a preset selection rule based on the degree of severity
Select the second node above and select the selected second node
Corresponds to each second node based on the match level output by
And combine the unique output values that are predefined discrete values
A network-type information processing system characterized in that a synthetic output that is a continuous value is obtained .
【請求項2】前記各第2のノードに予め定義された固有
の出力値は、等差数列あるいは等比数列に従った値を割
当てたものであることを特徴とする請求項1記載のネッ
トワーク型情報処理システム。
2. The network according to claim 1, wherein the predetermined unique output value is assigned to each of the second nodes according to a geometric progression or geometric progression. Type information processing system.
【請求項3】複数の第1のノードと、第1のノードに
向性リンクを介して結合された複数の第2ノードと、第
2のノードに結合された出力合成手段とを有するネット
ワーク型情報処理システムであって、 前記方向性リンクは、非線形の選択型関数をフィルタ関
数として持ち、入力情報に対する前記非線形の選択型関
数の関数値を算出するフィルタ関数演算部を有し、 前記各第2のノードは、複数の前記方向性リンクのフィ
ルタ関数演算部からの 出力を総合する演算を行って、そ
の第2のノードに結合された複数の方向性リンクの非線
形の選択型関数のセットに対する入力情報の合致度を算
出する演算部を有し、 前記出力合成手段は、複数の第2のノードの出力する合
致度の大きさに基づく予め設定した選択規則により1以
上の第2のノードを選択し、その選択された第2のノー
ドの出力する合致度に基づいて、各第2のノードに対応
して等差数列あるいは等比数列に従って予め定義された
離散値である固有の出力値を合成して連続値である合成
出力を得るネットワーク型情報処理システムにおいて、 出力教示データとして連続値を与え、その出力教示デー
タに応じて一つまたは複数の第2のノードを選択し、前
記出力教示データの値を、前記選択したノードに対応す
る前記固有の出力値に基づいて配分し、その配分された
値を教示データとする個々の第2のノードに対する学習
処理を行う学習手段を有することを特徴とするネットワ
ーク型情報処理システム。
3. A plurality of first nodes, square to the first node
A plurality of second nodes coupled via directional links ,
A net having output combining means coupled to two nodes
A work-type information processing system, wherein the directional link filters a non-linear selective function.
A non-linear selection type function for input information.
A second filter function calculating unit for calculating a function value of the number of the directional links.
The output from the output function
Non-line of directional links connected to the second node of the
The degree of matching of input information to a set of shape-selective functions
The output synthesizing means has a calculation unit for outputting the output of the plurality of second nodes.
1 or more according to a preset selection rule based on the degree of severity
Select the second node above and select the selected second node
Corresponds to each second node based on the match level output by
Pre-defined according to a geometric progression or geometric progression
Synthesize continuous output by combining discrete output values
In the network type information processing system to obtain output, given continuous values as output instruction data, selecting one or more second node in response to the output teaching data, the value of the output teaching data, the selection Corresponding to the node
A network-type information processing system, comprising: learning means for allocating based on the unique output value, and performing learning processing for each second node having the allocated value as teaching data.
【請求項4】前記配分は、入力された前記連続値が2つ
の離散値の間の値となるような第2のノードの2つの離
散値を選択し、線形補間により配分するものであること
を特徴とする請求項記載のネットワーク型情報処理シ
ステ
4. The distribution has two input continuous values.
Two separations of the second node such that the values are between the discrete values of
Select Chichi, network type information processing shea <br/> stearyl arm according to claim 3, characterized in that the distribution by linear interpolation.
【請求項5】複数の第1のノードと、第1のノードに
向性リンクを介して結合された複数の第2ノードと、第
2のノードに結合された出力合成手段とを有するネット
ワーク型情報処理システムであって、 前記方向性リンクは、非線形の選択型関数をフィルタ関
数として持ち、入力情報に対する前記非線形の選択型関
数の関数値を算出するフィルタ関数演算部を有し、 前記各第2のノードは、複数の前記方向性リンクのフィ
ルタ関数演算部からの出力を総合する演算を行って、そ
の第2のノードに結合された複数の第1の方向性リンク
の非線形の選択型関数のセットに対する入力情報の合致
度を算出する演算部を有し、 前記出力合成手段は、 第2のノードに対し定義される出力値を非線形の選択型
関数として有し、複数の第2のノードの出力する合致度
の大きさに基づく予め設定した選択規則により1以上の
第2のノードを選択し、その選択された第2のノードの
出力する合致度に基づいて、各第2のノードに対して定
義された非線形の選択型関数の中心値の値を合成して連
続値である合成出力を得るものであることを を特徴とす
るネットワーク型情報処理システム。
5. A plurality of first nodes, square to the first node
A plurality of second nodes coupled via directional links ,
A net having output combining means coupled to two nodes
A work-type information processing system, wherein the directional link filters a non-linear selective function.
A non-linear selection type function for input information.
A second filter function calculating unit for calculating a function value of the number of the directional links.
The output from the output function
First directional links coupled to a second node of the
Input information for a set of nonlinear selective functions of
The output synthesizing means has a non-linear selection type output value defined for the second node.
The degree of matching that is output as a function from a plurality of second nodes
1 or more according to preset selection rules based on the size of
Select the second node and select the second node
Based on the output degree of match, a constant is set for each second node.
The values of the central values of the defined nonlinear selective functions are synthesized and combined.
A network-type information processing system characterized by obtaining a synthetic output which is a continuous value .
【請求項6】複数の第1のノードと、第1のノードに方
向性リンクを介して結合された複数の第2ノードと、第
2のノードに結合された出力合成手段と、学習手段を有
するネットワーク型情報処理システムであって、 前記方向性リンクは、非線形の選択型関数をフィルタ関
数として持ち、入力情報に対する前記非線形の選択型関
数の関数値を算出するフィルタ関数演算部を有し、 前記各第2のノードは、複数の前記方向性リンクのフィ
ルタ関数演算部からの出力を総合して、その第2のノー
ドに結合された複数の第1の方向性リンクの非線形の選
択型関数のセットに対する入力情報の合致度を算出する
演算部を有し、 前記出力合成手段は、 前記第2のノードに接続された第3のノードと、前記各
第3のノードに接続された非線形の選択型関数を持つ第
2の方向性リンクと、第2の方向性リンクに接続された
複数の第4のノードを備え、推論時に、複数の第2のノ
ードの出力する合致度の大きさに基づく予め設定した選
択規則により1以上の第2のノードを選択し、その選択
された第2のノードの出力する合致度に基づいて、その
選択された第2のノードに対応する第3のノードに結合
された第2の方向性リンクに結合された第2の方向性リ
ンクの持つ非線形の選択型関数の中心値を合成して連続
値である合成出力を得るものであり、 前記学習手段は、 学習時に、教示信号として入力値と教示出力値を用い、
まず、前記出力合成手段中の第4ノードに教示出力値を
与え、前記第3のノードに接続された第2の方 向性リン
クの非線形の選択型関数のセットに対する学習処理を施
すと共に、学習対象の第2のノードを選択し、次に第1
のノードに前記教示信号である入力値を与え、前記選択
された第2のノードに結合された複数の第1の方向性リ
ンクの非線形の選択型関数のセットに対する学習を施す
ものであることを特徴とするネットワーク型情報処理シ
ステム。
6. A plurality of first nodes and a method for the first nodes
A plurality of second nodes coupled via directional links,
It has an output synthesizing means connected to two nodes and a learning means.
A network-type information processing system for controlling the non-linear selective function
A non-linear selection type function for input information.
A second filter function calculating unit for calculating a function value of the number of the directional links.
The output from the filter function operation unit is combined and the second node
Nonlinear selection of a plurality of first directional links coupled to the
Calculate the degree of matching of input information to a set of alternative functions
The output synthesizing means has a third node connected to the second node,
The first with a non-linear selective function connected to the third node
Connected to a second directional link and a second directional link
It has a plurality of fourth nodes and, at the time of inference, a plurality of second nodes.
Preset selection based on the degree of matching
Select one or more second nodes according to the selection rule and select them
Based on the matching degree output by the generated second node,
Join to the third node corresponding to the selected second node
A second directional link coupled to the coupled second directional link.
The central values of the non-linear selective functions of
A learning output is obtained by using the input value and the teaching output value as a teaching signal during learning.
First, the teaching output value is given to the fourth node in the output synthesizing means.
Given, the second person tropism phosphorus which is connected to the third node
The learning process is applied to a set of
At the same time, select the second node to be learned, and then select the first node.
The input value which is the teaching signal is given to the node of
A plurality of first directional links coupled to the configured second node
Learn a set of non-linear selective functions of
Network type information processing system characterized by being
Stem.
【請求項7】 前記選択規則が次のいずれかであること7. The selection rule is one of the following:
を特徴とする請求項1記載のネットワーク型情報処理シThe network type information processing system according to claim 1,
ステム。Stem. 1)第2のノードの出力値が一定以上のノードを選択す1) Select the node whose output value of the second node is above a certain level
る。It 2)第2のノードの出力値が上位N個までのノードを選2) Select the upper N nodes whose output value is the second node.
択する。Choose. 3)最も大きな出力値を得た第2ノードとその近傍2n3) The second node that obtained the largest output value and its neighboring 2n
点個の第2のノードを選択する。Select the dot second nodes. 4)近傍2n点個の第2のノードの出力値の和が最大の4) The sum of the output values of 2n neighboring second nodes is the maximum
ノードのセットを選択する。Select a set of nodes.
JP34999992A 1992-12-03 1992-12-03 Network type information processing system and its learning method Expired - Lifetime JP3476211B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34999992A JP3476211B2 (en) 1992-12-03 1992-12-03 Network type information processing system and its learning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34999992A JP3476211B2 (en) 1992-12-03 1992-12-03 Network type information processing system and its learning method

Publications (2)

Publication Number Publication Date
JPH06176001A JPH06176001A (en) 1994-06-24
JP3476211B2 true JP3476211B2 (en) 2003-12-10

Family

ID=18407550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34999992A Expired - Lifetime JP3476211B2 (en) 1992-12-03 1992-12-03 Network type information processing system and its learning method

Country Status (1)

Country Link
JP (1) JP3476211B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3935425B2 (en) * 2002-12-13 2007-06-20 株式会社アドイン研究所 Network type information processing system learning device using genetic algorithm

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02100757A (en) * 1988-10-07 1990-04-12 Ricoh Co Ltd Parallel neural network learning system
JPH02292602A (en) * 1989-05-02 1990-12-04 Nkk Corp Artificial neural circuit network type fuzzy controller
JP2559879B2 (en) * 1990-03-20 1996-12-04 富士通株式会社 Fuzzy controller
JP3045516B2 (en) * 1990-04-19 2000-05-29 株式会社アドイン研究所 Dynamic inference pattern generation system

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
中村健・他,「ファジィ演算による特徴ベクトル検索」,第5回ファジィシステムシンポジウム講演論文集,日本,国際ファジィシステム学会日本支部,1989年 6月 2日,pp.449−454
中村健・他,「知識コンパイル・パターン型推論システム」,1989年度人工知能学会全国大会(第3回)論文集,日本,社団法人人工知能学会,1989年,pp.295−298
中野馨・他,「ニューロコンピュータの基礎」,日本,株式会社コロナ社,1990年 4月 5日,初版,pp.44−47,ISBN:4−339−02276−4
川村旭・他,「ニューロ・ファジィ融合システム」,情報処理学会研究報告,日本,社団法人情報処理学会,1991年 5月10日,Vol.91, No.36(91−MIC−66),pp.1−8

Also Published As

Publication number Publication date
JPH06176001A (en) 1994-06-24

Similar Documents

Publication Publication Date Title
Jantzen Neurofuzzy modelling
Michael et al. Dynamic control of genetic algorithms using fuzzy logic techniques
Wang et al. Generating fuzzy rules by learning from examples
US6456989B1 (en) Neuro-fuzzy-integrated data processing system
Plagianakos et al. Parallel evolutionary training algorithms for “hardware-friendly” neural networks
Lin et al. A self-adaptive neural fuzzy network with group-based symbiotic evolution and its prediction applications
Ponnapalli et al. A formal selection and pruning algorithm for feedforward artificial neural network optimization
Khan et al. Evolution of Optimal ANNs for Non-Linear Control Problems using Cartesian Genetic Programming.
Mao et al. Adaptive-tree-structure-based fuzzy inference system
Georgieva Genetic fuzzy system for financial management
Al-Salami Evolutionary algorithm definition
JPH11510936A (en) Optimization method of fuzzy rules by computer
Leite et al. Data driven fuzzy modeling using level sets
Mishra et al. Neuro-fuzzy models and applications
JP3476211B2 (en) Network type information processing system and its learning method
Tan et al. New dynamical optimal learning for linear multilayer FNN
Cagcag Yolcu A hybrid fuzzy time series approach based on fuzzy clustering and artificial neural network with single multiplicative neuron model
Dhahri et al. Hierarchical learning algorithm for the beta basis function neural network
Ikemoto et al. Continuous deep Q-learning with a simulator for stabilization of uncertain discrete-time systems
He et al. A DENCLUE based approach to neuro-fuzzy system modeling
JP3354593B2 (en) Learning system for network type information processing equipment
Lin et al. A novel evolution learning for recurrent wavelet-based neuro-fuzzy networks
Goyal et al. Iterative parametric approach for quadratically constrained bi-level multiobjective quadratic fractional programming
Van Tinh et al. A new method for forecasting enrolments combining time-variant fuzzy logical relationship groups and K-means clustering
JP2860057B2 (en) Neural network system

Legal Events

Date Code Title Description
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100926

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110926

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120926

Year of fee payment: 9