JP2744313B2 - Network configuration data processing device - Google Patents

Network configuration data processing device

Info

Publication number
JP2744313B2
JP2744313B2 JP2017273A JP1727390A JP2744313B2 JP 2744313 B2 JP2744313 B2 JP 2744313B2 JP 2017273 A JP2017273 A JP 2017273A JP 1727390 A JP1727390 A JP 1727390A JP 2744313 B2 JP2744313 B2 JP 2744313B2
Authority
JP
Japan
Prior art keywords
value
input
unit
attribute
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2017273A
Other languages
Japanese (ja)
Other versions
JPH03222058A (en
Inventor
有理 大和田
信雄 渡部
旭 川村
竜介 益岡
和雄 浅川
成典 松岡
浩之 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017273A priority Critical patent/JP2744313B2/en
Publication of JPH03222058A publication Critical patent/JPH03222058A/en
Application granted granted Critical
Publication of JP2744313B2 publication Critical patent/JP2744313B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Devices For Executing Special Programs (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Description

【発明の詳細な説明】 〔概要〕 ネットワーク構成のデータ変換機能に従って適応的な
データ処理を実行するネットワーク構成データ処理装置
に関し、 より高精度のデータ処理を実現できるようにすること
を目的とし、 1つ又は複数の入力とその入力に対して乗算されるべ
き内部状態値とを受け取って積和値を得るとともに、そ
の積和値を関数変換することで出力値を得る複数の基本
ユニットの内部結合により構成されるとともに、入力パ
ターンの入力信号値を受け取って対応する基本ユニット
に分配する1つ又は複数の入力ユニットを持つネットワ
ーク構造部を備えて、そのネットワーク構造部のネット
ワーク構造/内部状態値により規定されるデータ変換機
能に従って、入力パターンに対応する出力パターンを算
出して出力するネットワーク構成データ処理装置におい
て、入力ユニットの少なくとも1つが、自ユニットに入
力されてくる信号値の空間を分割するとともに、その分
割空間の夫々に入力信号値の属性値を規定する属性関数
を割り付け、かつ、入力信号値を受け取るときに、その
属性関数に従ってその属性関数の数分の属性値を算出し
て対応の基本ユニットに入力していくように構成する。
DETAILED DESCRIPTION OF THE INVENTION [Summary] The present invention relates to a network configuration data processing device that performs adaptive data processing according to a network configuration data conversion function, and aims to realize more accurate data processing. One or more inputs and an internal state value to be multiplied with respect to the inputs to obtain a product sum value, and an internal connection of a plurality of basic units that obtains an output value by performing a function conversion on the product sum value And a network structure having one or more input units for receiving an input signal value of an input pattern and distributing the input signal value to a corresponding basic unit, wherein a network structure / internal state value of the network structure A network that calculates and outputs an output pattern corresponding to an input pattern according to a specified data conversion function In the network configuration data processing device, at least one of the input units divides a space of signal values input to the own unit and allocates an attribute function for defining an attribute value of an input signal value to each of the divided spaces. In addition, when an input signal value is received, attribute values corresponding to the number of the attribute functions are calculated in accordance with the attribute functions and input to the corresponding basic units.

〔産業上の利用分野〕[Industrial applications]

本発明は、ネットワーク構成のデータ変換機能に従っ
て適応的なデータ処理を実行するネットワーク構成デー
タ処理装置に関し、特に、より高精度のデータ処理を実
現できるネットワーク構成データ処理装置に関するもの
である。
The present invention relates to a network configuration data processing device that performs adaptive data processing in accordance with a network configuration data conversion function, and more particularly to a network configuration data processing device that can realize more accurate data processing.

従来の逐次処理コンピュータ(ノイマン型コンピュー
タ)では、使用方法や環境の変化に応じてデータ処理機
能を調節することができないので、パターン認識や適応
フィルタ等の分野を中心に、新たにネットワーク構成に
よる並列分散処理方式に従う適応的なデータ処理装置が
提案されてきている。このネットワーク構成のデータ処
理装置では、明示的なプログラムを作成することなく、
学習用に用意された入力信号(入力パターン)の提示に
対して出力されるネットワーク構造からの出力信号(出
力パターン)が、教師信号(教師パターン)と一致する
べく所定の学習アルゴリズムに従ってネットワーク構造
の内部結合の重み値を決定していくことになる。そし
て、この学習処理により重み値が決定されると、想定し
ていなかった入力信号が入力されることになっても、こ
のネットワーク構造からそれらしい出力信号を出力する
という“柔らかい”データ処理機能が実現されることに
なる。
With a conventional sequential processing computer (Neumann-type computer), the data processing function cannot be adjusted according to changes in the method of use or environment. An adaptive data processing device according to a distributed processing method has been proposed. With this network configuration data processing device, without creating an explicit program,
An output signal (output pattern) from the network structure output in response to the presentation of the input signal (input pattern) prepared for learning is made to match the teacher signal (teacher pattern) according to a predetermined learning algorithm. The weight value of the inner connection is determined. When the weight value is determined by the learning process, a "soft" data processing function of outputting an appropriate output signal from the network structure even if an unexpected input signal is input is provided. Will be realized.

このような構成のネットワーク構成データ処理装置を
実用的なものにしていくためには、より高精度のデータ
変換処理を実現できるような手段を講じていく必要があ
る。
In order to make the network-structured data processing device having such a configuration practical, it is necessary to take measures for realizing higher-precision data conversion processing.

〔従来の技術〕[Conventional technology]

階層ネットワーク構成をとるネットワーク構成データ
処理装置に従って従来技術を説明する。
The prior art will be described according to a network configuration data processing device having a hierarchical network configuration.

階層ネットワーク構成をとるデータ処理装置では、基
本ユニットと呼ぶ一種のノードと、内部状態値に相当す
る重み値を持つ内部結合とから階層ネットワークを構成
している。第17図に、基本ユニット1の基本構成を示
す。この基本ユニット1は、多入力一出力系となってお
り、複数の入力に対し夫々の内部結合の重み値を乗算す
る乗算処理部2と、それらの全乗算結果を加算する累算
処理部3と、この累算値に非線型の閾値処理を施して一
つの最終出力を出力する閾値処理部4とを備える。
In a data processing device having a hierarchical network configuration, a hierarchical network is configured from a kind of node called a basic unit and an internal connection having a weight value corresponding to an internal state value. FIG. 17 shows the basic configuration of the basic unit 1. The basic unit 1 is a multi-input, one-output system, and a multiplication unit 2 for multiplying a plurality of inputs by respective weights of internal connections, and an accumulation unit 3 for adding all the multiplication results thereof. And a threshold processing unit 4 that performs a non-linear threshold process on the accumulated value and outputs one final output.

h層を前段層としi層を後段層とすると、この累算処
理部3では下記の(1)式の演算を実行し、閾値処理部
4では下記の(2)式の演算を実行する。
Assuming that the h-th layer is the first layer and the i-th layer is the second layer, the accumulation processing unit 3 executes the operation of the following expression (1), and the threshold processing unit 4 executes the operation of the following expression (2).

ypi=1/(1+exp(−xpi+θ)) (2)式 但し、 h :h層のユニット番号 i :i層のユニット番号 p :入力信号のパターン番号 θi:i層のi番ユニットの閾値 Wih:h−i層間の内部結合の重み値 xpi:h層の各ユニットからi層のi番ユニットへの入
力の積和 yph:p番目パターンの入力信号に対するh層のh番ユ
ニットからの出力 ypi:p番目パターンの入力信号に対するi層のi番ユ
ニットからの出力 そして、従来の階層ネットワーク構成データ処理装置
では、このような構成の多数の基本ユニット1が、入力
信号値をそのまま分配して出力する入力ユニット1′を
入力層として、第18図に示すように階層的に接続される
ことで階層ネットワークを構成して、入力パターンを対
応する出力パターンに変換するという並列的なデータ処
理機能を発揮することになる。
y pi = 1 / (1 + exp (−x pi + θ i )) (2) where h: unit number of h layer i: unit number of i layer p: pattern number of input signal θ i : i number of i layer Unit threshold value W ih : Weight value of internal connection between hi and i layers x pi : Sum of products of inputs from each unit of h layer to unit i of y layer y ph : h layer of input signal of p-th pattern Output from the h-th unit y pi : Output from the i-th unit in the i-th layer with respect to the p-th pattern input signal In the conventional hierarchical network configuration data processing device, a number of basic units 1 having such a configuration The input unit 1 'which distributes and outputs the signal value as it is is used as an input layer to form a hierarchical network by being hierarchically connected as shown in FIG. 18, and to convert the input pattern into a corresponding output pattern. Demonstrate the parallel data processing function It becomes door.

ネットワーク構成のデータ処理装置では、データ変換
機能を規定するところのネットワーク構造の重み値を学
習処理により求めていく必要がある。階層ネットワーク
構成データ処理装置の重み値の学習処理方式として、特
に、バック・プロパゲーション法と呼ばれる学習処理方
式(D.E.Rumelhart,G.E.Hinton,and R.J.Williams,“Le
arning Internal Representationsby Error Propagatio
n",PARALLEL DISTRIBUTED PROCESSING,Vol.1,pp.318−3
64,The MIT Press,1986)がその実用性の高さから注目
されている。
In a data processing device having a network configuration, it is necessary to obtain a weight value of a network structure that defines a data conversion function by a learning process. As a learning processing method of the weight value of the hierarchical network configuration data processing device, in particular, a learning processing method called a back propagation method (DERumelhart, GE Hinton, and RJ Williams, “Le
arning Internal Representationsby Error Propagatio
n ", PARALLEL DISTRIBUTED PROCESSING, Vol.1, pp.318-3
64, The MIT Press, 1986) has attracted attention because of its practicality.

バック・プロパゲーション法では、階層ネットワーク
の重み値Wihと閾値θとを誤差のフィードバックによ
り適応的な自動調節して学習することになる。(1)
(2)式から明らかなように、重み値Wihと閾値θ
の調節は同時に実行される必要があるが、この作業は、
相互に干渉する難しい作業となる。そこで、本出願人
は、先に出願の「特願昭62−333484号(昭和62年12月28
日出願、“ネットワーク構成データ処理装置”)」で開
示したように、入力側のh層に常に“1"を出力するとと
もにその出力に対して閾値θを重み値として割り付け
るユニットを設けることで、閾値θを重み値Wihの中
に組み込んで閾値θを嵩み値として扱うようにするこ
とを提案した。このようにすることで、上述の(1)
(2)式は、 ypi=1/(1+exp(−xpi)) (4)式 で表わされることになる。
In the back propagation method, learning is performed by adaptively and automatically adjusting the weight value W ih and the threshold value θ i of the hierarchical network by error feedback. (1)
As is apparent from the equation (2), the adjustment of the weight value W ih and the threshold θ i needs to be performed at the same time.
It is a difficult task to interfere with each other. Therefore, the applicant of the present application has filed a Japanese Patent Application No. 62-333484 (December 28, 1987)
As disclosed in Japanese Patent Application, “Network Configuration Data Processing Apparatus”), by providing a unit that always outputs “1” to the h layer on the input side and assigns a threshold value θ i to the output as a weight value. was suggested to treat the threshold theta i as Kasami value incorporates threshold theta i in the weight value W ih. By doing so, the above (1)
Equation (2) is y pi = 1 / (1 + exp (−x pi )) (4)

次に、この(3)(4)式の記述形式のものに従っ
て、バック・プロパゲーション法による重み値の学習処
理方式について説明する。ここで、この説明は、階層ネ
ットワーク部が、第18図に示すn層−i層−j層という
3層構造の階層ネットワークをもつもので行う。
Next, a description will be given of a weight value learning processing method by the back propagation method according to the description format of the expressions (3) and (4). Here, this description will be made on the assumption that the hierarchical network unit has a hierarchical network having a three-layer structure of the n-th layer-the j-th layer shown in FIG.

(3)(4)式からの類推によって次の(5)(6)
式が得られる。すなわち、 ypi=1/(1+exp(−xpj)) (6)式 但し、 j :i層のユニット番号 Wji:i−j層間の内部結合の重み値 xpj:i層の各ユニットからj層のj番ユニットへの入
力の積和 ypj:p番目パターンの入力信号に対するj層のj番ユ
ニットからの出力 バック・プロパゲーション法では、学習用の入力パタ
ーンが提示されたときに出力される出力層からの出力パ
ターンypjと、その出力パターンypjのとるべき信号であ
る教師パターンdpj(p番目パターンの入力信号に対す
るj層j番目ユニットへの教師信号)とが定まると、先
ず最初に、出力パターンypjと教師パターンdpjとの差分
値〔dpj−ypj〕を算出し、次に、 αpj=ypj(1−ypj)(dpj−ypy) を算出し、続いて、 但し、ε:学習定数 ζ:モーメンタム t:学習回数 に従って、i層−j層間の重み値の更新量ΔWji(t)
を算出する。ここで、「ζΔWji(t−1)」という前
回の更新サイクル時に決定された重み値の更新量に係る
ものを加算するのは学習の高速化を図るためである。
By analogy with equations (3) and (4), the following equations (5) and (6)
An expression is obtained. That is, y pi = 1 / (1 + exp (−x pj )) (6) where j: the unit number of the i-th layer W ji : the weight of the internal connection between the i-j layers x pj : the j-th layer from each unit of the i-th layer Y pj : Output from the j-th unit in the j-th layer for the p-th pattern input signal In the back propagation method, the signal is output when an input pattern for learning is presented When the output pattern y pj from the output layer and the teacher pattern d pj (teacher signal to the j-th unit and j-th unit for the input signal of the p-th pattern) which is a signal to be taken by the output pattern y pj are determined, first, Next, a difference value [d pj −y pj ] between the output pattern y pj and the teacher pattern d pj is calculated, and then α pj = y pj (1−y pj ) (d pj −y py ) is calculated. ,continue, Here, ε: learning constant ζ: momentum t: number of times of learning According to, the update amount ΔW ji (t) of the weight value between the i-th layer and the j-th layer
Is calculated. Here, for adding those pertaining to the update amount of the weight values determined in the previous update cycle of "ζΔW ji (t-1)" is order to speed up the learning.

続いて、算出したαpjを用いて、先ず最初に、 を算出し、次に、 に従って、h層−i層間の重み値の更新量ΔWih(t)
を算出する。
Subsequently, using the calculated α pj , first, , Then , The update amount ΔW ih (t) of the weight value between the h layer and the i layer
Is calculated.

続いて、この算出した更新量に従って次の更新サイク
ルのための重み値 Wji(t)=Wji(t−1)+ΔWji(t) Wih(t)=Wih(t−1)+ΔWih(t) を決定していく方式を繰り返していくことで、学習用の
入力パターンを提示したときに出力される出力層からの
出力パターンypjと、その出力パターンypjのとるべき信
号である教師パターンdpjとが一致することになる重み
値Wji,Wih(閾値θiも含まれる)を学習するよう
処理する。
Subsequently, the weight value W ji for according to the update amount calculated as described above in the next update cycle (t) = W ji (t -1) + ΔW ji (t) W ih (t) = W ih (t-1) + ΔW By repeating the method of determining ih (t), the output pattern y pj from the output layer output when the input pattern for learning is presented and the signal to be taken by the output pattern y pj Processing is performed to learn weight values W ji , W ih (including threshold values θ i , θ j ) at which a certain teacher pattern d pj matches.

そして、階層ネットワーク部がg層−h層−i層−j
層という4層構造の階層ネットワークをもつときには、
先ず最初に、 を算出し、次に、 に従ってg層−h層間の重み値の更新量ΔWhg(t)を
算出するというように、前段側の層間の重み値の更新量
ΔWを、出力側の後段から求まる値とネットワーク出力
データとを使いながら決定していくことで、すべての重
み値と閾値を学習するよう処理している。
Then, the hierarchical network unit is composed of g layer-h layer-i layer-j
If you have a 4-layer hierarchical network called layers,
First of all, , Then The update amount ΔW hg (t) of the weight value between the g layer and the h layer is calculated according to the following formula. By determining while using, all weight values and threshold values are processed to be learned.

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

しかしながら、従来の階層ネットワーク構成のデータ
処理装置等のようなネットワーク構成データ処理装置に
対して、バック・プロパゲーション法等のような学習ア
ルゴリズムを適用していくときにおいて、ネットワーク
構造の重み値の学習が収束しないというようなことが起
こることがある。そして、この重み値の学習が収束しな
いことが起こると、学習用の入力パターンを入力しても
十分な精度でもって所望の出力パターンを出力させるこ
とができないことから、高精度のデータ変換処理を実行
できなくなるという問題点があったのである。
However, when a learning algorithm such as a back propagation method is applied to a network configuration data processing device such as a conventional hierarchical network configuration data processing device, learning of a weight value of a network structure is performed. May not converge. If the learning of the weight value does not converge, a desired output pattern cannot be output with sufficient accuracy even if an input pattern for learning is input. There was a problem that it could not be executed.

このような問題点の解決を図るための1つの方法とし
て、階層ネットワーク構造の中間層の数を増加させると
か、中間層のユニット数を増加させるとかいった方法を
採ることが考えられる。しかるに、この方法を採ると基
本ユニット1の数の増加させる必要がでてくることにな
るが、基本ユニット1のハードウェア構成はかなり複雑
なものであることから、この方法を採るとハードウェア
量の著しい増加を招くことになるという新たな問題点を
もたらすことになる。また、他の方法として、入力層の
ユニット数を増加させるという方法を採ることが考えら
れるが、この方法は、入力信号数に限りがあるものにつ
いては適用できないし、既に学習信号の揃っている場合
には再度学習信号を収集し直さなくてはならないという
問題点を有している。
As a method for solving such a problem, it is conceivable to adopt a method such as increasing the number of intermediate layers in the hierarchical network structure or increasing the number of units in the intermediate layer. However, if this method is adopted, it is necessary to increase the number of basic units 1. However, since the hardware configuration of the basic unit 1 is quite complicated, this method requires a large amount of hardware. A new problem that would lead to a significant increase in As another method, it is conceivable to adopt a method of increasing the number of units in the input layer. However, this method cannot be applied to the case where the number of input signals is limited, and the learning signals are already prepared. In this case, there is a problem that the learning signal must be collected again.

本発明はかかる事情に鑑みてなされたものであって、
適応的なデータ処理を実行するネットワーク構成データ
処理装置のデータ変換処理の精度をより高精度にできる
新たなネットワークデータ処理装置の提供を目的とする
ものである。
The present invention has been made in view of such circumstances,
It is an object of the present invention to provide a new network data processing device capable of improving the accuracy of data conversion processing of a network configuration data processing device that performs adaptive data processing.

〔課題を解決するための手段〕[Means for solving the problem]

第1図は本発明の原理構成図である。 FIG. 1 is a diagram illustrating the principle of the present invention.

図中、10は本発明を具備するネットワーク構成データ
処理装置であって、ネットワーク構造に従って適応的な
データ処理機能を高精度でもって実行するもの、11はネ
ットワーク構造部であって、1つ又は複数の入力とその
入力に対して乗算されるべき内部状態値とを受け取って
積和値を得るとともに、その積和値を関数変換すること
で出力値を得る複数の基本ユニットの内部結合により構
成されるとともに、入力パターンの入力信号値を受け取
って対応する基本ユニットに分配する1つ又は複数の入
力ユニットを持つネットワーク構造で構成されて、その
ネットワーク構造とその構造の持つ内部状態値とにより
規定されるデータ変換機能に従って、入力パターンに対
応する出力パターンを算出して出力するもの、12は内部
状態値格納部であって、ネットワーク構造部11がデータ
変換処理の実行時に必要とする内部状態値を管理するも
のである。
In the figure, 10 is a network configuration data processing device equipped with the present invention, which performs adaptive data processing functions with high precision according to the network structure, and 11 is a network structure unit, And an internal state value to be multiplied with respect to the input to obtain a sum-of-products value, and to convert the product-sum value into a function to obtain an output value. And a network structure having one or more input units for receiving an input signal value of an input pattern and distributing the input signal value to a corresponding basic unit, and is defined by the network structure and an internal state value of the structure. 12 calculates and outputs an output pattern corresponding to the input pattern according to the data conversion function, and 12 is an internal state value storage unit. Network structure 11 manages the internal state value required upon execution of the data conversion process.

1′−hはネットワーク構造部11を構成する入力ユニ
ットであって、入力される入力パターンの入力信号値を
受け取って該入力信号値をネットワーク構造部11の対応
する基本ユニットに分配するよう処理するもの、1′−
hq(q=1〜n)は特定の入力ユニット1′−hに接続
される属性値算出ユニットであって、割り付けられた属
性関数に従って入力ユニット1′−hが受け取る入力信
号値に対応する属性値を算出して、その入力ユニット
1′−hの出力先となっているネットワーク構造部11の
基本ユニットに対して、その入力ユニット1′−hが受
け取った入力信号値に代えて算出した属性値を分配する
よう処理するものである。本発明では、ネットワーク構
造部11の備える少なくとも1つの入力ユニット1′−h
が、この属性値算出ユニット1′−hqを備えるよう構成
する。なお、記号hは入力層を表している。
1'-h is an input unit constituting the network structure unit 11, which receives an input signal value of an input pattern to be input and processes the input signal value so as to distribute the input signal value to a corresponding basic unit of the network structure unit 11. Thing, 1'-
hq (q = 1 to n) is an attribute value calculation unit connected to a specific input unit 1'-h, and an attribute corresponding to an input signal value received by the input unit 1'-h according to the assigned attribute function. A value is calculated, and an attribute calculated in place of the input signal value received by the input unit 1'-h is given to the basic unit of the network structure unit 11 to which the input unit 1'-h is output. It processes to distribute values. In the present invention, at least one input unit 1'-h of the network structure unit 11 is provided.
Are provided with this attribute value calculation unit 1′-hq. Note that the symbol h represents an input layer.

1−iや1−jはネットワーク構造部11を構成する基
本ユニットであって、1つ又は複数の入力とその入力に
対して乗算されるべき内部状態値とを受け取って積和値
を得るとともに、その積和値を関数変換することで出力
値を得るものである。なお、記号iは中間層、記号jは
出力層を表している。
1-i and 1-j are basic units that constitute the network structure unit 11, and receive one or more inputs and an internal state value to be multiplied with the input to obtain a product sum value. , And obtains an output value by performing a function conversion on the product-sum value. Note that the symbol i represents an intermediate layer, and the symbol j represents an output layer.

ネットワーク構造部11は、階層ネットワーク構造以外
のネットワーク構造をとることもあるが、階層ネットワ
ーク構造をとるときには、入力ユニット1′−hと、基
本ユニット1−i,jとを構成ユニットとして、複数個の
入力ユニット1′−hにより入力層が構成され、複数個
の基本ユニット1−iにより1つ又は複数段設けられる
中間層が構成され、1つ又は複数個の基本ユニット1−
jにより出力層が構成されるとともに、入力ユニット
1′−hと基本ユニット1−iとの間、基本ユニット1
−iの相互間、基本ユニット1−iと基本ユニット1−
jとの間で接続がなされ、かつ、この各接続に対応して
設定される内部状態値に従って階層ネットワーク構造が
実現される。そして、ネットワーク構造部11の階層ネッ
トワーク構造に従って、属性値算出ユニット1′−hq
は、算出する属性値を最前段の中間層の基本ユニット1
−iに分配していくよう処理する。
The network structure unit 11 may take a network structure other than the hierarchical network structure. However, when taking the hierarchical network structure, the input unit 1'-h and the basic unit 1-i, j are used as constituent units, and The input unit 1'-h constitutes an input layer, the plurality of basic units 1-i constitute an intermediate layer provided in one or more stages, and the one or more basic units 1-i
j constitutes an output layer, and between the input unit 1'-h and the basic unit 1-i, the basic unit 1
-I, basic unit 1-i and basic unit 1-
j, and a hierarchical network structure is realized according to an internal state value set corresponding to each connection. Then, according to the hierarchical network structure of the network structure unit 11, the attribute value calculation unit 1'-hq
Indicates the attribute value to be calculated as the basic unit 1 of the first intermediate layer.
-Process to distribute to i.

〔作用〕[Action]

本発明では、同一の入力ユニット1′−hに接続され
るn個の属性値算出ユニット1′−hqの各々が、例えば
第2図に示すような属性関数の変換機能を実行していく
ことで、接続元の入力ユニット1′−hに入力される入
力信号値Xの信号値空間を分割するよう構成する。この
属性関数の属性値としては、ネットワーク構造部11が取
り扱えるレベルのものであるならば如何なるものであっ
てもよいが、例えば、ファジィ集合のメンバーシップ関
数によってこの属性関数を定義付けて入力信号値Xの信
号値空間を分割していくときには、属性値としてはその
メンバーシップ関数により規定される“0"から“1"の間
の値をとることになる。
According to the present invention, each of the n attribute value calculation units 1'-hq connected to the same input unit 1'-h executes, for example, an attribute function conversion function as shown in FIG. Thus, the signal value space of the input signal value X input to the input unit 1'-h of the connection source is configured to be divided. The attribute value of this attribute function may be any value as long as it is at a level that can be handled by the network structure unit 11. For example, the attribute function is defined by a membership function of a fuzzy set and the input signal value is defined. When dividing the signal value space of X, the attribute value takes a value between “0” and “1” defined by the membership function.

入力ユニット1′−hに入力される入力信号は、この
属性値算出ユニット1′−hqの処理に従って、n次元の
属性値によって特徴付けられることになる。例えば、n
=3である3個の属性値算出ユニット1′−hq(q=1
〜3)に対して第2図のような属性関数が割り付けられ
ているときには、各属性値算出ユニット1′−hqは、 0≦X≦K1のときには、 属性値算出ユニット1′−h1のみがX値に応じたゼロ
値でない属性値を出力し、 K1≦X≦K2のときには、 属性値算出ユニット1′−h1と属性値算出ユニット
1′−h2のみがX値に応じたゼロ値でない属性値を出力
し、 K2≦X≦K3のときには、 属性値算出ユニット1′−h2のみがX値に応じたゼロ
値でない属性値を出力し、 K3≦X≦K4のときには、 属性値算出ユニット1′−h2と属性値算出ユニット
1′−h3のみがX値に応じたゼロ値でない属性値を出力
し、 K4≦X≦K5のときには、 属性値算出ユニット1′−h3のみがX値に応じたゼロ
値でない属性値を出力し、 というように属性値を算出して、ネットワーク構造部11
の対応する基本ユニット1(ネットワーク構造部11が階
層ネットワーク構造をとるときには中間層を構成する基
本ユニット1−i)に出力するよう動作する。
The input signal input to the input unit 1'-h is characterized by an n-dimensional attribute value according to the processing of the attribute value calculation unit 1'-hq. For example, n
= 3, three attribute value calculation units 1'-hq (q = 1
When attribute functions such as the second view is assigned with respect to 3), each attribute value calculating unit 1'-hq, when the 0 ≦ X ≦ K 1, only the attribute value calculating unit 1'-h1 Outputs an attribute value that is not a zero value according to the X value, and when K 1 ≦ X ≦ K 2 , only the attribute value calculation unit 1 ′ -h 1 and the attribute value calculation unit 1 ′ -h 2 If an attribute value that is not a value is output and K 2 ≦ X ≦ K 3 , only the attribute value calculation unit 1 ′ -h 2 outputs an attribute value that is not a zero value according to the X value, and K 3 ≦ X ≦ K 4 sometimes, only the attribute value calculating unit 1'-h2 and attribute value calculating unit 1'-h3 outputs the attribute value non-zero value corresponding to the X value, when the K 4 ≦ X ≦ K 5, the attribute value calculating unit 1 '-H3 outputs an attribute value that is not zero according to the X value, and calculates the attribute value as follows. Work structure 11
To the corresponding basic unit 1 (the basic unit 1-i constituting the intermediate layer when the network structure unit 11 has a hierarchical network structure).

このように算出される属性値は、例えば属性関数が入
力信号値Xの大きさの「あいまいさ」を表現するメンバ
ーシップ関数である場合の例で説明するならば、入力信
号値Xをもつ大きさの「あいまいさ」の度合いを表現し
ているものである。
The attribute value calculated in this way is, for example, a size having the input signal value X, as described in the case where the attribute function is a membership function expressing “ambiguity” of the magnitude of the input signal value X. It expresses the degree of “ambiguity”.

このようにして、従来であれば、入力ユニット1′−
hが受け取った入力信号値Xがそのままネットワーク構
造部11の対応する基本ユニット(ネットワーク構造部11
が階層ネットワーク構造をとるときには中間層を構成す
る基本ユニット1−i)に分配されていたのに対して、
本発明によれば、その入力信号値Xのもつ意味的表現で
ある属性値が算出されてネットワーク構造部11の対応す
る基本ユニット1(ネットワーク構造部11が階層ネット
ワーク構造をとるときには中間層を構成する基本ユニッ
ト1−i)に分配されていくよう構成される。例えて、
説明するならば、「赤」という入力ではなくて、「白っ
ぽい赤」とか「黄色っぽい赤」とかいったより意味をも
つデータ(属性値の組合せにより様々な意味を持たせら
れる)がネットワーク構造部11の対応する基本ユニット
1(ネットワーク構造部11が階層ネットワーク構造をと
るときには中間層を構成する基本ユニット1−i)に分
配されていくよう構成されるのである。これから、バッ
ク・プロパゲーション法等によってネットワーク構造部
11のユニット間に割り付けられる重み値の学習を実行し
ていくときにあっても、従来よりも誤差が少なくなる重
み値を学習できるようになる。従って、本発明を用いる
ことで、ネットワーク構成データ処理装置のデータ変換
機能の精度を高められるようになるのである。
Thus, in the conventional case, the input unit 1'-
The input signal value X received by h is the same as the corresponding basic unit of the network structure unit 11 (the network structure unit 11).
Is distributed to the basic units 1-i) constituting the intermediate layer when the hierarchical network structure is adopted,
According to the present invention, an attribute value, which is a semantic expression of the input signal value X, is calculated, and the corresponding basic unit 1 of the network structure unit 11 (when the network structure unit 11 has a hierarchical network structure, forms an intermediate layer). To be distributed to the basic units 1-i). For example,
To explain, instead of inputting “red”, data having more meaning such as “white whitish” or “yellowish red” (which can have various meanings by a combination of attribute values) is stored in the network structure unit 11. Are allocated to the corresponding basic unit 1 (the basic unit 1-i constituting the intermediate layer when the network structure unit 11 has a hierarchical network structure). From now on, the network structure part will be
Even when learning of weight values assigned to the 11 units is performed, it is possible to learn a weight value with a smaller error than before. Therefore, by using the present invention, the accuracy of the data conversion function of the network configuration data processing device can be improved.

〔実施例〕〔Example〕

以下、階層ネットワーク構成データ処理装置に適用し
た実施例に従って本発明を詳細に説明する。
Hereinafter, the present invention will be described in detail according to an embodiment applied to a hierarchical network configuration data processing device.

第3図に、本発明を具備する階層ネットワーク構成デ
ータ処理装置の階層ネットワーク構造の一実施例を図示
する。図中、1′a−hは階層ネットワーク構造の入力
層を構成する複数個の入力ユニット、1−iは階層ネッ
トワーク構造の中間層を構成する複数個の基本ユニッ
ト、1−jは階層ネットワーク構造の出力層を構成する
複数個の基本ユニットである。これらの基本ユニット1
−i,1−jは、従来の基本ユニット1と同様に上述の
(1)(2)式の変換処理を実行するよう構成される。
FIG. 3 shows an embodiment of a hierarchical network structure of a hierarchical network configuration data processing apparatus equipped with the present invention. In the drawing, 1'ah is a plurality of input units constituting an input layer of a hierarchical network structure, 1-i is a plurality of basic units constituting an intermediate layer of a hierarchical network structure, and 1-j is a hierarchical network structure. Are a plurality of basic units that constitute the output layer of FIG. These basic units 1
-I, 1-j is configured to execute the conversion processing of the above-described equations (1) and (2), similarly to the conventional basic unit 1.

本発明の入力ユニット1′a−hは、第4図に示すよ
うに、入力信号を受け取って分配出力する従来の入力ユ
ニット1′−hと、この入力ユニット1′−hの分配出
力を入力とする複数の属性値算出ユニット1′−hq(q
=1〜n)とから構成される。本発明により新たに備え
られる属性値算出ユニット1′−hqは、従来から備えら
れていた入力ユニット1′−hに代わって、中間層の基
本ユニット1−iに対して重み値によりウェイト付けら
れる入力値を与えるよう処理することになる。
As shown in FIG. 4, the input unit 1'a-h of the present invention receives a conventional input unit 1'-h which receives an input signal and distributes and outputs the input signal, and receives the distributed output of the input unit 1'-h. A plurality of attribute value calculation units 1′-hq (q
= 1 to n). The attribute value calculation unit 1'-hq newly provided according to the present invention is weighted by a weight value for the basic unit 1-i of the intermediate layer, instead of the input unit 1'-h conventionally provided. Processing will be performed to provide input values.

この新たに備えられる属性値算出ユニット1′−hq
は、入力ユニット1′−hに入力されてきた入力信号値
Xの大きさの「あいまいさ」を、ファジィ集合のメンバ
ーシップ関数に従って数値化して出力するよう処理する
ものである。例えば、入力ユニット1′−hに接続され
る属性値算出ユニット1′−hqのユニット数が3個であ
る場合において、属性値算出ユニット1′−h1が、例え
ば第5図に示すような、入力信号値Xの値が「およそ0.
3」であることを表すメンバーシップ関数(図中のm1
を管理するとともに、この管理する関数に従って入力信
号値Xが「およそ0.3」であるグレード値(メンバーシ
ップ関数値)を算出して出力するよう処理し、また、属
性値算出ユニット1′−h2が、入力信号値Xの値が「お
よそ0.5」であることを表すメンバーシップ関数(図中
のm2)を管理するとともに、この管理する関数に従って
入力信号値Xが「およそ0.5」であるグレード値を算出
して出力するよう処理し、また、属性値算出ユニット
1′−h3が、入力信号値Xの値が「およそ0.7」である
ことを表すメンバーシップ関数(図中のm3)を管理する
とともに、この管理する関数に従って入力信号値Xが
「およそ0.7」であるグレード値を算出して出力するよ
う処理することで、入力信号値Xの大きさの「あいまい
さ」の数値データを出力するよう処理する。
The newly provided attribute value calculation unit 1'-hq
Performs processing so that the "ambiguity" of the magnitude of the input signal value X input to the input unit 1'-h is digitized according to the membership function of the fuzzy set and output. For example, when the number of units of the attribute value calculation unit 1'-hq connected to the input unit 1'-h is three, the attribute value calculation unit 1'-h1 is, for example, as shown in FIG. When the value of the input signal value X is `` approximately 0.
Membership function indicating that the 3 '(m 1 in the figure)
Is processed, and a grade value (membership function value) in which the input signal value X is “approximately 0.3” is calculated and output in accordance with the managed function, and the attribute value calculation unit 1′-h2 , A membership function (m 2 in the figure) indicating that the value of the input signal value X is “approximately 0.5”, and a grade value in which the input signal value X is “approximately 0.5” according to the managed function. treated so as to calculate and outputting, also managing the attribute value calculating unit 1'-h3, membership function representing that the value of the input signal value X is "approximately 0.7" to (m 3 in the drawing) In addition, the input signal value X is "approximately 0.7" in accordance with the function to be managed, and the grade value is calculated and output, thereby outputting numerical data of the "ambiguity" of the input signal value X. To do To management.

この属性値算出ユニット1′−hqの出力処理に従っ
て、入力ユニット1′−hに入力されてきた入力信号値
Xが例えば“0.3"であるときには、中間層の各基本ユニ
ット1−iに対して、属性値算出ユニット1′−h1から
のグレード値“1"と、属性値算出ユニット1′−h2,1′
−h3からのグレード値“0"が学習された重み値によりウ
ェイト付けされて入力されることになり、また、入力さ
れてきた入力信号値Xが例えば“0.6"であるときには、
中間層の各基本ユニット1−iに対して、属性値算出ユ
ニット1′−h1からのグレード値“0"と、属性値算出ユ
ニット1′−h2,1′−h3からのグレード値“0.33"が学
習された重み値によりウェイト付けされて入力されるこ
とになる。
According to the output processing of the attribute value calculation unit 1'-hq, when the input signal value X input to the input unit 1'-h is, for example, "0.3", each of the basic units 1-i of the intermediate layer is processed. , The grade value "1" from the attribute value calculation unit 1'-h1, and the attribute value calculation unit 1'-h2,1 '
The grade value “0” from −h3 is input by being weighted by the learned weight value, and when the input signal value X that is input is, for example, “0.6”,
For each basic unit 1-i of the intermediate layer, a grade value "0" from the attribute value calculation unit 1'-h1 and a grade value "0.33" from the attribute value calculation unit 1'-h2,1'-h3. Is weighted by the learned weight value and input.

このように、本発明では、入力層の入力ユニット1′
−hの内の少なくとも1つの入力ユニット1′−hが、
属性値算出ユニット1′−hqを備えるよう構成して、こ
の備えられる属性値算出ユニット1′−hqに従って入力
信号値の大きさのもつ意味的表現であるグレード値を算
出するとともに、その算出されたグレード値を入力ユニ
ット1′−hに代えて中間層の基本ユニット1−iに分
配していく構成が採られることになる。
Thus, in the present invention, the input unit 1 'of the input layer
-H at least one input unit 1'-h
An attribute value calculation unit 1'-hq is provided, and a grade value which is a semantic expression of the magnitude of the input signal value is calculated according to the provided attribute value calculation unit 1'-hq. In this case, the grade value is distributed to the basic unit 1-i of the intermediate layer instead of the input unit 1'-h.

属性値算出ユニット1′−hqのグレード値(メンバー
シップ関数値)の算出構成は、種々の実現方法を採るこ
とが可能である。例えば、その1つの方法として、第6
図に示すように、メンバーシップ関数を記述する変換テ
ーブルを備えるよう構成して、入力値をキーにしてこの
変換テーブルを検索することでメンバーシップ関数の真
理値を算出する構成をとる方法がある。ここで、第6図
(a)は、「温度が低い」というようなメンバーシップ
関数のグレード値を算出する構成を示しており、第6図
(b)は、「温度が普通」というようなメンバーシップ
関数のグレード値を算出する構成を示しており、第6図
(c)は、「温度が高い」というようなメンバーシップ
関数のグレード値を算出する構成を示している。
The configuration for calculating the grade value (membership function value) of the attribute value calculation unit 1'-hq can employ various realization methods. For example, as one method, the sixth
As shown in the figure, there is a method in which a conversion table that describes a membership function is provided, and a truth value of the membership function is calculated by searching the conversion table using an input value as a key. . Here, FIG. 6 (a) shows a configuration for calculating a grade value of the membership function such as "the temperature is low", and FIG. 6 (b) shows a configuration wherein the temperature is normal. FIG. 6C shows a configuration for calculating a grade value of the membership function such as “Temperature is high”.

また、他の方法として、基本ユニット1より出力され
る出力値y が、第7図(a)に示すように、 (ωx−θ)<0 であるときには、第6図(a)で説明したメンバーシッ
プ関数と類似する関数形状となり、また、 (ωx−θ)>0 であるときには、第6図(c)で説明したメンバーシッ
プ関数と類似する関数形状となることに着目して、第7
図(b)に示すように、基本ユニット1を備えて、重み
値ω及び閾値θを適切に設定することで、第6図(a)
(c)と同等の演算処理を実行したり、また、2つの基
本ユニット1より出力される出力値の差分値y が、第8図(a)に示すように、第6図(b)で説明し
たメンバーシップ関数と類似する関数形状となることに
着目して、第8図(b)に示すように、2個の基本ユニ
ット1とその2つの出力値の差分値を算出する減算回路
5とを備えて、重み値ω1及び閾値θ1を適切
にすることで、第6図(b)と同等の演算処理を実行す
る構成を採る方法がある。この第7図及び第8図の構成
方法を採ると、階層ネットワーク構造がハードウェア部
品で構成されているときにあっても、重み値及び閾値を
設定するだけの処理でもって、第7図(a)に示す関数
形状のメンバーシップ関数のグレード値を算出する属性
値算出ユニット1′−hqを実現できるとともに、簡単な
減算回路20を備えるだけでもって、第8図(a)に示す
関数形状のメンバーシップ関数のグレード値を算出する
属性値算出ユニット1′−hqを実現できることになる。
As another method, an output value y output from the basic unit 1 is used. When (ωx−θ) <0, as shown in FIG. 7 (a), a function shape similar to the membership function described in FIG. 6 (a) is obtained, and (ωx−θ) > 0, paying attention to the fact that the function shape is similar to the membership function described in FIG.
As shown in FIG. 6B, by providing the basic unit 1 and appropriately setting the weight value ω and the threshold value θ, FIG.
An arithmetic operation equivalent to (c) is executed, and a difference y between output values output from the two basic units 1 is calculated. Focusing on the fact that as shown in FIG. 8A, the function shape is similar to the membership function described in FIG. 6B, and as shown in FIG. FIG. 6 shows that by providing the basic units 1 and a subtraction circuit 5 for calculating a difference value between the two output values, by appropriately setting the weight values ω 1 and ω 2 and the threshold values θ 1 and θ 2 , There is a method that employs a configuration for executing the same arithmetic processing as in b). 7 and 8, even when the hierarchical network structure is composed of hardware components, only the setting of the weight value and the threshold value is performed. The attribute value calculation unit 1'-hq for calculating the grade value of the membership function of the function shape shown in FIG. 8A can be realized, and the function shape shown in FIG. Attribute value calculation unit 1'-hq for calculating the grade value of the membership function of the above.

階層ネットワーク構造のハードウェア部品による構成
方法としては、本出願人が出願した「特願昭63−216865
号(昭和63年8月31日出願、“ネットワーク構成データ
処理装置”)」で開示したものを用いることが可能であ
る。
As a configuration method using hardware components having a hierarchical network structure, there is a method disclosed in Japanese Patent Application No. 63-216865 filed by the present applicant.
No. (filed on Aug. 31, 1988, "Network Configuration Data Processing Apparatus").

すなわち、基本ユニット1は、第9図に示すように、
入力スッチ部7を介して入力される前段層の基本ユニッ
ト1からの出力と重み値保持部8が保持する重み値とを
乗算する乗算型D/Aコンバータ2aと、積分器で構成され
て乗算型D/Aコンバータ2aの出力値と前回の累算値とを
加算して新たな累算値を算出するアナログ加算器3aと、
このアナログ加算器3aの加算結果を保持するサンプルホ
ールド回路3bと、累算処理が終了したときにサンプルホ
ールド回路3bの保持データを非線形変換する非線型関数
発生回路4bと、後段層の基本ユニット1への出力となる
非線型関数発生回路4aのアナログ信号値をホールドする
出力保持部5と、出力保持部5が保持する最終出力をア
ナログバス30上に出力する出力スイッチ部6と、これら
の各処理部を制御する制御回路9とを備えることで実現
される。
That is, the basic unit 1 is, as shown in FIG.
A multiplication type D / A converter 2a for multiplying the output from the basic unit 1 in the preceding layer input via the input switch unit 7 and the weight value held by the weight value holding unit 8, and an integrator for multiplication An analog adder 3a that adds the output value of the type D / A converter 2a and the previous accumulated value to calculate a new accumulated value,
A sample and hold circuit 3b for holding the addition result of the analog adder 3a, a non-linear function generating circuit 4b for non-linearly converting the data held in the sample and hold circuit 3b when the accumulation processing is completed, An output holding unit 5 for holding the analog signal value of the non-linear function generating circuit 4a to be output to the output unit 5, an output switch unit 6 for outputting the final output held by the output holding unit 5 to the analog bus 30, and This is realized by including a control circuit 9 for controlling the processing unit.

そして、階層ネットワーク構造は、この構成をとる基
本ユニット1が、第10図に示すように、1本の共通なア
ナログバス30でもって電気的に接続される構成で実現さ
れる。ここで、図中、31は基本ユニット1の重み保持部
8に重み値を与える重み出力回路、32は重み出力回路31
の出力を重み保持回路8に接続する重み信号線、33は階
層ネットワークの入力層に対して入力パターンとなる初
期信号を出力する初期信号出力回路、34はデータ転送の
制御信号である同期制御信号を重み出力回路31、初期信
号出力回路33及び基本ユニット1の制御回路9に伝える
同期制御信号線、40は同期制御信号を送出する主制御回
路である。なお、この第10図の構成をとるとき、属性値
算出ユニット1′−hqは図示しない別装置構成でもって
備えられる構成が採られることになる。
The hierarchical network structure is realized by a configuration in which the basic units 1 having this configuration are electrically connected by one common analog bus 30, as shown in FIG. Here, in the figure, 31 is a weight output circuit for giving a weight value to the weight holding unit 8 of the basic unit 1, and 32 is a weight output circuit 31
A weight signal line connecting the output of the hierarchical network to the weight holding circuit 8, an initial signal output circuit 33 for outputting an initial signal serving as an input pattern to an input layer of the hierarchical network, and a synchronization control signal 34 for controlling data transfer. Is transmitted to the weight output circuit 31, the initial signal output circuit 33, and the control circuit 9 of the basic unit 1, and 40 is a main control circuit for transmitting a synchronization control signal. When the configuration shown in FIG. 10 is adopted, a configuration is adopted in which the attribute value calculation unit 1'-hq is provided with another device configuration (not shown).

この構成の階層ネットワーク構造において、主制御回
路40は、前段層の基本ユニット1を時系列的に順次選択
するとともに、この選択処理と同期させて、選択された
基本ユニット1の出力保持部5が保持するアナログ信号
の最終出力を、アナログバス30を介して時分割の送信形
式に従って後段層の基本ユニット1の乗算型D/Aコンバ
ータ2aに対して出力するよう処理する。この入力を受け
取ると、後段層の基本ユニット1の乗算型D/Aコンバー
タ2aは、対応する重み値(バック・プロパゲーション法
により決定される)を順次選択して入力値と重み値との
乗算処理を行い、アナログ加算器3aとサンプルホールド
回路3bとにより構成される累算処理部3は、この乗算値
を順次累算していく。続いて、前段層の基本ユニット1
に関してのすべての累算処理が終了すると、主制御回路
40は、後段層の基本ユニット1の非線型関数発生回路4a
を起動して最終出力の算出を行い、出力保持部5がこの
変換処理結果の最終出力を保持するよう処理する。続い
て、主制御回路40は、この後段層を新たな前段層として
次の後段層に対して同様の処理を繰り返していくこと
で、入力パターンに対応するところの出力パターンが階
層ネットワーク構造の出力層より出力されるべく処理す
るのである。
In the hierarchical network structure of this configuration, the main control circuit 40 sequentially selects the basic units 1 in the preceding layer in a time-series manner, and synchronizes with the selection processing so that the output holding unit 5 of the selected basic unit 1 The final output of the held analog signal is processed to be output to the multiplying D / A converter 2a of the basic unit 1 in the subsequent layer via the analog bus 30 according to a time-division transmission format. Upon receiving this input, the multiplying D / A converter 2a of the subsequent-stage basic unit 1 sequentially selects the corresponding weight value (determined by the back propagation method) and multiplies the input value by the weight value. Processing is performed, and the accumulation processing unit 3 composed of the analog adder 3a and the sample hold circuit 3b sequentially accumulates the multiplied values. Then, the basic unit 1 of the former layer
When all the accumulation processes for are completed, the main control circuit
40 is a non-linear function generating circuit 4a of the basic unit 1 in the subsequent stage.
Is started to calculate the final output, and the output holding unit 5 performs processing so as to hold the final output of the conversion processing result. Subsequently, the main control circuit 40 repeats the same processing for the next subsequent layer using the subsequent layer as a new preceding layer, so that the output pattern corresponding to the input pattern is the output of the hierarchical network structure. It is processed to be output from the layer.

次に、シミュレーションデータに従って、この本発明
の構成を採ることで、重み値の学習がより高い精度で、
かつより高速で実現できるようになるとともに、その学
習された重み値により高い精度でもってデータ処理が実
現できるようになることを説明する。
Next, according to the simulation data, by adopting the configuration of the present invention, the learning of the weight value can be performed with higher accuracy.
In addition, it will be described that data can be realized at higher speed, and data processing can be realized with higher accuracy by the learned weight value.

このシミュレーションは、属性値算出ユニット1′−
hqを備えるものと備えないものとの比較形式で行った。
シミュレーションの条件としては、階層ネットワークの
構成を入力層が1ユニット、中間層が10ユニット、出力
層が1ユニットのものとし、入力層の入力ユニット1′
−hは、第5図に示したメンバーシップ関数に従ってグ
レード値を算出する3ユニットの属性値算出ユニット
1′−hq(q=1〜3)を備えるものとし、重み値の学
習アルゴリズムはバック・プロパゲーション法(学習定
数ε、モーメンタムζは、夫々ε=9.0,ζ=0.8に設
定。重み値の初期値は乱数発生手段により設定)に従っ
て実行し、教師信号としてsin関数値である第11図に示
す入力信号値Xと教師信号値Yとの対からなる9個のデ
ータを使用した。
In this simulation, the attribute value calculation unit 1'-
The comparison was made between a model with hq and a model without hq.
The conditions of the simulation are as follows. The configuration of the hierarchical network is such that the input layer is 1 unit, the intermediate layer is 10 units, and the output layer is 1 unit.
-H has three attribute value calculation units 1'-hq (q = 1 to 3) for calculating a grade value in accordance with the membership function shown in FIG. Fig. 11 is a diagram showing the execution of the propagation method (the learning constant ε and the momentum ζ are set to ε = 9.0 and ζ = 0.8, respectively, and the initial values of the weights are set by random number generation means). 9 data consisting of pairs of an input signal value X and a teacher signal value Y shown in FIG.

第12図に、第5図に示したメンバーシップ関数に従っ
て備えられる3つの属性値算出ユニット1′−hq(q=
1〜3)が、この第11図の教師信号の入力信号値Xの入
力に対して出力することになるグレード値を図示する。
この図は、例えば入力信号値Xの“0.1111111"が入力さ
れると、第5図のm1で識別される属性値算出ユニット
1′−h1が“0.1"を出力し、m2で識別される属性値算出
ユニット1′−h2が“0.0"を出力、m3で識別される属性
値算出ユニット1′−h3が“0.0"を出力することを表し
ている。
FIG. 12 shows three attribute value calculation units 1'-hq (q = 3) provided in accordance with the membership function shown in FIG.
1 to 3) show grade values to be output in response to the input of the input signal value X of the teacher signal in FIG.
This figure, for example, when the "0.1111111" of the input signal value X is inputted, the attribute value calculating unit 1'-h1 identified by m 1 in Figure 5 outputs the "0.1", is identified by m 2 that outputs the attribute value calculating unit 1'-h2 is "0.0", the attribute value calculating unit 1'-h3 identified by m 3 indicates that the outputs "0.0".

これから、属性値算出ユニット1′−hqを備える場合
には、実質的には、3個の入力ユニット1′−hをもっ
て第13図に示す信号を学習信号とする階層ネットワーク
構成データ処理装置と等価なものとなる。これに対し
て、属性値算出ユニット1′−hqを備えない場合には、
そのままの通りの1個の入力ユニット1′−hをもって
第11図に示す信号を学習信号とする階層ネットワーク構
成データ処理装置となるものである。
From this, when the attribute value calculating unit 1'-hq is provided, it is substantially equivalent to a hierarchical network configuration data processing device having three input units 1'-h and using the signal shown in FIG. 13 as a learning signal. It becomes something. On the other hand, when the attribute value calculation unit 1'-hq is not provided,
One input unit 1'-h as it is becomes a hierarchical network configuration data processing device using the signal shown in FIG. 11 as a learning signal.

第14図に示すシミュレーションデータは、本発明の階
層ネットワーク構造を用いる場合において、階層ネット
ワーク構造の入力層に第13図の学習信号の入力信号値X
を与えたときに出力される出力層からの出力値と対応の
教師信号値Yとの間の誤差値(9個ある教師信号毎の誤
差値及びその後差値の総和)が、学習回数の進行に伴っ
てどのように変化していくかを調べるために行ったシミ
ュレーションのデータである。ここで、第14図(a)の
データは、学習回数が500回のときの誤差値を表し、第1
4図(b)のデータは、学習回数が1000回のときの誤差
値を表し、第14図(c)のデータは、学習回数が1500回
のときの誤差値を表し、第14図(d)のデータは、誤差
値がほぼ収束した学習回数である1788回のときの誤差値
を表している。
When the hierarchical network structure of the present invention is used, the simulation data shown in FIG. 14 shows the input signal value X of the learning signal shown in FIG.
Is given, the error value between the output value from the output layer and the corresponding teacher signal value Y (the error value for each of the nine teacher signals and the sum of the difference values thereafter) is determined by the progress of the number of times of learning. This is the data of a simulation performed to investigate how it changes along with. Here, the data in FIG. 14 (a) represents the error value when the number of learnings is 500,
The data in FIG. 4 (b) represents an error value when the number of learnings is 1000 times, and the data in FIG. 14 (c) represents an error value when the number of learnings is 1500 times, and FIG. The data in the parentheses) represent the error value at the time of 1788 times, which is the number of learnings in which the error value has almost converged.

この第14図のシミュレーションデータから、本発明を
具備することで、学習回数が500回のときには総誤差値
が“0.043249"であったものが、学習回数の進行に伴っ
て速やかに減少していって、学習回数が1788回になると
“0.000205"にまで減少することが確認された。そし
て、この学習回数が1788回のときの重み値を用いること
で、全学習信号について出力ユニット1−jからの出力
値がほぼ教師値と同一の値と一致できるようになること
が確認された。
From the simulation data shown in FIG. 14, it can be seen from the simulation data that the total error value was “0.043249” when the number of times of learning was 500, but rapidly decreased with the progress of the number of times of learning by providing the present invention. Thus, it has been confirmed that when the number of times of learning reaches 1788 times, the number decreases to "0.000205". Then, by using the weight value when the number of times of learning is 1788 times, it has been confirmed that the output value from the output unit 1-j can be substantially equal to the same value as the teacher value for all the learning signals. .

第15図に、この第10図のデータと比較の対象とされる
従来の階層ネットワーク構造を用いる場合においての誤
差値のシミュレーションデータを図示する。このシミュ
レーションにあたっては、上述のように、第11図の学習
信号が用いられることになる。ここで、第15図(a)の
データは、学習回数が500回のときの誤差値を表し、第1
5図(b)のデータは、学習回数が1000回のときの誤差
値を表し、第15図(c)のデータは、学習回数が1500回
のときの誤差値を表し、第15図(d)のデータは、学習
回数が2000回のときの誤差値を表し、第15図(e)のデ
ータは、学習回数が3000回のときの誤差値を表し、第15
図(f)のデータは、学習回数が4000回のときの誤差値
を表し、第15図(g)のデータは、学習回数が5000回の
ときの誤差値を表している。
FIG. 15 shows simulation data of an error value when a conventional hierarchical network structure to be compared with the data of FIG. 10 is used. In this simulation, the learning signal shown in FIG. 11 is used as described above. Here, the data in FIG. 15 (a) represents an error value when the number of times of learning is 500 times,
The data in FIG. 5 (b) represents an error value when the number of learnings is 1,000, the data in FIG. 15 (c) represents an error value when the number of learnings is 1500, and FIG. ) Represents an error value when the number of learnings is 2,000, and the data in FIG. 15E represents an error value when the number of learnings is 3,000.
The data in FIG. 15 (f) represents an error value when the number of learnings is 4,000, and the data in FIG. 15 (g) represents an error value when the number of learnings is 5,000.

この第15図のシミュレーションデータから、本発明を
具備しないと、学習回数が500回のときには総誤差値が
“0.031051"であったものが、学習回数の進行に伴って
緩やかに減少はするものの、学習回数が2000回になって
も総誤差値が“0.015456"とかなり大きな値を示し、更
に学習回数が5000回になっても総誤差値が“0.011816"
とかなり大きな値を示して、現実的な学習回数の範囲で
は収束していかないことが確認された。
From the simulation data of FIG. 15, if the present invention is not provided, the total error value was “0.031051” when the number of learnings was 500, but gradually decreased with the progress of the number of learnings. Even when the number of times of learning reaches 2,000, the total error value shows a considerably large value of "0.015456", and even when the number of times of learning reaches 5,000, the total error value becomes "0.011816".
It was confirmed that the values did not converge within a realistic range of the number of times of learning.

このように、第10図と第15図に示すシミュレーション
データの比較から、本発明を具備することで重み値の学
習が高速に行われることになるとともに、重み値の学習
の収束が実現できることが確認されたのである。上述し
たように、本発明を具備することで形式的には入力ユニ
ット数が増加することから、単純に考えれば重み値の学
習時間は増加してしまうことになる筈であるが、このよ
うに逆に学習時間が短縮されることになるのは、属性値
算出ユニット1′−hqの与えるグレード値がより大きな
意味内容を有する情報を内在させていることにある。そ
して、この意味情報が重み値の学習の収束を可能として
いる。
Thus, from the comparison of the simulation data shown in FIGS. 10 and 15, it can be seen from the comparison of the simulation data shown in FIGS. It was confirmed. As described above, since the number of input units increases formally by including the present invention, the learning time of the weight value should increase in a simple manner. Conversely, the learning time is shortened because the grade value given by the attribute value calculation unit 1'-hq contains information having a larger meaning content. This semantic information enables convergence of learning of the weight value.

第16図に、第11図に示した教師信号と、第14図(d)
に示したシミュレーションデータの出力値(横軸のX値
は教師信号の対応のものである)と、第15図(g)に示
したシミュレーションデータの出力値(横軸のX軸は教
師信号の対応のものである)とを図示する。この図か
ら、本発明を用いることで、教師信号の入力信号値を入
力層に入力させたときに、階層ネットワーク構造から教
師信号値と区別できない程の出力値が得られるようにな
るのに対して、従来方式では、長い学習時間をかけたに
もかかわらず大きな誤差を伴った出力値しか得られない
ことが分かるのである。
FIG. 16 shows the teacher signal shown in FIG. 11 and FIG.
The output value of the simulation data (the X value on the horizontal axis corresponds to the teacher signal) and the output value of the simulation data shown in FIG. Corresponding). From this figure, it can be seen that by using the present invention, when the input signal value of the teacher signal is input to the input layer, an output value that cannot be distinguished from the teacher signal value from the hierarchical network structure can be obtained. Thus, it can be seen that in the conventional method, only an output value with a large error can be obtained despite a long learning time.

図示実施例について説明したが、本発明はこれに限定
されるものではない。例えば、実施例では三角形状のグ
レード値変換関数特性をもつメンバーシップ関数でもっ
て入力信号値の属性情報を算出するものを開示したが、
このメンバーシップ関数のグレード値の変換関数特性は
如何なる形状のものであってもよいのである。また、属
性情報の算出構成は、一体的な構成のネットワーク構造
に従って備えられるものに限られる必要はなく、前処理
的な装置構成のような別装置構成的なネットワーク構造
に従って備えられるようなものであってもよいのであ
る。
Although the illustrated embodiment has been described, the present invention is not limited to this. For example, although the embodiment discloses that the attribute information of the input signal value is calculated using a membership function having a triangular grade value conversion function characteristic,
The conversion function characteristic of the grade value of the membership function may have any shape. The calculation configuration of the attribute information does not need to be limited to the configuration provided according to the network configuration of the integrated configuration, but may be the configuration provided according to the network configuration of another device configuration such as the preprocessing configuration. There may be.

また、実施例では同一グールプにかかる属性値算出ユ
ニットは対応の入力ユニットから同一レベルの入力値を
受け取る構成(すなわち、属性値算出ユニットと入力ユ
ニットとの間の内部結合の重み値が“1"である構成)で
もって説明したが、本発明は絶対値を問題とするもので
はないことから、この内部結合に対しても“1"以外の重
み値を割り付けるようにして、入力値とこの重み値との
乗算値によりメンバーシップ関数のグレード値を算出す
るよう構成してもよいし、更に、この内部結合の重み値
も学習対象と扱うようにする構成を採るものであっても
よいのである。
Further, in the embodiment, the attribute value calculation units related to the same group receive input values of the same level from the corresponding input units (that is, the weight value of the internal connection between the attribute value calculation unit and the input unit is “1”). However, since the present invention does not make the absolute value a problem, a weight value other than “1” is assigned to this internal connection, so that the input value and the weight The configuration may be such that the grade value of the membership function is calculated by multiplying the value with the value, or the weight value of the internal connection may be treated as a learning target. .

そして、本発明は、メンバーシップ関数に従って入力
信号値の属性情報を算出するものに限られるものでもな
い。
The present invention is not limited to the one that calculates the attribute information of the input signal value according to the membership function.

また、階層ネットワーク構成のネットワーク構成デー
タ処理装置に限られるものでもなく、階層ネットワーク
構成でない他のネットワーク構成のネットワーク構成デ
ータ処理装置に対してもそのまま適用できるのである。
Further, the present invention is not limited to a network configuration data processing device having a hierarchical network configuration, and can be applied to a network configuration data processing device having a network configuration other than the hierarchical network configuration.

〔発明の効果〕〔The invention's effect〕

以上説明したように、本発明によれば、ネットワーク
構成データ処理装置において、従来方式ではネットワー
ク構造の重み値の学習が収束しないような場合であって
も、迅速に重み値の学習を実現できるようになる。これ
から、ネットワーク構成データ処理装置のデータ処理機
能をより高精度なものにできるようになる。しかも、学
習速度の高速化も実現できることから、ネットワーク構
成データ処理装置をより実用的なものとすることができ
るようになる。
As described above, according to the present invention, in a network configuration data processing device, even when learning of a weight value of a network structure does not converge in a conventional method, learning of a weight value can be quickly realized. become. Thus, the data processing function of the network configuration data processing device can be made more accurate. In addition, since the learning speed can be increased, the network configuration data processing device can be made more practical.

【図面の簡単な説明】 第1図は本発明の原理構成図、 第2図は属性関数の説明図、 第3図は本発明に係る階層ネットワークの一実施例、 第4図は本発明に係る入力ユニットの一実施例、 第5図は属性値算出ユニットに割り付けられるメンバー
シップ関数の一例、 第6図、第7図、第8図はメンバーシップ関数のグレー
ド値を算出するために属性値算出ユニットが採る構成例
の説明図、 第9図は基本ユニットの一実施例、 第10図は階層ネットワークの一実施例、 第11図はシミュレーションに使用した教師信号の説明
図、 第12図は属性値算出ユニットの出力するグレード値の説
明図、 第13図はシミュレーションに使用した教師信号の説明
図、 第14図、第15図はシミュレーションデータの説明図、 第16図は本発明と従来方式のデータ変換処理精度の比較
の説明図、 第17図は基本ユニットの基本構成図、 第18図は階層ネットワークの基本構成図である。 図中、1は基本ユニット、1′は入力ユニット、2は乗
算処理部、3は累算処理部、4は閾値処理部、10はネッ
トワーク構成データ処理装置、11はネットワーク構造
部、12は内部状態値格納部である。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram of the principle of the present invention, FIG. 2 is an explanatory diagram of an attribute function, FIG. 3 is an embodiment of a hierarchical network according to the present invention, FIG. One embodiment of such an input unit, FIG. 5 is an example of a membership function assigned to an attribute value calculation unit, and FIGS. 6, 7, and 8 are attribute values for calculating a grade value of the membership function. FIG. 9 is an explanatory view of an example of a configuration adopted by a calculation unit, FIG. 9 is an embodiment of a basic unit, FIG. 10 is an embodiment of a hierarchical network, FIG. 11 is an explanatory view of a teacher signal used for simulation, and FIG. FIG. 13 is an explanatory diagram of a grade value output from the attribute value calculating unit, FIG. 13 is an explanatory diagram of a teacher signal used for simulation, FIG. 14 and FIG. 15 are explanatory diagrams of simulation data, and FIG. Data conversion processing Illustration of comparison, FIG. 17 is a basic block diagram of the basic unit, FIG. 18 is a basic configuration diagram of a hierarchical network. In the figure, 1 is a basic unit, 1 'is an input unit, 2 is a multiplication processing unit, 3 is an accumulation processing unit, 4 is a threshold processing unit, 10 is a network configuration data processing device, 11 is a network structure unit, and 12 is an internal unit. This is a state value storage unit.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 川村 旭 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (72)発明者 益岡 竜介 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (72)発明者 浅川 和雄 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (72)発明者 松岡 成典 東京都日野市富士町1番地 富士ファコ ム制御株式会社内 (72)発明者 岡田 浩之 東京都日野市富士町1番地 富士ファコ ム制御株式会社内 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Asahi Kawamura 1015 Uedanaka, Nakahara-ku, Kawasaki City, Kanagawa Prefecture Inside Fujitsu Co., Ltd. 72) Inventor Kazuo Asakawa 1015 Uedanaka, Nakahara-ku, Kawasaki City, Kanagawa Prefecture Within Fujitsu Limited (72) Inventor Shigenori Matsuoka 1 Fujimachi, Hino-shi, Tokyo Fuji Facom Control Co., Ltd. (72) Inventor Hiroyuki Okada Tokyo 1 Fujimachi, Hino-shi, Fuji Faccom Control Co., Ltd.

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】1つ又は複数の入力と該入力に対して乗算
されるべき内部状態値とを受け取って積和値を得るとと
もに、該積和値を関数変換することで出力値を得る複数
の基本ユニットの内部結合により構成されるとともに、
入力パターンの入力信号値を受け取って対応する基本ユ
ニットに分配する1つ又は複数の入力ユニットを持つネ
ットワーク構造部を備えて、該ネットワーク構造部のネ
ットワーク構造と該ネットワーク構造の内部状態値とに
より規定されるデータ変換機能に従って、入力パターン
に対応する出力パターンを算出して出力するネットワー
ク構成データ処理装置において、 上記入力ユニットの少なくとも1つが、 自ユニットに入力されてくる信号値の空間を分割すると
ともに、該分割空間の夫々に入力信号値の属性値を規定
する属性関数を割り付け、かつ、入力信号値を受け取る
ときに、該属性関数に従って該属性関数の数分の属性値
を算出して該算出値を対応の基本ユニットに入力してい
くよう構成されてなることを、 特徴とするネットワーク構成データ処理装置。
1. A method for receiving one or more inputs and an internal state value to be multiplied with respect to the input to obtain a product sum value, and obtaining an output value by subjecting the product sum value to a function conversion. In addition to being constituted by the internal connection of the basic units of
A network structure having one or more input units for receiving an input signal value of the input pattern and distributing the input signal value to a corresponding basic unit, wherein the network structure is defined by a network structure of the network structure and an internal state value of the network structure; In a network configuration data processing apparatus for calculating and outputting an output pattern corresponding to an input pattern according to a data conversion function to be performed, at least one of the input units divides a space of a signal value input to the own unit. Assigning an attribute function that defines an attribute value of an input signal value to each of the divided spaces, and, when receiving an input signal value, calculating attribute values for the number of the attribute functions according to the attribute function. Characterized in that it is configured to input values to the corresponding basic units. Configuration data processing apparatus.
【請求項2】入力信号を分配する入力ユニットと、前段
層からの1つ又は複数の入力と該入力に対して乗算され
るべき内部状態値とを受取って積和値を得るとともに、
該積和値を関数変換して出力値を得る基本ユニットとを
用意し、 複数個の上記入力ユニットを入力層とし、かつ、複数個
の上記基本ユニットを中間層として1つ又は複数段の中
間層を備え、かつ、1つ又は複数個の上記基本ユニット
を出力層とし、 入力層と最前段の中間層との間、中間層相互間及び最終
段の中間層と出力層との間で内部結合が構成されるとと
もに、該内部結合に対応して内部状態値が設定されるよ
う構成されるネットワーク構造部を備えるネットワーク
構成データ処理装置において、 上記入力ユニットの少なくとも1つが、 自ユニットに入力されてくる信号値の空間を分割すると
ともに、該分割空間の夫々に入力信号値の属性値を規定
する属性関数を割り付け、かつ、入力信号値を受け取る
ときに、該属性関数に従って該属性関数の数分の属性値
を算出して該算出値を最前段の中間層の基本ユニットに
入力していくよう構成されてなることを、 特徴とするネットワーク構成データ処理装置。
2. An input unit for distributing an input signal, receiving one or more inputs from a preceding layer and an internal state value to be multiplied to the input to obtain a sum of products value.
A basic unit that obtains an output value by converting the product-sum value into a function, and a plurality of input units serving as an input layer, and a plurality of the basic units serving as an intermediate layer serving as one or more intermediate units. And one or a plurality of the above basic units as an output layer, and an internal portion between the input layer and the first intermediate layer, between the intermediate layers, and between the last intermediate layer and the output layer. In a network configuration data processing apparatus comprising a network structure configured to form a connection and to set an internal state value corresponding to the internal connection, at least one of the input units is input to its own unit. Divides the space of the incoming signal values, assigns an attribute function that defines the attribute value of the input signal value to each of the divided spaces, and, when receiving the input signal value, according to the attribute function. A network configuration data processing apparatus characterized in that it is configured to calculate attribute values for the number of attribute functions and to input the calculated values to the basic unit of the intermediate layer at the forefront stage.
JP2017273A 1990-01-26 1990-01-26 Network configuration data processing device Expired - Lifetime JP2744313B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017273A JP2744313B2 (en) 1990-01-26 1990-01-26 Network configuration data processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017273A JP2744313B2 (en) 1990-01-26 1990-01-26 Network configuration data processing device

Publications (2)

Publication Number Publication Date
JPH03222058A JPH03222058A (en) 1991-10-01
JP2744313B2 true JP2744313B2 (en) 1998-04-28

Family

ID=11939366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017273A Expired - Lifetime JP2744313B2 (en) 1990-01-26 1990-01-26 Network configuration data processing device

Country Status (1)

Country Link
JP (1) JP2744313B2 (en)

Also Published As

Publication number Publication date
JPH03222058A (en) 1991-10-01

Similar Documents

Publication Publication Date Title
JP2744313B2 (en) Network configuration data processing device
JPH07210534A (en) Neural network
JP3130326B2 (en) Hierarchical network configuration arithmetic element
JP2559879B2 (en) Fuzzy controller
JP2763366B2 (en) Hierarchical network configuration data processing device and data processing system
JP2763369B2 (en) How to tune fuzzy control rules
JP2763371B2 (en) Hierarchical network configuration fuzzy controller
JP2559878B2 (en) Fuzzy controller
JP2744321B2 (en) Analysis processing method of adaptive data processing device
JP2763317B2 (en) Learning processing method of data processing device
JP2877413B2 (en) Surplus neuron decision processing method
JP2559880B2 (en) Fuzzy controller
JP2559884B2 (en) Fuzzy controller
JP2559876B2 (en) Fuzzy controller
JP2559883B2 (en) Fuzzy controller
JP2559882B2 (en) Fuzzy controller
JP2559877B2 (en) Fuzzy controller
JP2559881B2 (en) Fuzzy controller
JP2763370B2 (en) Hierarchical network configuration fuzzy controller
JP2763367B2 (en) Generating fuzzy control rules
JP2763368B2 (en) Tuning method of membership function in fuzzy control
JP3417574B2 (en) Neuron element for fuzzy logic operation
JPH05128285A (en) Neuro-processor
JP3137669B2 (en) Hierarchical network configuration arithmetic element
JP3137996B2 (en) Neural network using membership function and its learning method