JPH0484356A - Centroid outputting device by neural network - Google Patents

Centroid outputting device by neural network

Info

Publication number
JPH0484356A
JPH0484356A JP2197919A JP19791990A JPH0484356A JP H0484356 A JPH0484356 A JP H0484356A JP 2197919 A JP2197919 A JP 2197919A JP 19791990 A JP19791990 A JP 19791990A JP H0484356 A JPH0484356 A JP H0484356A
Authority
JP
Japan
Prior art keywords
output
neural network
center
gravity
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2197919A
Other languages
Japanese (ja)
Inventor
Ryusuke Masuoka
竜介 益岡
Nobuo Watabe
信雄 渡部
Akira Kawamura
旭 川村
Arimichi Oowada
大和田 有理
Kazuo Asakawa
浅川 和雄
Shigenori Matsuoka
松岡 成典
Hiroyuki Okada
浩之 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Fuji Facom Corp
Original Assignee
Fujitsu Ltd
Fuji Facom Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, Fuji Facom Corp filed Critical Fujitsu Ltd
Priority to JP2197919A priority Critical patent/JPH0484356A/en
Priority to PCT/JP1991/000334 priority patent/WO1991014226A1/en
Priority to KR1019910701593A priority patent/KR950012380B1/en
Priority to CA002057078A priority patent/CA2057078C/en
Priority to EP91905520A priority patent/EP0471857B1/en
Priority to US07/773,576 priority patent/US5875284A/en
Priority to AU73849/91A priority patent/AU653145B2/en
Publication of JPH0484356A publication Critical patent/JPH0484356A/en
Priority to US09/253,705 priority patent/US6456989B1/en
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Devices For Executing Special Programs (AREA)

Abstract

PURPOSE:To make learning be done at a high learning efficiency by normalizing the value of input data within a prescribed input range within each unit becomes the most sensible and, at the same time, restoring the output value of a neural network to its original value. CONSTITUTION:Input normalizing devices 21-2n which map numerals corresponding to each coordinates in a prescribed input range of each unit forming a neural network 1 by using an appropriate function upon receiving the numerals are provided before each input unit. In addition, an output restoring device 3 which maps the output value of an output unit from the output range of the output unit by using a function appropriated to the numeral range of the value upon receiving the output value is provided after the output unit. Therefore, learning is made at a high learning efficiency and the reliability is improved.

Description

【発明の詳細な説明】 〔目次〕 概要 産業上の利用分野 従来の技術(第11.12図) 発明が解決しようとする課題 課題を解決するための手段(第1図) 作用(第1.2.3図) 実施例(第4〜10図) 発明の効果 〔概要〕 少なくとも、数直線上の与えられた各座標に対応するも
のとして設けられた各入力ユニットと、1個の出力ユニ
ットとからなるニューラルネットワークにより、各座標
に対応する数値を入力して数直線上の重心を出力するニ
ューラルネットワークによる重心出力装置に関し、 高い学習効率で学習を行うことを可能とし、これによっ
て信頼性のあるニューラルネットワークの重心出力装置
を提供することを目的とし、各入力ユニットの前に、前
記各座標に対応する数値を受け取ると、当該値をニュー
ラルネットワークを形成する各ユニットの所定入力範囲
内に適当な関数で写象する入力正規化装置を設けるとと
もに、出力ユニットの後に、当該ユニットが出力した出
力値を受け取ると、当該値を当該ユニットの出力範囲内
から前記数値範囲に適当な関数で写象する出力復元装置
を設けた構成である。
[Detailed description of the invention] [Table of contents] Overview Industrial field of application Prior art (Fig. 11.12) Problems to be solved by the invention Means for solving the problem (Fig. 1) Effect (Fig. 1. 2.3) Embodiment (Figures 4 to 10) Effects of the invention [Summary] At least, each input unit provided corresponding to each given coordinate on the number line, and one output unit. With regard to the center of gravity output device using a neural network, which inputs numerical values corresponding to each coordinate and outputs the center of gravity on a number line, it is possible to perform learning with high learning efficiency, and this makes it possible to achieve reliable The purpose is to provide a center-of-gravity output device for a neural network, in front of each input unit, upon receiving a numerical value corresponding to each coordinate, the value is appropriately set within a predetermined input range of each unit forming the neural network. An input normalization device that maps with a function is provided, and when an output value output by the unit is received after the output unit, the value is mapped from within the output range of the unit to the numerical range using an appropriate function. This configuration includes an output restoration device.

〔産業上の利用分野〕[Industrial application field]

本発明はニューラルネットワークによる重心出力装置に
係り、特に、少なくとも、数直線上の与えられた各座標
に対応するものとして設けられた各入力ユニットと、1
個の出力ユニットとからなるニューラルネットワークに
より、各座標に対応する数値を入力して数直線上の重心
を出力するニューラルネットワークによる重心出力装置
に関する。
The present invention relates to a center of gravity output device using a neural network, and in particular, at least each input unit provided as one corresponding to each given coordinate on a number line;
The present invention relates to a center-of-gravity output device using a neural network that inputs numerical values corresponding to each coordinate and outputs the center of gravity on a number line using a neural network consisting of output units.

近年、ニューラルネットワーク等を用いたパターン認識
装置や適応フィルタ等が利用されている。
In recent years, pattern recognition devices and adaptive filters using neural networks and the like have been used.

更に、今までプラント制御等、従来ファジィモデルを適
用してきた分野で、ファジィモデルをニューロモデルで
実現することが行われるようになった。ファジィモデル
は後件部の計算に重心を使うことが多い。ファジィモデ
ルを全であるいは部分的にニューロモデルで実現するた
めには、重心を決定する要素を出力するようなニューラ
ルネットワークが必要になる。本発明はそのような重心
を近似的に出力するニューラルネットワークによる重心
出力装置を与えるものである。
Furthermore, in fields where fuzzy models have traditionally been applied, such as plant control, fuzzy models are now being realized using neuromodels. Fuzzy models often use the center of gravity to calculate the consequent. In order to realize a fuzzy model entirely or partially using a neural model, a neural network that outputs elements that determine the center of gravity is required. The present invention provides a center of gravity output device using a neural network that approximately outputs such a center of gravity.

(従来の技術) 今までのプログラム内蔵方式のコンピュータは全ての場
合について動作を指定する必要があった。
(Prior Art) Conventional computers with built-in programs have had to specify operations for all cases.

一方、ニューラルネットワーク等は代表的な学習パター
ンを何回か提示することにより学習することができ、与
えていないパターンに対しても適切な解を与えることが
できる。
On the other hand, neural networks and the like can learn by presenting typical learning patterns several times, and can provide appropriate solutions even for patterns that are not presented.

ニューラルネットワーク構成のデータ処理装置では、明
示的なプログラムを作成することなく、学習用に用意さ
れた入力信号(入カバターン)の提示に対して出力され
るネットワークからの出力信号(出カバターン)が、教
師信号(教師パターン)と一致するべく所定の学習アル
ゴリズムに従って、前記ネットワークの各内部結合の重
み値を決定していくことになる。当該学習処理により重
み値が決定されると、想定していなかった入力信号が入
力されることになっても、この階層ネットワークからそ
れらしい出力信号を出力するという′柔らかい゛データ
処理機能が実現されることになる。
In a data processing device with a neural network configuration, an output signal (output pattern) from a network that is output in response to the presentation of an input signal (input pattern) prepared for learning, without creating an explicit program, is The weight value of each internal connection of the network is determined according to a predetermined learning algorithm in order to match the teacher signal (teacher pattern). Once the weight values are determined through the learning process, a 'soft' data processing function is realized in which the hierarchical network outputs a suitable output signal even if an unexpected input signal is input. That will happen.

ニューラルネットワークの代表的な構造と学習方法には
階層型ネットワークとパックプロパゲーション法や階層
型ネットワークと仮想インピーダンス法等がある。
Typical structures and learning methods of neural networks include hierarchical networks and pack propagation methods, hierarchical networks and virtual impedance methods, etc.

第11図に従来例に係るニューラルネットワークにおけ
る重心出力装置を示す。
FIG. 11 shows a center of gravity output device in a neural network according to a conventional example.

本装置は同図に示すように、ニューラルネットワークを
用いた重心出力装置であって、乱数による値を与えられ
た座標における値とし、当該乱数を適当な線形関数でニ
ューラルネットワークの入出力範囲に写像した教師デー
タを学習データとして供給し、ニューラルネットワーク
を学習させて、重心を近似的に出力するニューラルネッ
トワークを学習させる重心学習装置93と、教師データ
と出力値とが一致するようにニューラルネットワークの
内部状態数を定めるように制御を行うニューラルネット
ワーク制御部92と、ニューロンにより構成され定めら
れた内部状態に基づいて入力データを変換して該当する
データの出力を行うニューラルネットワーク91とを有
するものである。
As shown in the figure, this device is a centroid output device using a neural network, which takes a value of a random number at a given coordinate and maps the random number to the input/output range of the neural network using an appropriate linear function. A center-of-gravity learning device 93 supplies training data obtained as learning data to the neural network to learn the neural network and outputs an approximate center of gravity, and a center-of-gravity learning device 93 that trains the neural network to output the center of gravity approximately. It has a neural network control unit 92 that performs control to determine the number of states, and a neural network 91 that is composed of neurons and that converts input data based on the determined internal state and outputs the corresponding data. .

尚、各ユニットにニューロン)は例えば第11図に示す
ように、複数の入力線と1つの出力線を有するものであ
り、各入力線に対応付けられた重みを各入力値に乗算し
て加えたものについて、非線形の閾値処理等の関数変換
処理を行って、出力線から該当する信号を出力するもの
である。
Note that each unit (neuron) has multiple input lines and one output line, as shown in Fig. 11, and each input value is multiplied and added by the weight associated with each input line. This is to perform function conversion processing such as non-linear threshold processing on the output signal and output the corresponding signal from the output line.

ここで、i番目の基本ユニット110は第12図に示す
ように、累算部110aと、闇値処理部110bと、を
有する。
Here, as shown in FIG. 12, the i-th basic unit 110 includes an accumulation section 110a and a dark value processing section 110b.

前段の各ユニット(h)等から出力された入力値を各々
Ihとし、各入力線に付加された重みを各々Whiとし
、当該ユニットに対応付けられた閾値なθ五とし、入力
する数値の総和をS、とじ、当該ユニットの出力値をO
iとすると、当該ユニットの累算部110aでは、 Si−ΣIhWhi が求められる。
Let Ih be the input value output from each unit (h) in the previous stage, respectively Whi, the weight added to each input line, let θ5 be the threshold value associated with the unit, and let the sum of the input numerical values be is set to S, and the output value of the unit is set to O.
When i, the accumulator 110a of the unit calculates Si-ΣIhWh.

また、閾値処理部110bでは、例えば、Or  = 
 f(S t)・1/(1+exp(−S x  十 
01 ))が求められ、出力されることになる。
Further, in the threshold processing unit 110b, for example, Or =
f(S t)・1/(1+exp(−S x 10
01)) will be determined and output.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

ところで、従来例に係る重心出力装置にあっては、当該
ニューラルネットワークに入力するデータの値は何ら制
限されておらず、あらゆる値の入力が可能であるとして
いる。
By the way, in the conventional center of gravity output device, the value of data input to the neural network is not limited at all, and any value can be input.

しかし、各ユニットが敏感となる範囲(sensi−t
ive ;入力値のちょっとした違いが出力値としては
比較的大きな違いとなって現れる範囲)は閾値処理が行
われる関数の変化率が大きい場所であって、変極点また
は階段状関数の場合の階段付近の範囲である。当該範囲
以外に属する入力値がいくつかユニットに入力しても、
出力値としては大きな違いがないため、十分な学習効果
を上げることができず、学習効率が悪い。従って、その
ような方法で学習されたニューラルネットワークを用い
て重心を求めても信頼性のある重心を得られない可能性
がある。
However, the range to which each unit is sensitive (sensi-t
ive; a range where a small difference in input value results in a relatively large difference in output value) is a place where the rate of change of the function where threshold processing is performed is large, and is near an inflection point or a staircase in the case of a step-like function. is within the range of Even if some input values belonging to outside the range are input to the unit,
Since there is no large difference in output value, it is not possible to achieve a sufficient learning effect, and the learning efficiency is poor. Therefore, even if the center of gravity is determined using a neural network trained using such a method, there is a possibility that a reliable center of gravity cannot be obtained.

そこで、本発明は高い学習効率で学習を行うことを可能
とし、これによって信頼性のあるニューラルネットワー
クの重心出力装置を提供することを目的としてなされた
ものである。
SUMMARY OF THE INVENTION Therefore, it is an object of the present invention to provide a reliable center-of-gravity output device for a neural network that enables learning to be performed with high learning efficiency.

(課題を解決するための手段) 以上の技術的課題を解決するため、本発明は第1図に示
すように、少なくとも、数直線上の与えられた各座標に
対応するものとして設けられた各入力ユニットと、1個
の出力ユニットとからなるニューラルネットワーク1に
より、各座標に対応する数値を入力して数直線上の重心
を出力するニューラルネットワークによる重心出力装置
において、各入力ユニットの前に、前記各座標に対応す
る数値を受け取ると、当該値をニューラルネットワーク
を形成する各ユニットの所定入力範囲内に適当な関数で
写象する入力正規化装置21゜2□・・・s2nを設け
るとともに、出力ユニットの後に、当該ユニットが出力
した出力値を受け取ると、当該ユニットの出力範囲内に
ある当該値を前記座標値の範囲に適当な関数で写象する
出力復元装置3を設けたものである。
(Means for Solving the Problems) In order to solve the above-mentioned technical problems, the present invention, as shown in FIG. In a center of gravity output device using a neural network that outputs the center of gravity on a number line by inputting numerical values corresponding to each coordinate using a neural network 1 consisting of an input unit and one output unit, in front of each input unit, An input normalization device 21゜2□...s2n is provided which, upon receiving the numerical value corresponding to each coordinate, maps the value into a predetermined input range of each unit forming the neural network using an appropriate function; After the output unit, an output restoring device 3 is provided which, upon receiving the output value output by the unit, maps the value within the output range of the unit to the coordinate value range using an appropriate function. .

(作用) 各座標値に対応付けられた各入力ユニットの前に設けら
れた入力正規化装置に各座標に対応付けられた学習デー
タとしての数値が入力される。
(Operation) Numerical values as learning data associated with each coordinate value are input to an input normalization device provided in front of each input unit associated with each coordinate value.

当該正規化装置2五は当該値を受けとると各ニューロン
の所定入力範囲内に当該値を適当な関数で写象すること
になる。
When the normalization device 25 receives the value, it maps the value within a predetermined input range of each neuron using an appropriate function.

ここで、「適当な関数」とは、例えば、第2図に示す請
求項2に記載した線形関数である。
Here, the "appropriate function" is, for example, the linear function described in claim 2 shown in FIG.

また、「線形関数」とは変数の一次式で表されるような
関数をいう。
Furthermore, a "linear function" refers to a function expressed by a linear equation of variables.

さらに、「各ユニットの所定入力範囲」とは各ユニット
で行われる閾値処理で用いられる関数の変化率の最も大
きい部分、例えば、変極点付近や階段状関数の階段部分
を含む範囲をいい、各ユニットの最も敏感な範囲であっ
て、入力データの小さな相違も出力データとして大きな
相違をもつことになる範囲である。
Furthermore, the "predetermined input range of each unit" refers to the range that includes the part where the rate of change of the function used in the threshold processing performed in each unit is the largest, such as the vicinity of the inflection point and the step part of the step-like function. This is the most sensitive range of the unit, where a small difference in the input data will result in a large difference in the output data.

したがって、学習効率が高いことになる。Therefore, learning efficiency is high.

前記所定入力範囲に写象された入力データは各座標に対
応付けられた前記入力ユニットに入力し、闇値処理がさ
れて出力線からデータが出力され、次のユニットに入力
することになる。
The input data mapped to the predetermined input range is input to the input unit associated with each coordinate, subjected to dark value processing, and the data is output from the output line and input to the next unit.

こうして、当該ニューラルネットワークから出力された
値は前記出力復元装置に入力し、適当な関数により本来
の数値範囲である座標値に復元されて重心が得られるこ
とになる。
In this way, the values output from the neural network are input to the output restoring device, and are restored to coordinate values in the original numerical range by an appropriate function, thereby obtaining the center of gravity.

ここで、「適当な関数」としては、例えば、入力正規化
装置で用いたような線形関数を用いる。
Here, as the "appropriate function", for example, a linear function such as that used in the input normalization device is used.

また、「重心X」とは、例えば、数直線上の各座標Xi
に対応付けられた数値(一種の質量と考える)mtに対
して、 X=Σmi Xl 72m4 をいう。
In addition, the "center of gravity X" means, for example, each coordinate Xi on the number line.
For the numerical value (considered as a type of mass) mt associated with , we say: X=Σmi Xl 72m4.

これは、ファジィ推論では一般的に上式に従って同一の
出力変数についての縮小されたメンバシップ関数の関数
和の図形の重心を求めることで推論値を算出する方法を
取っているからである。
This is because in fuzzy inference, an inference value is generally calculated by finding the center of gravity of the sum of functions of reduced membership functions for the same output variable according to the above equation.

尚、請求項3に記載したように、第3図に示すような階
層型のニューラルネットワークを採用しても良い。
Incidentally, as described in claim 3, a hierarchical neural network as shown in FIG. 3 may be employed.

〔実施例〕〔Example〕

続いて、本発明の実施例について説明する。 Next, examples of the present invention will be described.

第4図に本実施例に係るニューラルネットワークによる
重心出力装置を含む全体のブロック図を示す。
FIG. 4 shows an overall block diagram including a center of gravity output device using a neural network according to this embodiment.

同図に示すように、本システムはファジィ推論を行うニ
ューラルネットワークからなるファジィ推論部40と、
数直線上の与えられた座標毎に対応する数値を分配する
各座標毎対応値出力部50と、当該数直線上の重心値の
出力を行うニューラルネットワーク11と、当該ニュー
ラルネットワークの前記重み値や閾値の内部状態の設定
や変更等の制御を行うニューラルネットワーク制御部2
0と、当該ニューラルネットワーク11に対し当該ニュ
ーラルネットワーク11が正しい重心値を出力するよう
に教師データの発生等を行う重心学習装置30と、を有
するものである。
As shown in the figure, this system includes a fuzzy inference unit 40 consisting of a neural network that performs fuzzy inference,
A corresponding value output unit 50 for each coordinate that distributes a numerical value corresponding to each given coordinate on the number line, a neural network 11 that outputs the center of gravity value on the number line, and a neural network 11 that outputs the weight value of the neural network. Neural network control unit 2 that controls setting and changing of the internal state of the threshold value
0, and a center-of-gravity learning device 30 that generates teaching data for the neural network 11 so that the neural network 11 outputs a correct center-of-gravity value.

ここで、「ニューラルネットワーク」とは、多数ノ基本
ユニットにューロン)と呼ばれるノートと、内部状態を
表すデータに相当する重み値を持つ内部結合とにより形
成され、各ユニットには内部状態を表すデータに相当す
る閾値により閾値処理が行われることにより、入力デー
タを出力データに変換するものである。
Here, a "neural network" is formed by a large number of basic units, notes called neurons), and internal connections with weight values corresponding to data representing the internal state, and each unit has data representing the internal state. Input data is converted into output data by performing threshold processing using a threshold value corresponding to .

また、前記ニューラルネットワーク11には前記各入力
ユニットの前に、前記各座標に対応する数値を受け取る
と、当該数値を包含する数値範囲をニューラルネットワ
ークを形成する各ユニットの所定入力範囲内に適当な線
形関数で写象する入力正規化装置121.12□・・・
、12nが設けられ、ニューラルネットワークの出力値
を当該ニューラルネットワークの出力範囲内から座標値
の範囲に適当な関数としての線形関数で写象する出力復
元装置13が設けられている。
In addition, when the neural network 11 receives a numerical value corresponding to each coordinate before each input unit, it appropriately sets a numerical range that includes the numerical value within a predetermined input range of each unit forming the neural network. Input normalization device 121.12□... that maps with a linear function
, 12n are provided, and an output restoration device 13 is provided which maps the output value of the neural network from within the output range of the neural network to the range of coordinate values using a linear function as an appropriate function.

さらに、第5図に示すように、前記重心学習装置30に
は当該重心学習装置30の種々の制御を行う制御部31
と、外部から入力した座標値、入出力範囲及び教師デー
タ数を保存する定数保存部33と、乱数を発生させる乱
数発生部34と、前記定数保存部33に保持されている
座標値、入出力範囲及び教師データ数等の定数を保存す
る定数保存部33と、乱数を発生させる乱数発生部34
と、前記定数保存部33に保存されている定数及び前記
発生部34から発生した乱数に基づいて学習用に用いる
教師データを発生させる教師データ発生部32と、を有
するものである。
Furthermore, as shown in FIG.
, a constant storage unit 33 that stores externally input coordinate values, input/output ranges, and the number of training data; a random number generation unit 34 that generates random numbers; and a constant storage unit 33 that stores coordinate values and input/output values held in the constant storage unit 33. A constant storage unit 33 that stores constants such as range and number of training data, and a random number generation unit 34 that generates random numbers.
and a teacher data generation section 32 that generates teacher data used for learning based on the constants stored in the constant storage section 33 and the random numbers generated from the generation section 34.

また、第5図に示すように、前記ニューラルネットワー
ク制御部20には前記教師データ発生部32から発生し
た教師データを学習データとして保存する学習データ保
存部22と、前記ニューラルネットワーク11の各ユニ
ット間の接続線に対応付けられた重み、各ユニットが閾
値処理に用いる閾値、学習定数及びモーメント等のニュ
ーラルネットワーク11が従うべき内部状態データを保
存する内部状態保存部23と、前記重心学習装置30の
前記制御部31からの指示があった場合に、学習データ
保存部22に保存されている学習データを前記ニューラ
ルネットワーク11に入力させるとともに、前記ニュー
ラルネットワーク11から出力された重心を表す出力値
と重心を表す教師データとを比較して前記内部状態保存
部23に保存されている内部状態の変更の制御を行う学
習制御部21とを有するものである。
Further, as shown in FIG. 5, the neural network control section 20 includes a learning data storage section 22 that stores the teaching data generated from the teaching data generating section 32 as learning data, and a an internal state storage section 23 that stores internal state data to be followed by the neural network 11, such as weights associated with connection lines, thresholds used by each unit for threshold processing, learning constants, moments, etc.; When there is an instruction from the control unit 31, the learning data stored in the learning data storage unit 22 is input to the neural network 11, and the output value representing the center of gravity output from the neural network 11 and the center of gravity are input. and a learning control section 21 that controls changes in the internal state stored in the internal state storage section 23 by comparing it with teacher data representing the internal state.

さらに、第6図に示すように、本実施例に係るニューラ
ルネットワーク11は数直線上の与えられた各座標に対
応するものとして設けられた5個の入力ユニット101
1〜1015からなる入力層101と、1段の中間層1
02と、1個の出力ユニット1031からなる出力層1
03からなる。
Further, as shown in FIG. 6, the neural network 11 according to this embodiment has five input units 101 provided corresponding to each given coordinate on the number line.
An input layer 101 consisting of 1 to 1015 and a single intermediate layer 1
02 and one output unit 1031.
Consists of 03.

尚、中間層102は10個のユニット102□〜102
□。を有する。
Note that the middle layer 102 includes 10 units 102□ to 102
□. has.

続いて、本実施例の重心学習装置の制御動作を説明する
Next, the control operation of the center of gravity learning device of this embodiment will be explained.

第7図の流れ図に示すように、ステップSJIで当該重
心学習装置30の前記制御部31は外部から座標値、入
出力範囲及び教師データ数を読み込み前記定数保存部3
3に保存する。
As shown in the flowchart of FIG. 7, in step SJI, the control unit 31 of the center of gravity learning device 30 reads coordinate values, input/output range, and number of teacher data from the outside, and reads the constant storage unit 3.
Save to 3.

ステップSJ2で当該制御部31は教師データ発生部3
2に対し、教師データを発生するように指示する。
In step SJ2, the control section 31 controls the teacher data generation section 3.
2 to generate training data.

当該教師データ発生部32はステップSJ3で前記定数
保存部33から定数データを読み出す。
The teacher data generation section 32 reads constant data from the constant storage section 33 in step SJ3.

ステップSJ4で教師データ発生部32は乱数発生部か
ら乱数を取り出し、ステップSJ5で教師データ発生部
32は読み出した定数と乱数とから教師データを発生さ
せる。
In step SJ4, the teacher data generator 32 extracts a random number from the random number generator, and in step SJ5, the teacher data generator 32 generates teacher data from the read constant and random number.

ステップSJ6で教師データ発生部32は教師データを
ニューラルネットワーク制御部20の学習データ保存部
22に転送して保存させる。
In step SJ6, the teacher data generation section 32 transfers the teacher data to the learning data storage section 22 of the neural network control section 20 and stores it therein.

ステップSJ7で前記学習装置30の制御部31はニュ
ーラルネットワーク制御部20の前記学習制御部21に
対し、学習の指示命令を出すことになる。
In step SJ7, the control section 31 of the learning device 30 issues a learning instruction command to the learning control section 21 of the neural network control section 20.

尚、本実施例では、数直線上の与えられた座標を(1,
2,3,4,5) とし、各座標に対応する数値(“質
量″に相当するもの)の入力範囲を0≦y≦10とし、
ユニットの入出力範囲は0≦t≦1であるが、座標及び
座標における値を前記所定入力範囲としてユニットが敷
感である0、2≦t≦0.8の範囲に写象する。そこで
、正規化装置12゜(i=1.2.・・・)の線形関数
として、1nput=0.6y/10+0.2    
・・・■を用い、前記出力復元装置13が用いる適当な
線形関数として、 c=4(output−0,2)10.6+1  ・・
・■を用いることにする。
In this example, given coordinates on the number line are (1,
2, 3, 4, 5), and the input range of the numerical value corresponding to each coordinate (corresponding to "mass") is 0≦y≦10,
The input/output range of the unit is 0≦t≦1, but the coordinates and values at the coordinates are mapped to the range of 0, 2≦t≦0.8, which is the predetermined input range of the unit. Therefore, as a linear function of the normalizer 12° (i=1.2...), 1nput=0.6y/10+0.2
...■, and as an appropriate linear function used by the output restoration device 13, c=4(output-0,2)10.6+1...
・We will use ■.

重心学習装置が発生した学習データ(0≦y≦10)9
0個の一部を前記正規化装置により0.2≦t≦0.8
の範囲に写象したものの例を第8図に示す。ここで。p
attern (an)の各欄に並べた5個の値は、前
述した数直線上の与えられた座標(1,2゜3.4.5
)に対応する正規化された教師データとじての入力値で
あり、各欄の矢印の後にくる値は正規化された教師デー
タとしての出力値である。
Learning data generated by the center of gravity learning device (0≦y≦10) 9
A part of 0 is 0.2≦t≦0.8 by the normalization device.
An example of what is mapped to the range is shown in FIG. here. p
The five values arranged in each column of attern (an) are given the coordinates (1, 2° 3.4.5
) is the input value as normalized teaching data corresponding to , and the value following the arrow in each column is the output value as normalized teaching data.

この教師データの入力値を入力層5ユニツト、中間層1
0ユニツト、出力層1ユニツトの階層型のニューラルネ
ットワークに、学習定数5.0、モーメント0.4、及
び収束条件として当該ネットワークの出力値と教師デー
タの出力値との差が0.01以下を前記内部状態保存部
23に対して設定して、入力させると、学習は2853
88回で終了し、各重み及び閾値は第9図のようになっ
た。
The input value of this teacher data is input to 5 units in the input layer and 1 unit in the middle layer.
A hierarchical neural network with 0 units and 1 unit in the output layer has a learning constant of 5.0, a moment of 0.4, and a convergence condition such that the difference between the output value of the network and the output value of the training data is 0.01 or less. When set and input to the internal state storage unit 23, learning is 2853
The test was completed in 88 times, and the weights and threshold values were as shown in FIG.

同図でweightcl〉<Q>で示した5個の値は中
間層102の第0番目(0番目から始まる)のユニット
102□と、入力層101の5個の各入力ユニット10
1□〜1015とを接続した入力線に対応付けられ、学
習により得られた重みを示すものであり、weight
<2〉<0>で示した10個の値は出力層103の第0
番目(出力層には1個のニューロンしか存在しない)の
ユニット103□と前記中間層102の10個の各ユニ
ット1021〜102.oとを接続する線に対応付けら
れた重みを示すものである。
In the figure, the five values indicated by weightcl><Q> are applied to the 0th (starting from 0th) unit 102□ of the intermediate layer 102 and each of the five input units 10 of the input layer 101.
It is associated with the input line connecting 1□ to 1015, and indicates the weight obtained by learning.
<2> The 10 values indicated by <0> are the 0th values of the output layer 103.
unit 103□ (only one neuron exists in the output layer) and each of the ten units 1021 to 102 of the intermediate layer 102. This shows the weight associated with the line that connects o.

また、threshold (1) (0)の値は、中
間層102の第0番目のユニット102□で行われる閾
値処理に用いられる閾値を示すものであり、thres
hold (2) (0)は出力層103第O番目の出
力ユニット103□で行われる閾値を示すものである。
Further, the value of threshold (1) (0) indicates the threshold value used in the threshold processing performed in the 0th unit 102□ of the intermediate layer 102, and
hold (2) (0) indicates the threshold value performed in the O-th output unit 103□ of the output layer 103.

第10図には、実施例で得られたニューラルネットワー
クを用いた重心出力装置が出力した重心の値と、実際の
重心とを示したものであり、10個のデータにより誤差
の最大値は0.12249であり、誤差の平均値は0.
036018である。
Figure 10 shows the value of the center of gravity output by the center of gravity output device using the neural network obtained in the example and the actual center of gravity. .12249, and the average error value is 0.12249.
It is 036018.

尚、以上の例では出力ユニットは1個の場合を説明した
が当該場合に限られることはない。
In addition, although the case where the number of output units is one was explained in the above example, it is not limited to this case.

また、以上の例では前記入力正規化装置及び出力復元装
置の関数は線形関数としたが、当該場合に限られること
なく、非線形関数であっても良い。
Further, in the above example, the functions of the input normalization device and the output restoration device are linear functions, but the function is not limited to this case, and may be nonlinear functions.

(発明の効果〕 以上説明したように、本発明では、各ユニットにューロ
ン)が最も敏感となる所定入力範囲に入力データの値を
正規化するとともに、ニューラルネットワークの出力値
を本来の値に復元するようにしている。
(Effects of the Invention) As explained above, in the present invention, the value of the input data is normalized to a predetermined input range in which the neuron in each unit is most sensitive, and the output value of the neural network is restored to the original value. I try to do that.

したがって、入力データの差異が出力データの差異に結
びつき、高い学習効率で学習を行うことが可能であり、
これによって信頼性のあるニューラルネットワークの重
心出力装置を提供することができる。
Therefore, differences in input data are linked to differences in output data, making it possible to perform learning with high learning efficiency.
This makes it possible to provide a reliable center of gravity output device for a neural network.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は発明の原理ブロック図、第2.3図は発明の実
施態様を示すブロック図、第4図は実施例に係るシステ
ム全体図、第5図は実施例に係る重心出力装置を示す全
体ブロック図、第6図は実施例に係るニューラルネット
ワークを示すブロック図、第7図は実施例に係る重心学
習装置制御フロー、第8図は実施例に係る重心学習装置
が発生した教師データ例を示す図、第9図は実施例に係
る学習したネットワークの重みと閾値の例を示す図、第
10図は実施例に係る実験結果を示す図、第11図は従
来例に係る重心出力装置を示すブロック図、及び第12
図は基本ユニットの構成図である。 1.10.11・・・ニューラルネットワーク21 +
 22 r〜2n。 12□、12□、〜12n1 521、522.〜52n・・・入力正規化装置3.1
3.53・・・出力復元装置
Figure 1 is a block diagram of the principle of the invention, Figures 2.3 are block diagrams showing embodiments of the invention, Figure 4 is an overall system diagram according to the embodiment, and Figure 5 is a center of gravity output device according to the embodiment. Overall block diagram, FIG. 6 is a block diagram showing the neural network according to the embodiment, FIG. 7 is the control flow of the center of gravity learning device according to the embodiment, and FIG. 8 is an example of training data generated by the center of gravity learning device according to the embodiment. , FIG. 9 is a diagram showing an example of learned network weights and threshold values according to the embodiment, FIG. 10 is a diagram showing experimental results according to the embodiment, and FIG. 11 is a center of gravity output device according to the conventional example. A block diagram showing the 12th
The figure is a configuration diagram of the basic unit. 1.10.11...Neural network 21 +
22r~2n. 12□, 12□, ~12n1 521, 522. ~52n...Input normalization device 3.1
3.53...Output restoration device

Claims (4)

【特許請求の範囲】[Claims] (1)少なくとも、数直線上の与えられた各座標に対応
するものとして設けられた各入力ユニットと、1個の出
力ユニットとからなるニューラルネットワーク(1)に
より、各座標に対応する数値を入力して数直線上の重心
を出力するニューラルネットワークによる重心出力装置
において、各入力ユニットの前に、前記各座標に対応す
る数値を受け取ると、当該値をニューラルネットワーク
を形成する各ユニットの所定入力範囲内に適当な関数で
写象する入力正規化装置(2_1、2_2…、2_n)
を設けるとともに、 出力ユニットの後に、当該ユニットが出力した出力値を
受け取ると、当該ユニットの出力範囲内にある当該値を
前記座標値の範囲に適当な関数で写象する出力復元装置
(3)を設けたことを特徴とするニューラルネットワー
クによる重心出力装置。
(1) A neural network (1) consisting of at least each input unit provided corresponding to each given coordinate on the number line and one output unit inputs a numerical value corresponding to each coordinate. In a center-of-gravity output device using a neural network that outputs the center of gravity on a number line, when a numerical value corresponding to each coordinate is received before each input unit, the value is transferred to a predetermined input range of each unit forming the neural network. Input normalization device (2_1, 2_2..., 2_n) that maps with an appropriate function within
and, after the output unit, an output restoring device (3) that, upon receiving the output value outputted by the unit, maps the value within the output range of the unit to the range of the coordinate values using an appropriate function. A center of gravity output device using a neural network, characterized in that it is provided with a.
(2)少なくとも、数直線上の与えられた各座標に対応
するものとして設けられた各入力ユニットと、1個の出
力ユニットとからなるニューラルネットワーク(1)に
より、各座標に対応する数値を入力して数直線上の重心
を出力するニューラルネットワークによる重心出力装置
において、各入力ユニットの前に、前記各座標に対応す
る数値を受け取ると、当該値をニューラルネットワーク
を形成する各ユニットの所定入力範囲内に適当な線形関
数で写象する入力正規化装置 (52_1、52_2…、52_n)を設けるとともに
、 出力ユニットの後に、当該ユニットが出力した出力値を
受け取ると、当該ユニットの出力範囲内にある当該値を
前記座標値の範囲に適当な線形関数で写象する出力復元
装置(53)を設けたことを特徴とするニューラルネッ
トワークによる重心出力装置。
(2) A neural network (1) consisting of at least each input unit provided corresponding to each given coordinate on the number line and one output unit inputs a numerical value corresponding to each coordinate. In a center-of-gravity output device using a neural network that outputs the center of gravity on a number line, when a numerical value corresponding to each coordinate is received before each input unit, the value is transferred to a predetermined input range of each unit forming the neural network. In addition to providing an input normalization device (52_1, 52_2..., 52_n) that maps with an appropriate linear function in A center-of-gravity output device using a neural network, characterized in that an output restoring device (53) is provided for mapping the value to the range of the coordinate values using an appropriate linear function.
(3)数直線上の与えられた各座標に対応するものとし
て設けられた各入力ユニットからなる入力層(101)
と、0段以上の中間層(102)と、1個の出力ユニッ
トからなる出力層(103)とからなるニューラルネッ
トワーク(10)により、前記各座標に対応する数値を
入力して、数直線上の重心を出力するニューラルネット
ワークによる重心出力装置において、 前記各入力ユニットの前に前記各座標に対応する値を受
け取ると、当該値をユニットの所定入力範囲内に適当な
線形関数で写象する入力正規化装置(52_1、52_
2、…、52_n)を設けるとともに、 出力ユニットの後に、当該ユニットが出力した出力値を
受け取ると、出力ユニットの出力範囲内にある当該値を
前記座標値の範囲に適当な線形関数で写象する出力復元
装置(53)を設けたことを特徴とするニューラルネッ
トワークによる重心出力装置。
(3) Input layer (101) consisting of each input unit provided as one corresponding to each given coordinate on the number line
A neural network (10) consisting of an intermediate layer (102) with 0 or more stages and an output layer (103) consisting of one output unit inputs numerical values corresponding to each coordinate and calculates the result on the number line. In a center of gravity output device using a neural network that outputs a center of gravity of Normalization device (52_1, 52_
2, ..., 52_n), and after the output unit receives the output value output by the unit, it maps the value within the output range of the output unit to the range of the coordinate values using an appropriate linear function. A center-of-gravity output device using a neural network, characterized in that it is provided with an output restoration device (53).
(4)請求項1、請求項2または請求項3記載のニュー
ラルネットワークによる重心出力装置において、 乱数による値を与えられた座標における値とし、当該乱
数を適当な線形関数でニューラルネットワークの入出力
範囲に写象した教師データを学習データとして供給し、
ニューラルネットワークを学習させて、重心を近似的に
出力するニューラルネットワークを学習させる重心学習
装置を設けたことを特徴とするニューラルネットワーク
による重心出力装置。(5)請求項4記載のニューラル
ネットワークによる重心出力装置に設けた重心学習装置
において、乱数による値を与えられた座標における値と
して発生させる乱数発生部と、 各入力に対応する座標値、入力範囲及び必要な教師デー
タ数等の定数を保存する定数保存部と、定数保存部に保
存された定数及び乱数発生部で発生した乱数に基づいて
乱数による値を与えられた座標における値とし、発生し
た乱数を適当な線形関数でニューラルネットワークの入
出力範囲に写象した教師データを発生させる教師データ
発生部とを有し、 当該教師データを学習データとして供給して、重心を近
似的に出力させてニューラルネットワークを学習させる
重心学習装置を設けたことを特徴とするニューラルネッ
トワークによる重心出力装置。
(4) In the center-of-gravity output device using a neural network according to claim 1, claim 2, or claim 3, a value based on a random number is taken as a value at a given coordinate, and the random number is applied to an input/output range of the neural network using an appropriate linear function. The training data mapped to the image is supplied as learning data,
A center of gravity output device using a neural network, comprising a center of gravity learning device that trains a neural network to approximately output a center of gravity. (5) In the center of gravity learning device provided in the center of gravity output device using a neural network according to claim 4, there is provided a random number generation unit that generates a value of random numbers as a value at given coordinates, and coordinate values and input ranges corresponding to each input. and a constant storage section that stores constants such as the number of required training data, and a random number value at the given coordinates based on the constants stored in the constant storage section and the random numbers generated in the random number generation section. and a teacher data generating section that generates teacher data that maps random numbers to the input/output range of the neural network using an appropriate linear function, supplies the teacher data as learning data, and outputs the center of gravity approximately. A center-of-gravity output device using a neural network, characterized in that it includes a center-of-gravity learning device for learning a neural network.
JP2197919A 1990-03-12 1990-07-27 Centroid outputting device by neural network Pending JPH0484356A (en)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2197919A JPH0484356A (en) 1990-07-27 1990-07-27 Centroid outputting device by neural network
PCT/JP1991/000334 WO1991014226A1 (en) 1990-03-12 1991-03-12 Neuro-fuzzy fusion data processing system
KR1019910701593A KR950012380B1 (en) 1990-03-12 1991-03-12 Neuro-fuzzy fusion data processing system
CA002057078A CA2057078C (en) 1990-03-12 1991-03-12 Neuro-fuzzy fusion data processing system
EP91905520A EP0471857B1 (en) 1990-03-12 1991-03-12 Neuro-fuzzy integrated data processing system; network structure conversion system ; fuzzy model extracting system
US07/773,576 US5875284A (en) 1990-03-12 1991-03-12 Neuro-fuzzy-integrated data processing system
AU73849/91A AU653145B2 (en) 1990-03-29 1991-03-27 Throttle error detection logic
US09/253,705 US6456989B1 (en) 1990-03-12 1999-02-22 Neuro-fuzzy-integrated data processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2197919A JPH0484356A (en) 1990-07-27 1990-07-27 Centroid outputting device by neural network

Publications (1)

Publication Number Publication Date
JPH0484356A true JPH0484356A (en) 1992-03-17

Family

ID=16382459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2197919A Pending JPH0484356A (en) 1990-03-12 1990-07-27 Centroid outputting device by neural network

Country Status (1)

Country Link
JP (1) JPH0484356A (en)

Similar Documents

Publication Publication Date Title
Baba A new approach for finding the global minimum of error function of neural networks
CN106951960A (en) A kind of learning method of neutral net and the neutral net
CN112838946A (en) Method for constructing intelligent sensing and early warning model based on communication network faults
CN105701540A (en) Self-generated neural network construction method
JPH07114524A (en) Signal processor
Yu et al. Discrete-time neuro identification without robust modification
CN108538301B (en) Intelligent digital musical instrument based on neural network audio technology
JPH0298738A (en) Knowledge compile pattern type inference system
Hasan et al. On mathematical analysis of pavlovian conditioning learning process using artificial neural network model
JPH0484356A (en) Centroid outputting device by neural network
Hassan On simulation of adaptive learner control considering students' cognitive styles using artificial neural networks (ANNs)
CN112953458A (en) Second-order damping emotion circuit based on memristor
JPH03237557A (en) Neural network simulator and computer system
Lammert et al. Locally-weighted regression for estimating the forward kinematics of a geometric vocal tract model.
JPH03268077A (en) Centroid deciding element output device using neural network
JPH04291662A (en) Operation element constituted of hierarchical network
Yeh Structural engineering applications with augmented neural networks
JPH05128082A (en) Data processor constituting hierarchical network and its learning processing method
JPH06175999A (en) Neurocomputer
JPH02178758A (en) Neural net constituting information processor
JP3292495B2 (en) Neuro-fuzzy fusion system
JP2758339B2 (en) Power system emulation device
Silva et al. Neural approach for solving several types of optimization problems
JP3389684B2 (en) Learning method of neural network
JPH03268055A (en) Teacher signal determining device for centroid determining element output device