JPH0728768A - Method for obtaining inverse solution by learning of neural network - Google Patents

Method for obtaining inverse solution by learning of neural network

Info

Publication number
JPH0728768A
JPH0728768A JP5174432A JP17443293A JPH0728768A JP H0728768 A JPH0728768 A JP H0728768A JP 5174432 A JP5174432 A JP 5174432A JP 17443293 A JP17443293 A JP 17443293A JP H0728768 A JPH0728768 A JP H0728768A
Authority
JP
Japan
Prior art keywords
input layer
learning
neural network
layer
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP5174432A
Other languages
Japanese (ja)
Inventor
Tetsuo Kiyono
哲郎 清野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP5174432A priority Critical patent/JPH0728768A/en
Publication of JPH0728768A publication Critical patent/JPH0728768A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To provide the method which obtains the inverse solution by learning of a neural network without new development of a system of an inverse model or the like for acquisition of the inverse solution. CONSTITUTION:An auxiliary input layer 111 is provided in the preceding stage of an input layer of a neural network 110, and the input layer 112 and the auxiliary input layer 111 are fixedly coupled, and the neural network 110 is learnt by a learning pattern 120; and after the end of learning, fixed coupling between the input layer 112 and the auxiliary input layer 111 is released, and layers from the input layer 112 to an output layer 114 of the neural network 110 are fixedly coupled, and learning is performed with such learning patterns 120 and 160 that an output pattern 150 has a desired value.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ニューラルネットワー
クの学習により逆解を求める方法に関し、特に、「ある
成分の組み合わせ」から何らかの「評価」を算出できる
とき、逆に「ある評価値」を与えてくれる「成分の組み
合わせ」の情報が欲しいというような場合にニューラル
ネットワークを用いて所望の情報を得るためのニューラ
ルネットワークの学習により逆解を求める方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for obtaining an inverse solution by learning a neural network, and in particular, when a certain "evaluation" can be calculated from a "combination of certain components", a "certain evaluation value" is given in reverse. The present invention relates to a method of obtaining an inverse solution by learning a neural network to obtain desired information by using a neural network when the information of “combination of components” is desired.

【0002】詳しくは、「物の性質」から逆に「素材の
混合比」を探りたい分野の例としてガラス(ソーダ石灰
ケイ酸)の成分(wt/%)が、以下に示す混合比であ
るとき、 SiO4…73, Na2O…14, CaO …9, MgO…3.5, Al2O3…0.5 学習によって上記の成分が得られた場合に、この成分混
合比から該当するガラスの種別がソーダ石灰ケイ酸であ
ることを求める。この例において、求められたソーダ石
灰ケイ酸を逆解とする。
More specifically, as an example of a field in which it is desired to search for "mixing ratio of materials" from "property of material", the component (wt /%) of glass (soda lime silicic acid) has the following mixing ratio. Then, SiO 4 … 73, Na 2 O… 14, CaO… 9, MgO… 3.5, Al 2 O 3 … 0.5 When the above components are obtained by learning, the type of glass to be applied is calculated from this component mixture ratio. Requires soda lime silicic acid. In this example, the determined soda lime silicic acid is the inverse solution.

【0003】上記のガラスの例以外にも、金属可能、樹
脂加工、薬品配合、食品加工、繊維等にも適応できる。
Besides the above examples of glass, it can be applied to metals, resin processing, chemical compounding, food processing, fibers and the like.

【0004】一般に、逆解を求める方法は、「判定結
果」か逆に「判定要因」を得る分野に適応の可能性があ
る。
In general, the method for obtaining an inverse solution may be applied to a field in which a "determination result" or conversely a "determination factor" is obtained.

【0005】[0005]

【従来の技術】従来の逆モデルの学習方法として、直接
逆モデリング法がアルバス(albus)等により運動制御の
学習に応用されている。
2. Description of the Related Art As a conventional inverse model learning method, a direct inverse modeling method is applied to learning of motion control by an albus or the like.

【0006】この方法は、対象のシステムの入力をx,
出力をy=f(x)とすると、入力をyとした場合に、
入力yについても出力がxとなるように逆モデルの学習
を行うものである。
In this method, the input of the target system is x,
If the output is y = f (x), and the input is y,
For the input y, the inverse model is learned so that the output becomes x.

【0007】この方法は、ガラスの成分を例にとると、
表1の入力と出力を入れ換えたパターンである表2を図
6に示す逆三角形のニューラルネットワークにおいて学
習するものである。表1はガラスの各成分SiO2…Al2O3
を入力とし、出力を屈折率とした場合を示し、表2は、
屈折率を入力とし、各成分を出力したものである。
In this method, taking the glass component as an example,
Table 2 which is a pattern in which the input and the output of Table 1 are exchanged is learned in the inverted triangular neural network shown in FIG. Table 1 shows each component of glass SiO2 ... Al2O3
Table 2 shows the case where the input is and the output is the refractive index.
The refractive index is input and each component is output.

【0008】[0008]

【表1】 [Table 1]

【0009】[0009]

【表2】 [Table 2]

【0010】本例では、このように屈折率を入力として
異なる成分を逆解として求める。
In this example, different components are obtained as inverse solutions by using the refractive index as an input.

【0011】また、直接逆モデリングについて、対象シ
ステムを線形化し、フィードバック回路を付加する出力
フィードバック型逆モデルという方法がある。
As for direct inverse modeling, there is a method called an output feedback type inverse model in which a target system is linearized and a feedback circuit is added.

【0012】この方法は、直交学習により線形システム
Y=Axが逆モデルの学習を行わせる。逆モデルを表す
i がWi ' に更新されるとすると、 Wi ' =Wi +ηΣp (xp −Wi p )yp ’ 極限において、Wi ' =Wi 、またyp =Axp より A’−Wi AA’=0 が成り立つ。n<m(n次元ベクトル<m次元ベクト
ル)の場合、Aが正則ならば、 Wi =A’(AA’)-1 となる。n=mの場合(n次元ベクトル=m次元ベクト
ル)、Aが正則ならば、 Wi =A-1 である。何れの場合も逆モデルの出力Wi yを対象シス
テムに入力すれば、対象システムの出力はyになる。
According to this method, the linear system Y = Ax performs learning of an inverse model by orthogonal learning. 'When is updated, W i' W i representing the inverse model W i 'in the limit, W i' = W i + ηΣ p (x p -W i y p) y p = W i, also y p = Ax p , A′−W i AA ′ = 0 holds. In the case of n <m (n-dimensional vector <m-dimensional vector), if A is regular, then W i = A ′ (AA ′) −1 . In the case of n = m (n-dimensional vector = m-dimensional vector), if A is regular, then W i = A −1 . In either case, if the output W i y of the inverse model is input to the target system, the output of the target system becomes y.

【0013】このように、対象システムが線形系の場
合、冗長自由度がある場合でも、直接逆モデリングによ
って逆モデルの学習が可能である。よって、対象システ
ムを線形化することにより、直接逆モデリング法により
逆モデルの一種を獲得する。
As described above, when the target system is a linear system, the inverse model can be learned by the direct inverse modeling even if there is a redundant degree of freedom. Therefore, by linearizing the target system, a kind of inverse model is obtained by the direct inverse modeling method.

【0014】[0014]

【発明が解決しようとする課題】しかしながら、上記従
来の方法のうち、アルバス等による逆モデルの学習方法
では、表2に示すパターンp1とp2が同一の屈折率1.
458 を入力した場合、表2に記載されているデータと異
なる成分を出力してしまい、矛盾が生じるか、2つの値
の適当な中間値に寄付き、学習が進まない、あるいは、
2つの値ともに収束しない等の問題がある。
However, among the above-mentioned conventional methods, in the learning method of the inverse model by Albus et al., The patterns p1 and p2 shown in Table 2 have the same refractive index 1.
When 458 is input, a component different from the data listed in Table 2 is output, causing a contradiction, or approaching an appropriate intermediate value between the two values, and learning does not proceed, or
There is a problem such that the two values do not converge.

【0015】直接モデルリング法は、xとyの対応が1
対1の場合には、問題がないが、1つの出力yに対応す
る入力xが複数存在する場合には、直接逆モデリング法
によって学習した理想的な逆モデルは、yに対応するx
の平均値xm を出力する。しかし、非線形系の場合、y
m =f(xm )は、yに一致するとは限らない。ym
yに一致していない場合、逆モデルの出力xm を対象シ
ステムに入力しても対象システムの出力はyにならな
い。この方法では完全な逆モデルを学習できるシステム
には制限がある。
In the direct modeling method, the correspondence between x and y is 1.
In the case of pair 1, there is no problem, but when there are a plurality of inputs x corresponding to one output y, the ideal inverse model learned by the direct inverse modeling method is x corresponding to y.
The average value x m of is output. However, for a non-linear system, y
m = f (x m ) does not always match y. When y m does not match y, the output of the target system does not become y even if the output x m of the inverse model is input to the target system. This method limits the system that can learn the perfect inverse model.

【0016】また、上記の直接モデリング法に関する問
題は、対象システムを線形化しフィードバック回路を付
加した出力フィードバック型逆モデルの方法により解決
されるが、この方法は、線形系の場合のみに適応される
ものであり、非線形系には適応できないという問題があ
る。また、シグモイド関数を使用していない線形系の場
合には、逆行列を計算することができるが、ネットワー
クの性能に限界が生じるため、実用性の面で問題があ
る。このように、ニューラルネットワークを利用して混
合比を評価結果のデータを入れ換えた逆写像を学習させ
る方法は、学習パターン同士が矛盾し合ってうまく学習
できない。さらに、逆モデルを実現させるためには逆解
用のニューラルネットワークや逆解アルゴリズムを開発
する必要があり、システム設計者に負担がかかる等の問
題がある。
Further, the above-mentioned problems relating to the direct modeling method are solved by an output feedback type inverse model method in which the target system is linearized and a feedback circuit is added, but this method is applied only in the case of a linear system. However, there is a problem that it cannot be applied to nonlinear systems. Also, in the case of a linear system that does not use a sigmoid function, the inverse matrix can be calculated, but there is a problem in practicality because the network performance is limited. As described above, in the method of learning the inverse mapping in which the data of the evaluation result of the mixture ratio is replaced by using the neural network, the learning patterns are inconsistent with each other, and the learning cannot be performed successfully. Further, in order to realize the inverse model, it is necessary to develop a neural network for inverse solution and an inverse solution algorithm, which causes a problem that a system designer is burdened.

【0017】本発明は、上記の点に鑑みなされたもの
で、上記従来の問題点を解決し、逆解を得るための逆モ
デル等のシステムを新規に開発することなく、ある多変
量関数の中の未知系数等を決定する算法がある場合に、
その算法を利用して逆解を求めることができるニューラ
ルネットワークの学習により逆解を求める方法を提供す
ることを目的とする。
The present invention has been made in view of the above points, and solves the above-mentioned problems of the prior art, without developing a new system such as an inverse model for obtaining an inverse solution, and If there is an algorithm to determine the unknown coefficient in
It is an object of the present invention to provide a method for obtaining an inverse solution by learning a neural network that can obtain an inverse solution using the arithmetic method.

【0018】[0018]

【課題を解決するための手段】本発明のニューラルネッ
トワークの学習により逆解を求める方法は、入力層、中
間層及び出力層から構成されるニューラルネットワーク
と学習パターンを備え、ニューラルネットワークの該入
力層の前段に該入力層と同数のニューロンユニットを有
する補助入力層を設け、入力層と該補助入力層の結合係
数を任意の係数で固定結合し、ニューラルネットワーク
を学習パターンで学習させ、学習終了後、入力層と補助
入力層の結合係数の固定結合を解除し、ニューラルネッ
トワークの入力層から出力層までの結合係数を固定結合
し、出力パターンが所望の値となるような所定の学習パ
ターンを用いてニューラルネットワークの学習を行う。
A method for obtaining an inverse solution by learning a neural network according to the present invention comprises a neural network composed of an input layer, an intermediate layer and an output layer and a learning pattern. An auxiliary input layer having the same number of neuron units as the input layer is provided in the preceding stage, the coupling coefficient between the input layer and the auxiliary input layer is fixedly coupled by an arbitrary coefficient, and the neural network is trained by the learning pattern, and after the learning is completed. , The fixed coupling of the coupling coefficient between the input layer and the auxiliary input layer is released, the coupling coefficient from the input layer to the output layer of the neural network is fixedly coupled, and a predetermined learning pattern is used so that the output pattern has a desired value. Learn the neural network.

【0019】[0019]

【作用】本発明は、入力層、中間層及び出力層からなる
ニューラルネットワークにおいて、入力層の前段に補助
入力層を設け、ニューラルネットワークの学習におい
て、補助入力層と入力層の結合係数を固定させて1回目
の学習を行うことにより補助入力層と入力層間は学習が
行われず、入力層、中間層、出力層が学習される。次に
補助入力層と入力層の結合係数を自由結合とし、入力層
から出力層までの結合荷重係数を固定結合として、任意
のパターンにより当該ニューラルネットワークの2回目
の学習を行うことにより、補助入力部と入力部の間の結
合部分のみが学習するため、学習が収束すると、補助入
力層と入力層の間の重みに逆解が分散されて表現され
る。これにより、本発明は、従来の方法のようにパター
ンの因果関係を入れ換えないため、入れ換えによる矛盾
を生じることがない。また、ニューラルネットワークの
学習においては、逆解用のアルゴリズムを用いずに学習
アルゴリズムをそのまま利用しているため、別のシステ
ム開発を必要としない。
According to the present invention, in a neural network consisting of an input layer, an intermediate layer and an output layer, an auxiliary input layer is provided in front of the input layer, and in the learning of the neural network, the coupling coefficient between the auxiliary input layer and the input layer is fixed. By performing the first learning, the auxiliary input layer and the input layer are not learned, but the input layer, the intermediate layer, and the output layer are learned. Next, the coupling coefficient between the auxiliary input layer and the input layer is set as free coupling, and the coupling weight coefficient from the input layer to the output layer is set as fixed coupling. Since only the connecting part between the input part and the input part learns, when the learning converges, the inverse solution is distributed and expressed in the weights between the auxiliary input layer and the input layer. As a result, according to the present invention, the causal relationship between the patterns is not exchanged as in the conventional method, so that no contradiction occurs due to the exchange. Further, in learning of the neural network, since the learning algorithm is used as it is without using the algorithm for the inverse solution, another system development is not required.

【0020】[0020]

【実施例】以下、図面と共に本発明の実施例を詳細に説
明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0021】図1は本発明システムの概要を説明するた
めの図である。
FIG. 1 is a diagram for explaining the outline of the system of the present invention.

【0022】同図(A)はニューラルネットワークにお
いて、1回目の学習を行う場合を示し、同図(B)は、
2回目の学習を行う場合を示す。
FIG. 3A shows the case where the first learning is performed in the neural network, and FIG.
The case of performing the second learning is shown.

【0023】まず、ニューラルネットワーク110の構
成について説明する。ニューラルネットワーク110
は、一般的な入力層112、中間層113及び出力層1
14からなる構成に加えて、入力層112の前段に設け
られる補助入力層111より構成される。補助入力層1
11のニューロンユニットの数は入力層112のニュー
ロンユニットの数と同数であり、本実施例の場合は、5
個である。
First, the structure of the neural network 110 will be described. Neural network 110
Is a general input layer 112, intermediate layer 113 and output layer 1
In addition to the structure of 14, the auxiliary input layer 111 is provided before the input layer 112. Auxiliary input layer 1
The number of 11 neuron units is the same as the number of neuron units in the input layer 112, and in the case of this embodiment, 5
It is an individual.

【0024】同図(A)において、補助入力層111と
入力層112の結合荷重は所定の結合係数により固定結
合されており、入力層112、中間層113及び出力層
114間は、任意の結合係数で自由結合している。この
状態でニューラルネットワーク110が学習を行うと、
入力層112に対して補助入力層111からは入力され
た値のみが伝達され、入力層112以上の階層で学習が
行われる。
In FIG. 3A, the coupling loads of the auxiliary input layer 111 and the input layer 112 are fixedly coupled by a predetermined coupling coefficient, and the input layer 112, the intermediate layer 113 and the output layer 114 are arbitrarily coupled. Freely coupled with a coefficient. When the neural network 110 performs learning in this state,
Only the value input from the auxiliary input layer 111 is transmitted to the input layer 112, and learning is performed in the layers above the input layer 112.

【0025】同図(B)において、同図(A)の学習終
了後、補助入力層111と入力層112の結合荷重は任
意の結合係数により自由結合されており、入力層11
2、中間層113及び出力層114間は、学習後の結合
係数で固定結合されている。この状態でニューラルネッ
トワーク110が学習を行うと、補助入力層111と入
力層112間のみで学習が行われる。従って、学習が収
束すると、この補助入力層111と入力層112の間に
逆解が出現する。
In FIG. 2B, after the learning of FIG. 3A, the coupling weights of the auxiliary input layer 111 and the input layer 112 are freely coupled by an arbitrary coupling coefficient.
2. The intermediate layer 113 and the output layer 114 are fixedly coupled by the coupling coefficient after learning. When the neural network 110 performs learning in this state, learning is performed only between the auxiliary input layer 111 and the input layer 112. Therefore, when learning converges, an inverse solution appears between the auxiliary input layer 111 and the input layer 112.

【0026】図2は、本発明の一実施例の動作の概要を
示すフローチャートである。
FIG. 2 is a flow chart showing the outline of the operation of one embodiment of the present invention.

【0027】以下に示す動作の前提として、予めニュー
ラルネットワークと学習パターンを用意する。
A neural network and a learning pattern are prepared in advance as a premise of the operation described below.

【0028】ステップ1)ニューラルネットワークの入
力層112と補助入力層111を結合する。
Step 1) Connect the input layer 112 and the auxiliary input layer 111 of the neural network.

【0029】ステップ2)入力層112と補助入力層1
11の結合荷重係数を例えば、1.0として固定する。
Step 2) Input layer 112 and auxiliary input layer 1
The coupling weight coefficient of 11 is fixed as 1.0, for example.

【0030】ステップ3)ニューラルネットワーク11
0を学習パターンで学習させる。
Step 3) Neural network 11
0 is learned by a learning pattern.

【0031】ステップ4)ニューラルネットワーク11
0の学習が終了したら、ステップ2で固定された入力層
112と補助入力層111の固定結合を解除する。
Step 4) Neural network 11
When the learning of 0 is completed, the fixed coupling between the input layer 112 and the auxiliary input layer 111 fixed in step 2 is released.

【0032】ステップ5)1回目の学習が済んでいる入
力層112〜出力層114の結合荷重係数を固定する。
Step 5) The coupling weight coefficients of the input layer 112 to the output layer 114 which have been learned for the first time are fixed.

【0033】ステップ6)入力パターンを1.0等と
し、出力パターンを「所望の出力値(教師パターン)」
に設定することによりステップ3で用いたパターンとは
別の学習パターンを用意する。
Step 6) The input pattern is set to 1.0 or the like, and the output pattern is set to the "desired output value (teacher pattern)".
Setting a learning pattern different from the pattern used in step 3.

【0034】ステップ7)ステップ6で設定された学習
パターンにより、ステップ6において結合荷重係数が変
更になったニューラルネットワーク110を学習させ
る。
Step 7) According to the learning pattern set in Step 6, the neural network 110 whose coupling weight coefficient is changed in Step 6 is trained.

【0035】ステップ8)学習が終了し、所望の出力値
の逆解が、ステップ7で学習した入力層112と補助入
力層111の結合荷重係数として得られる。
Step 8) After the learning is completed, the inverse solution of the desired output value is obtained as the coupling weight coefficient of the input layer 112 and the auxiliary input layer 111 learned in step 7.

【0036】ステップ9)一方、別の逆解を得たい場合
には、ステップ10に移行し、所望の逆解を得た場合に
は処理を終了する。
Step 9) On the other hand, if another inverse solution is desired, the process proceeds to step 10, and if a desired inverse solution is obtained, the process ends.

【0037】ステップ10)上記のニューラルネットワ
ークの入力層112、補助入力層111の結合荷重係数
を別の値に変更して固定結合させ、学習係数を変更して
ステップ9に移行する。
Step 10) The coupling weight coefficient of the input layer 112 and the auxiliary input layer 111 of the neural network is changed to another value for fixed coupling, and the learning coefficient is changed to shift to step 9.

【0038】図3は、本発明の一実施例の結合荷重係数
が変化した場合のニューラルネットワークを示す。
FIG. 3 shows a neural network according to an embodiment of the present invention when the coupling weight coefficient changes.

【0039】同図(A)は、入力層112と補助入力層
111の結合荷重係数を10.0として固定している状
態を示しており、補助入力層111のニューロンデータ
はそのまま、入力層112のニューロンユニットに入力
されることになる。この時、入力層112から出力層1
14の結合荷重係数は自由結合荷重である。同図中、入
力層112と補助入力層111のニューロン間で実線で
示されているのが結合荷重であり、同図(A)の例で
は、その結合荷重は10.0であり、点線で示されてい
るのは、非結合荷重であり、その結合荷重は0である。
この状態のニューラルネットワークを所定の学習パター
ンで学習させる。この状態でニューラルネットワークに
学習させることにより、入力層112から出力層114
が学習することになる。
FIG. 7A shows a state in which the coupling weight coefficient of the input layer 112 and the auxiliary input layer 111 is fixed to 10.0, and the neuron data of the auxiliary input layer 111 is kept as it is. Will be input to the neuron unit. At this time, from the input layer 112 to the output layer 1
The coupling load factor of 14 is a free coupling load. In the figure, the solid line between the neurons of the input layer 112 and the auxiliary input layer 111 is the connection weight, and in the example of FIG. 7A, the connection weight is 10.0 and is indicated by the dotted line. Shown is the unbonded load, which has a combined load of zero.
The neural network in this state is learned by a predetermined learning pattern. By making the neural network learn in this state, the input layer 112 to the output layer 114
Will learn.

【0040】同図(B)は、同図(A)の状態で入力層
112から出力層114の学習が終了し、入力層112
と補助入力層111の固定されている結合荷重係数を解
除し、自由結合とし、入力層112から出力層114の
重みを固定する。このニューラルネットワークの状態
で、所望のパターンで学習させることにより、補助入力
層111と入力層112の間で学習され、ここに逆解が
得られる。
In the figure (B), the learning of the input layer 112 to the output layer 114 is completed in the state of the figure (A), and the input layer 112 is shown.
Then, the fixed coupling weight coefficient of the auxiliary input layer 111 is released and free coupling is performed, and the weights of the input layer 112 to the output layer 114 are fixed. By learning with a desired pattern in the state of this neural network, learning is performed between the auxiliary input layer 111 and the input layer 112, and an inverse solution is obtained here.

【0041】以下に用いて本発明をガラスのデータに適
用した例を示す。
An example in which the present invention is applied to glass data will be shown below.

【0042】以下に示す動作の説明中、f(x)はシグ
モイド関数を示し、
In the following explanation of the operation, f (x) represents a sigmoid function,

【0043】[0043]

【数1】 [Equation 1]

【0044】f’(x)はシグモイドの逆関数を示す。 x=f’(y)=−log (1/y−1) (1)まず、前述した表1に示すガラスの成分と屈折率
の素データがあるとする。表1に示す素データから入出
力パターンを作成する。本実施例では、屈折率の値が
1.0を越えているため、表1のデータを正規化し、表
3に示すパターンに置き換える。表3において、便宜的
に正規化の式について、 屈折率=1.4+ output /3.0 とした。
F '(x) represents the inverse function of the sigmoid. x = f '(y) =-log (1 / y-1) (1) First, it is assumed that there is elementary data on the glass components and the refractive index shown in Table 1 described above. An input / output pattern is created from the raw data shown in Table 1. In this example, the value of the refractive index exceeds 1.0, so the data in Table 1 is normalized and replaced with the pattern shown in Table 3. In Table 3, for convenience, the normalization formula is: refractive index = 1.4 + output / 3.0.

【0045】[0045]

【表3】 [Table 3]

【0046】(2)図3に示すように、補助入力層11
1、入力層112、中間層113及び出力層114から
構成されるニューラルネットワークを生成し、補助入力
層111と入力層112の結合荷重を10.0で固定す
る。
(2) As shown in FIG. 3, the auxiliary input layer 11
1, a neural network composed of the input layer 112, the intermediate layer 113, and the output layer 114 is generated, and the coupling weight between the auxiliary input layer 111 and the input layer 112 is fixed at 10.0.

【0047】(3)固定結合荷重10.0と逆シグモイ
ド関数f’(x)で補正した入力パターンを表4に示
す。
(3) Table 4 shows the input pattern corrected by the fixed coupling load 10.0 and the inverse sigmoid function f '(x).

【0048】[0048]

【表4】 [Table 4]

【0049】上記の表4に示すように、例えば、パター
ンp1のSiO2の値(0.5293) が補助入力層111のニュ
ーロンユニットに入力されると、5.293 が入力層112
のニューロンユニットに渡り、入力層112のニューロ
ンユニットの出力は、 f(5.293)=0.995 となり、表1の素データを直接入力層に入力したことと
同様となる。
As shown in Table 4 above, for example, when the value of SiO 2 (0.5293) of the pattern p1 is input to the neuron unit of the auxiliary input layer 111, 5.293 is input to the input layer 112.
The output of the neuron unit of the input layer 112 is as follows: f (5.293) = 0.995, which is the same as inputting the raw data of Table 1 directly to the input layer.

【0050】(4)図3(A)に示すニューラルネット
ワークを表4に示すパターンで学習させる。
(4) The neural network shown in FIG. 3A is trained in the pattern shown in Table 4.

【0051】(5)次に、図3(B)に示すように、
(4)とは逆に補助入力層111から入力層112の結
合荷重を自由荷重とし、入力層112から中間層113
及び出力層114の結合荷重を固定する。
(5) Next, as shown in FIG.
Contrary to (4), the coupling load from the auxiliary input layer 111 to the input layer 112 is set as a free load, and the input layer 112 to the intermediate layer 113 are set.
And the coupling load of the output layer 114 is fixed.

【0052】(6)ここで、例えば、屈折率1.55を
出力するための成分の組を求めるために、表5に示すよ
うに逆解用のパターンを1つ生成する。
(6) Here, for example, in order to obtain the set of components for outputting the refractive index of 1.55, one inverse solution pattern is generated as shown in Table 5.

【0053】[0053]

【表5】 [Table 5]

【0054】(7)この表5のパターンを図3(B)に
示すニューラルネットワークで学習する。(8)学習が
収束すると、補助入力層111と入力層112の各重み
に逆解が分解して表6のように表現される。特に、本実
施例では、入力層が出力している値がそのまま逆解にな
っている。これは、予め入力層112から中間層113
への出力が表2の比率%値になるように想定されている
ためである。
(7) The pattern shown in Table 5 is learned by the neural network shown in FIG. 3 (B). (8) When the learning converges, the inverse solution is decomposed into the weights of the auxiliary input layer 111 and the input layer 112, and is expressed as shown in Table 6. In particular, in this embodiment, the value output by the input layer is the inverse solution as it is. This is done in advance from the input layer 112 to the intermediate layer 113.
This is because it is assumed that the output to the will be the ratio% value of Table 2.

【0055】[0055]

【表6】 [Table 6]

【0056】表6において、入力層112の出力=??
=逆解の値は、シグモイド関数f(x)を介した値であ
るので、値域は0〜1である。
In Table 6, the output of the input layer 112 =? ?
= Since the value of the inverse solution is the value through the sigmoid function f (x), the value range is 0 to 1.

【0057】なお、上記の本実施例の(3)において、
重みを1.0にすると、(4)において、逆シグモイド
関数f’(x)による補正値の値域がおよそ−10.0
〜10.0となってしまい、シミュレータが扱える範囲
を越えているため、重みを10.0としたが、上記の例
に限定されることなく、重み1.0であっても補正値が
扱えるシミュレータであれば、他の重みを設定してもよ
い。
In the above (3) of this embodiment,
When the weight is set to 1.0, the range of the correction value by the inverse sigmoid function f ′ (x) is about −10.0 in (4).
Since the value is up to 10.0, which is beyond the range that the simulator can handle, the weight is set to 10.0, but the correction value is not limited to the above example, and even if the weight is 1.0, the correction value can be handled. Other weights may be set in the simulator.

【0058】なお、入力層112から中間層113への
ニューロンユニットの出力値を表3に示す入力値(%)
(シグモイド関数f(x)を通さない)とすることが必
要であるが、実際には、入力層112から中間層113
の間でシグモイド関数f(x)がかかってしまう。従っ
て、予め入力層112に逆シグモイド関数f’(x)で
補正した値を設定すれば、結果的にはf(f’(x))
=xとなり、入力層112から中間層113へのシグモ
イドの影響を見かけ上なくすことができる。
The output value of the neuron unit from the input layer 112 to the intermediate layer 113 is shown in Table 3 as the input value (%).
Although it is necessary to set (sigmoid function f (x) is not passed), in reality, the input layer 112 to the intermediate layer 113 are used.
The sigmoid function f (x) is applied between the two. Therefore, if a value corrected by the inverse sigmoid function f ′ (x) is set in advance in the input layer 112, the result is f (f ′ (x)).
= X, and the influence of the sigmoid from the input layer 112 to the intermediate layer 113 can be apparently eliminated.

【0059】さらに、上記の例で、比率が100%にな
らずに、50%や300%となってしまうような場合に
は、順方向の学習後、比率をチェックするための比率チ
ェック用ニューロンを図4に示すようにニューラルネッ
トワークに付加し、表5のパターンに比率チェック用の
出力値を付加して逆解を求めることができる。図4にお
いて、黒丸は付加されたチェックニューロンを示す。こ
の時、付加されたチェックニューロンに接続されていな
いニューロンの結合荷重は0とする。また、補助入力層
と入力層間の結合荷重については自由結合荷重とし、入
力層と中間層の間の結合荷重は、1.0とする。中間層
の右端の黒丸で示すニューロンには比率の合計が集ま
り、中間層から出力層の結合荷重は、f(比率の合計)
となり、出力層からは、f(f(比率の合計))が出力
される。
Further, in the above example, when the ratio does not become 100% but becomes 50% or 300%, the ratio checking neuron for checking the ratio after learning in the forward direction. Can be added to the neural network as shown in FIG. 4, and the output value for ratio check can be added to the pattern in Table 5 to obtain the inverse solution. In FIG. 4, black circles indicate added check neurons. At this time, the connection weight of the neurons not connected to the added check neuron is set to 0. The coupling load between the auxiliary input layer and the input layer is a free coupling load, and the coupling load between the input layer and the intermediate layer is 1.0. The total number of ratios is collected in the neuron indicated by the black circle at the right end of the intermediate layer, and the coupling weight from the intermediate layer to the output layer is f (total ratio).
Therefore, f (f (total of ratios)) is output from the output layer.

【0060】上述のように、本発明では、一般的に用い
られている入力層、中間層及び出力層からなるニューラ
ルネットワークにおいて、入力層の前段に補助入力層を
付加して、最初に補助入力層と入力層の間の結合荷重係
数を固定し、自由結合となっている入力層、中間層、出
力層間の学習を行う。次に、補助入力層と入力層間の固
定結合を解除し、入力層、中間層、出力層間の結合荷重
係数を固定とし、補助入力層と入力層間の学習を行うこ
とにより、補助入力層と入力層間に逆解が得られる。
As described above, according to the present invention, in the neural network which is generally used and is composed of the input layer, the intermediate layer and the output layer, the auxiliary input layer is added in front of the input layer, and the auxiliary input is made first. By fixing the coupling weight coefficient between the layer and the input layer, learning is performed between the input layer, the intermediate layer, and the output layer, which are free coupling. Next, the fixed coupling between the auxiliary input layer and the input layer is released, the coupling weight coefficient between the input layer, the intermediate layer, and the output layer is fixed, and the auxiliary input layer and the input layer are learned by learning the auxiliary input layer and the input layer. An inverse solution is obtained between the layers.

【0061】[0061]

【発明の効果】以下に本発明を適用することにより得ら
れた結果について述べる。
The results obtained by applying the present invention will be described below.

【0062】モデルとして、3層のニューラルネットワ
ークにおいて、1層目にシグモイド関数がないモデルを
設定し、学習アルゴリズムとしてバックプロパゲーショ
ン法を適応する。この場合の学習パターンは排他論理和
(XOR)パターンで x[xor]y=z として、 (x,y,z)=(0,0,0),(0,1,1),
(1,0,1),(1,1,0) の4種類とする。
As a model, in a three-layer neural network, a model without a sigmoid function is set in the first layer, and the backpropagation method is applied as a learning algorithm. The learning pattern in this case is an exclusive OR (XOR) pattern, and x [xor] y = z, where (x, y, z) = (0, 0, 0), (0, 1, 1),
There are four types, (1,0,1) and (1,1,0).

【0063】上記の条件で学習した後、z=1,z=
0.5を得るための入力の組を求めた結果、(0,1,
1)と(0.5,1,0.5)が得られた。(0,1,
1)は既知のパターンであり、納得できる結果である。
また、後者は未知のパターンを発見したことになる。
After learning under the above conditions, z = 1, z =
As a result of obtaining a set of inputs for obtaining 0.5, (0, 1,
1) and (0.5,1,0.5) were obtained. (0, 1,
1) is a known pattern, which is a convincing result.
Also, the latter means that an unknown pattern has been discovered.

【0064】また、別の適応例として、3層のニューラ
ルネットワークにおいて、1層目にシグモイド関数がな
いモデルを設定し、学習アルゴリズムとして上記と同様
にバックプロパゲーション法を適応し、逆解を求める。
As another adaptation example, in a three-layer neural network, a model without a sigmoid function is set in the first layer, and the backpropagation method is applied as a learning algorithm to obtain an inverse solution. .

【0065】図5は本発明の効果を説明するための図で
ある。同図(A)は入力パターンであり、同図(B)は
逆解である。同図(B)に示すように逆解は入力パター
ンの「上り」、「下り」、「山」、「谷」の特徴をよく
抽出している。また、同図(C)に示すように、「上
り」と「山」の逆解を求めたところ両方の特性を併せ持
つ逆解が得られた。
FIG. 5 is a diagram for explaining the effect of the present invention. The figure (A) is an input pattern, and the figure (B) is an inverse solution. As shown in FIG. 6B, the inverse solution often extracts the features of “up”, “down”, “mountain”, and “valley” of the input pattern. Further, as shown in FIG. 7C, when the inverse solutions of "up" and "mountain" were obtained, the inverse solution having both characteristics was obtained.

【0066】従って、本発明によれば、一般的なニュー
ラルネットワークに補助入力層を設け、結合荷重係数を
変化させることにより、所望の逆解が得られるため、成
分の混合比や影響度等の分析にニューラルネットワーク
を用いている分野において、本発明で良好な結果が得ら
れた場合には、逆解を求めるための逆解用ニューラルネ
ットワークや逆解アルゴリズム等の新規開発の負担がな
くなる。
Therefore, according to the present invention, a desired inverse solution can be obtained by providing a general neural network with an auxiliary input layer and changing the coupling weight coefficient. In the field where a neural network is used for analysis, if a good result is obtained by the present invention, the burden of new development of an inverse solution neural network for obtaining an inverse solution and an inverse solution algorithm is eliminated.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明のシステムの概要を説明するための図で
ある。
FIG. 1 is a diagram for explaining an outline of a system of the present invention.

【図2】本発明の一実施例の動作の概要を示すフローチ
ャートである。
FIG. 2 is a flowchart showing an outline of the operation of one embodiment of the present invention.

【図3】本発明の一実施例の結合荷重係数が変化した場
合のニューラルネットワークを示す図である。
FIG. 3 is a diagram showing a neural network in the case where a coupling weighting coefficient is changed according to an embodiment of the present invention.

【図4】本発明の一実施例のニューラルネットワークに
比率チェック用のニューロンを付加した場合を示す図で
ある。
FIG. 4 is a diagram showing a case where a neuron for ratio check is added to the neural network according to the embodiment of the present invention.

【図5】本発明の効果を説明するための図である。FIG. 5 is a diagram for explaining the effect of the present invention.

【図6】従来の直接逆モデリング法における逆三角形の
ネットワークで学習を行う場合を示す図である。
FIG. 6 is a diagram showing a case where learning is performed by an inverted triangular network in a conventional direct inverse modeling method.

【符号の説明】[Explanation of symbols]

100 出力パターン 110 ニューラルネットワーク 120,160 学習パターン 111 補助入力層 112 入力層 113 中間層 114 出力層 150 所望の入力パターン 100 output pattern 110 neural network 120, 160 learning pattern 111 auxiliary input layer 112 input layer 113 intermediate layer 114 output layer 150 desired input pattern

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 入力層(112)、中間層(113)及
び出力層(114)から構成されるニューラルネットワ
ーク(110)と学習パターン(120)を備え、 該ニューラルネットワーク(110)の該入力層(11
2)の前段に該入力層(112)と同数のニューロンユ
ニットを有する補助入力層(111)を設け、 該入力層(112)と該補助入力層(111)の結合係
数を所定の係数で固定結合し、 該ニューラルネットワーク(110)を該学習パターン
(120)で学習させ、 学習終了後、該入力層(112)と該補助入力層(11
1)の該結合係数の固定結合を解除し、該ニューラルネ
ットワーク(110)の該入力層(112)から出力層
(114)までの結合係数を固定結合し、 出力パターン(150)が所望の値となるような任意の
学習パターン(150、160)を用いて該ニューラル
ネットワーク(110)の学習を行うことを特徴とする
ニューラルネットワークの学習により逆解を求める方
法。
1. A neural network (110) comprising an input layer (112), an intermediate layer (113) and an output layer (114) and a learning pattern (120), the input layer of the neural network (110). (11
An auxiliary input layer (111) having the same number of neuron units as the input layer (112) is provided in front of 2), and the coupling coefficient between the input layer (112) and the auxiliary input layer (111) is fixed at a predetermined coefficient. After the learning, the neural network (110) is trained by the learning pattern (120), and after the learning, the input layer (112) and the auxiliary input layer (11)
The fixed coupling of the coupling coefficient of 1) is released, and the coupling coefficient of the input layer (112) to the output layer (114) of the neural network (110) is fixedly coupled, and the output pattern (150) has a desired value. A method for obtaining an inverse solution by learning a neural network, characterized by learning the neural network (110) using an arbitrary learning pattern (150, 160) such that
JP5174432A 1993-07-14 1993-07-14 Method for obtaining inverse solution by learning of neural network Withdrawn JPH0728768A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5174432A JPH0728768A (en) 1993-07-14 1993-07-14 Method for obtaining inverse solution by learning of neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5174432A JPH0728768A (en) 1993-07-14 1993-07-14 Method for obtaining inverse solution by learning of neural network

Publications (1)

Publication Number Publication Date
JPH0728768A true JPH0728768A (en) 1995-01-31

Family

ID=15978434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5174432A Withdrawn JPH0728768A (en) 1993-07-14 1993-07-14 Method for obtaining inverse solution by learning of neural network

Country Status (1)

Country Link
JP (1) JPH0728768A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008071255A (en) * 2006-09-15 2008-03-27 Saga Univ Pattern generating method using self-organizing map, its program and device
JP2018014060A (en) * 2016-07-22 2018-01-25 ファナック株式会社 Machine learning model construction device, numerical control device, machine learning model construction method, machine learning model construction program, and recording medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008071255A (en) * 2006-09-15 2008-03-27 Saga Univ Pattern generating method using self-organizing map, its program and device
JP2018014060A (en) * 2016-07-22 2018-01-25 ファナック株式会社 Machine learning model construction device, numerical control device, machine learning model construction method, machine learning model construction program, and recording medium
US10649416B2 (en) 2016-07-22 2020-05-12 Fanuc Corporation Machine learning model construction device, numerical control, machine learning model construction method, and non-transitory computer readable medium encoded with a machine learning model construction program

Similar Documents

Publication Publication Date Title
CN109767301B (en) Recommendation method and system, computer device and computer readable storage medium
JP3129932B2 (en) Fuzzy neural network device and learning method thereof
JPH07121495A (en) Construction method of expert system by using one or more neural networks
JP2747104B2 (en) neural network
JPH0728768A (en) Method for obtaining inverse solution by learning of neural network
JP3229624B2 (en) Multilayer neural network and circuit design method thereof
JPH05197701A (en) Information processor using neural network
CN116627481A (en) Code submission log automatic generation method based on control flow graph modeling
CN114691936A (en) Prediction method and device for first attribute of first node in graph network
JPH08286922A (en) Fuzzy neural network device
JPH0272491A (en) Picture conversion processor
Schneidewind Software maintenance: The need for standardization
CN113591398A (en) Intelligent operation batching method and device based on deep reinforcement learning and electronic equipment
JPH05197705A (en) Learning system for neural network
JPH05128284A (en) Neuro-processor
JPH05101209A (en) Learning method for hierarchical neural network
JP3518813B2 (en) Structured neural network construction device
JP3287738B2 (en) Relational function search device
JPH04184668A (en) Correcting method for tutor data of neural network
JPH0281161A (en) Signal processor
Yaverbaum Specifying system requirements: a framework of current techniques
Siewiorek Introducing PMS
Hahn Logical and deep learning methods for temporal reasoning
Diambra et al. Maximum-entropy principle and neural networks that learn to construct approximate wave functions
Browne et al. Variable binding in a neural network using a distributed representation

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20001003