JP2000035955A - Constitution method for hierarchical neural network - Google Patents

Constitution method for hierarchical neural network

Info

Publication number
JP2000035955A
JP2000035955A JP10203517A JP20351798A JP2000035955A JP 2000035955 A JP2000035955 A JP 2000035955A JP 10203517 A JP10203517 A JP 10203517A JP 20351798 A JP20351798 A JP 20351798A JP 2000035955 A JP2000035955 A JP 2000035955A
Authority
JP
Japan
Prior art keywords
connection
neuro
neuron
data
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10203517A
Other languages
Japanese (ja)
Inventor
Fujio Abe
富士夫 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shibaura Machine Co Ltd
Original Assignee
Toshiba Machine Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Machine Co Ltd filed Critical Toshiba Machine Co Ltd
Priority to JP10203517A priority Critical patent/JP2000035955A/en
Publication of JP2000035955A publication Critical patent/JP2000035955A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a method capable of automatically deciding optimum network constitution at the time of modeling an object system by using a hierarchical neural network. SOLUTION: Constitution larger than the expected one is provided as an initial state and a network where respective neurons are connected to all the neurons belonging to adjacent layers before and behind is set. Individual connection data are set for the respective neurons, the combination of known input and output data is applied to the network and learning calculation is performed. When the learning calculation is converged, the connection weighting coefficient of the respective neuron connections is checked and the neuron connection for which the absolute value is below a prescribed condition, is removed from the connection data. In the case that the neuron whose the input or the output becomes one piece appears as the result of removing the neuron connection, only the connection relation is maintained and the neuron is removed. The process is repeated up to the convergence. As a result, the optimized network constitution is obtained.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、階層型ニューラル
ネットワークを用いて対象系をモデル化する際に、その
ネットワーク構成を最適化するための方法に係る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for optimizing a network configuration when a target system is modeled using a hierarchical neural network.

【0002】[0002]

【従来の技術】階層型ニューラルネットワークは、特性
が不明な対象系をモデル化することができるので、さま
ざまな対象系の挙動の予測に使用される。例えば、過去
の株価の変動データに基づいて、将来の株価の変動予測
に使用することができる。階層型ニューラルネットワー
クの利点は、非線形現象に対応することが可能で、ま
た、適切な入力データ及び出力データの組合わせを用意
すれば、学習方式に基づいて自動的に対象系のモデル化
が行われるので、モデル化に手間が掛からない点にあ
る。
2. Description of the Related Art Hierarchical neural networks can be used to predict the behavior of various target systems because they can model target systems whose characteristics are unknown. For example, it can be used to predict future stock price changes based on past stock price change data. The advantage of a hierarchical neural network is that it can handle nonlinear phenomena, and if an appropriate combination of input data and output data is prepared, the target system can be automatically modeled based on the learning method. The point is that modeling does not take much time.

【0003】しかし、対象系をモデル化する際に用いら
れるネットワークの層数及び各層毎のニューロ数の最適
値については、その決定方法が確立されていない。この
ため、ネットワークの層数及びニューロ数が少ない場合
には、学習の効果が得られず、他方、層数及びニューロ
数が多い場合には、計算回数が増えて学習に時間が掛か
るとともに、予想外の出力が得られることがある。
However, a method for determining the number of layers of the network used for modeling the target system and the optimum value of the number of neurons for each layer has not been established. For this reason, when the number of layers and the number of neurons of the network are small, the effect of learning is not obtained. On the other hand, when the number of layers and the number of neurons are large, the number of calculations increases and it takes a long time to perform the learning. Outside output may be obtained.

【0004】この様に、階層型ニューラルネットワーク
では、目的に合った最適のネットワーク構成(即ち、層
数及び各層毎のニューロ数)を前もって知ることができ
ないので、通常、試行錯誤の繰り返しによって最適のネ
ットワーク構成を決定している。このため、最適なネッ
トワーク構成の決定までに手間が掛かるという問題があ
る。
As described above, in the hierarchical neural network, the optimum network configuration (that is, the number of layers and the number of neurons for each layer) suitable for the purpose cannot be known in advance. Determine the network configuration. For this reason, there is a problem that it takes time to determine the optimal network configuration.

【0005】また、従来の階層型ニューラルネットワー
クでは、各層のニューロが隣接する前後の層の全てのニ
ューロと結合する様に構成されているので、全体での結
合数が多く、冗長な計算が避けられない。特に、ニュー
ロ特性(各ニューロのしきい値及び各ニューロ結合の重
み係数特性)を決定するための学習の際、関与が少ない
ニューロの出力値の計算や、それらについてのニューロ
特性の計算を行うことになるので、計算時間が長く掛る
という問題がある。
Further, in the conventional hierarchical neural network, since the neurons in each layer are connected to all the neurons in the immediately preceding and succeeding layers, the total number of connections is large and redundant calculations are avoided. I can't. In particular, when learning to determine neuro characteristics (threshold of each neuro and weight coefficient characteristics of each neuro combination), calculate the output values of the neuros that are less involved and calculate the neuro characteristics of them. Therefore, there is a problem that a long calculation time is required.

【0006】[0006]

【発明が解決しようとする課題】本発明は、以上の様な
従来の階層型ニューラルネットワークの問題点に鑑み成
されたもので、本発明の目的は、階層型ニューラルネッ
トワークを用いて対象系のモデル化を行う際に、最適な
ネットワーク構成を自動的に決定することが可能な階層
型ニューラルネットワークの構成方法を提供することに
ある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems of the conventional hierarchical neural network, and an object of the present invention is to provide an object system using a hierarchical neural network. An object of the present invention is to provide a hierarchical neural network configuration method capable of automatically determining an optimal network configuration when performing modeling.

【0007】[0007]

【課題を解決するための手段】本発明の階層型ニューラ
ルネットワークの構成方法は、初期状態として、各ニュ
ーロが、隣接する前後の層に属する全てのニューロと結
合されたネットワーク構成を備えた階層型ニューラルネ
ットワークを設定する第一の工程と、各ニューロ毎に、
他のニューロとの結合関係を表す結合データを個別に設
定する第二の工程と、階層型ニューラルネットワークに
既知の入力データ及び出力データの組合わせを与えて、
学習計算を行う第三の工程と、学習計算の結果が収束し
たところで、各ニューロ結合の結合重み係数を調べ、そ
の絶対値が所定の条件を下回るニューロ結合を除去する
とともに、関係する結合データを修正する第四の工程
と、ニューロ結合を除去した結果、入力あるいは出力が
一個になったニューロが現れた場合には、結合関係のみ
を維持してそのニューロを除去するとともに、関係する
結合データを修正する第五の工程と、を備え、結合デー
タを修正した後、再び、第三、第四及び第五の工程を行
う処理を繰り返し、ニューロ結合の除去が収束したとこ
ろで終了させて、最適化されたネットワーク構成を得る
ことを特徴とする。
A method for constructing a hierarchical neural network according to the present invention comprises, as an initial state, a hierarchical neural network having a network configuration in which each neuron is connected to all neuros belonging to adjacent and preceding and succeeding layers. The first step of setting up a neural network, and for each neuro,
A second step of individually setting connection data representing a connection relationship with another neuron, and giving a combination of known input data and output data to the hierarchical neural network,
The third step of performing the learning calculation, and when the result of the learning calculation converges, examines the connection weight coefficient of each neuro connection, removes the neuro connection whose absolute value is below a predetermined condition, and removes the relevant connection data. In the fourth step of correcting and, when a neuro having one input or output appears as a result of removing the neuro connection, the neuro is removed while maintaining only the connection relationship, and the related connection data is removed. A fifth step of correcting, and after correcting the joint data, the processing of performing the third, fourth, and fifth steps is repeated again. It is characterized in that the obtained network configuration is obtained.

【0008】なお、本明細書中において、「ニューロ識
別番号」とは、各ニューロを識別するためのデータを意
味し、通常、当該ニューロが属する層の番号、及び層内
での当該ニューロの番号から構成される。「結合デー
タ」とは、各ニューロ毎の相互の結合関係を表すデータ
を意味し、通常、当該ニューロに直接結合された他のニ
ューロのニューロ識別番号から構成される。「結合重み
係数」とは、各ニューロの特性を表すニューロのしきい
値と結合ニューロとの結合重みを意味する。
[0008] In this specification, "neuro identification number" means data for identifying each neuron, and is usually the number of a layer to which the neuron belongs and the number of the neuron in the layer. Consists of The “connection data” means data representing a mutual connection relationship for each neuro, and is usually composed of neuro identification numbers of other neuros directly connected to the neuro. The “connection weight coefficient” means a connection weight between a threshold value of a neuro representing characteristics of each neuro and a connection neuro.

【0009】[0009]

【発明の実施の形態】従来の階層型ニューラルネットワ
ークでは、各ニューロは、隣接する前後の層に属する全
てのニューロと結合される様に構成されている。従っ
て、各ニューロは、それぞれのニューロ識別番号、しき
い値、及び次層(あるいは前層)に属する全ニューロと
の結合についての結合重み係数を持っているが、個別の
結合データを持っていない。
DESCRIPTION OF THE PREFERRED EMBODIMENTS In a conventional hierarchical neural network, each neuron is configured so as to be connected to all neurons belonging to adjacent adjacent layers. Accordingly, each neuron has its own neuro identification number, threshold value, and connection weighting factor for connection with all neuros belonging to the next layer (or previous layer), but does not have individual connection data. .

【0010】これに対して、本発明に基づく構成方法が
適用される階層型ニューラルネットワークでは、各ニュ
ーロに、上記のニューロ識別番号、しきい値、及び結合
重み係数に加えて、個別の結合データを持たせる様にす
る。なお、この結合データとしては、当該ニューロに直
接結合されている他のニューロの内、当該ニューロより
も後段側の層に属するニューロの識別番号のみで十分で
ある。
On the other hand, in the hierarchical neural network to which the configuration method according to the present invention is applied, each neuron has individual connection data in addition to the above-mentioned neuro identification number, threshold value, and connection weight coefficient. To have As the connection data, only the identification number of a neuro belonging to a layer downstream of the neuro among other neuros directly connected to the neuro is sufficient.

【0011】a.ネットワーク構成を最適化する過程に
おいて、先ず始めに、ネットワーク構成(層の数及び各
層に属するニューロの数)を、予測されるものと比べて
大き目に設定するとともに、各ニューロが、隣接する前
後の層に属する全てのニューロと結合される様にネット
ワークを構成し、この状態から学習計算を開始する。
A. In the process of optimizing the network configuration, first, the network configuration (the number of layers and the number of neuros belonging to each layer) is set to be larger than the predicted one, and each neuron is set before and after adjacent neurons. A network is configured so as to be connected to all neuros belonging to the layer, and learning calculation is started from this state.

【0012】b.既知の入力データ及び出力データの組
合わせ(「教師データ」と呼ばれる)を与えて、学習計
算を行い、計算結果が収束したところで、各ニューロ結
合の結合重み係数を調べる。その結果、結合重み係数の
絶対値が所定の条件を下回るニューロ結合を除去する。
即ち、そのニューロ結合を、各ニューロ毎の結合データ
から除去する。
B. Given a combination of known input data and output data (referred to as "teacher data"), a learning calculation is performed, and when the calculation results converge, a connection weight coefficient of each neuro-connection is examined. As a result, a neural connection in which the absolute value of the connection weight coefficient is lower than a predetermined condition is removed.
That is, the neuro connection is removed from the connection data for each neuro.

【0013】c.ニューロ結合を除去した結果、入力が
一個になったニューロが現れた場合には、当該ニューロ
をその前段側に接続しているニューロに吸収して除去す
るとともに、関係する結合データを修正する。同様に、
出力が一個になったニューロが現れた場合には、当該ニ
ューロをその後段側に接続しているニューロに吸収して
除去するとともに、関係する結合データを修正する。
C. When a neuro having one input appears as a result of removing the neural connection, the neuro is absorbed and removed by the neuro connected to the preceding stage, and the related connection data is corrected. Similarly,
When a neuro with one output appears, the neuro is absorbed and removed by the neuro connected to the subsequent stage, and the related connection data is corrected.

【0014】d.b及びcの処理によって修正されたネ
ットワーク構成を用いて、再び、学習計算を行い、次い
で、b及びcの処理を行う。この過程を繰り返して、不
要なニューロ結合及び冗長なニューロを、順次、除去し
ていく。その結果、ニューロ結合の除去が収束したとこ
ろで計算を終了させる。
D. The learning calculation is performed again using the network configuration modified by the processes b and c, and then the processes b and c are performed. By repeating this process, unnecessary neuro-connections and redundant neuros are sequentially removed. As a result, the calculation is terminated when the elimination of the neural connection has converged.

【0015】以上の結果、最終的に、不要なニューロ結
合及び冗長なニューロが整理され、最適化されたネット
ワーク構成が得られる。次に、図面を用いて本発明に基
づく階層型ニューラルネットワークの構成方法について
具体的に説明する。
As a result, unnecessary neural connections and redundant neuros are finally sorted out to obtain an optimized network configuration. Next, a method of configuring a hierarchical neural network based on the present invention will be specifically described with reference to the drawings.

【0016】初期状態として、先ず、図1に示す様な従
来型の階層型ニューラルネットワークを設定する。ネッ
トワークの構成は、入力層、中間層及び出力層からな
り、各層にニューロが配置される。初期状態において、
各ニューロは、その前後の層に属する全てのニューロと
結合されている。入力層及び出力層のニューロ数は、使
用目的によって決定されるが、初期状態における中間層
の層の数及び各層に属するニューロの数については、予
測される最適なネットワーク構成と比べて大き目に設定
しておく。なお、この例では、初期状態におけるネット
ワーク構成は、入力層のニューロ数が2、出力層のニュ
ーロ数が2、中間層の数が2、中間層の第一層のニュー
ロ数が4、第二層のニューロ数が3となっている。
First, a conventional hierarchical neural network as shown in FIG. 1 is set as an initial state. The configuration of the network includes an input layer, a middle layer, and an output layer, and a neuro is arranged in each layer. In the initial state,
Each neuron is connected to all neurons belonging to the layers before and after it. The number of neurons in the input and output layers is determined by the purpose of use, but the number of intermediate layers and the number of neuros belonging to each layer in the initial state are set to be larger than the predicted optimum network configuration. Keep it. In this example, the network configuration in the initial state is such that the number of neurons in the input layer is 2, the number of neurons in the output layer is 2, the number of intermediate layers is 2, the number of neurons in the first layer of the intermediate layer is 4, The number of neurons in the layer is 3.

【0017】ネットワークの学習は、次の様に行われ
る。予め用意された教師データから入力データをネット
ワークに入力として与えて、ネットワークの出力を計算
する。次に、計算された出力と教師データの出力データ
との差が小さくなる様に、各ニューロのしきい値及び各
ニューロ結合の結合重み係数を修正する。この学習計算
を繰り返すことによって、最終的に、各ニューロのしき
い値及び各ニューロ結合の結合重み係数が求められる。
The learning of the network is performed as follows. The input data is provided to the network as input from the teacher data prepared in advance, and the output of the network is calculated. Next, the threshold value of each neuro and the connection weight coefficient of each neuro connection are corrected so that the difference between the calculated output and the output data of the teacher data is reduced. By repeating this learning calculation, finally, the threshold value of each neuro and the connection weight coefficient of each neuro connection are obtained.

【0018】図2に、各ニューロの出力の計算式におい
て使用されるパラメータの一例を示す。ニューロは多入
力一出力のもので、この例では、ニューロの入力数が3
の場合を表している。図中、S1、S2、S3は前層の
各ニューロ結合からの入力の値、Tはニューロの出力の
値、W1、W2、W3は各ニューロ結合の「結合重み係
数」、Hはニューロのしきい値をそれぞれ表している。
FIG. 2 shows an example of parameters used in a formula for calculating the output of each neuron. The neuro has multiple inputs and one output. In this example, the number of neuro inputs is three.
Represents the case of In the figure, S1, S2, and S3 are input values from the respective neuro-couplings in the preceding layer, T is the output value of the neuro, W1, W2, and W3 are the "coupling weight coefficients" of the neuro-couplings, and H is the neuron's weight Threshold values are shown.

【0019】図2に示した例の場合、ニューロからの出
力Tは、シグモイド関数f(X)を用いて次の式で表さ
れる。なお、シグモイド関数f(X)は、入力値Xを0
から1までの値に変換する関数である。
In the case of the example shown in FIG. 2, the output T from the neuron is expressed by the following equation using a sigmoid function f (X). Note that the sigmoid function f (X) is obtained by setting the input value X to 0.
Is a function that converts the value into a value from 1 to 1.

【0020】T=f((ΣSi・Wi)−H) 但し、 ΣSi・Wi=S1・W1+S2・W2+S3・W3 f(X)=1/(1+exp(−X)) 即ち、あるニューロの出力の値は、入力側の各ニューロ
結合からの入力の値Si(即ち、前段側の各ニューロの
出力の値)に、そのニューロ結合の結合重み係数Wiを
掛けた値の前層の結合ニューロ数についての総和から、
そのニューロのしきい値Hを差し引いた値のシグモイド
関数の値である。
T = f ((ΣSi · Wi) −H) where, ΣSi · Wi = S1 · W1 + S2 · W2 + S3 · W3 f (X) = 1 / (1 + exp (−X)) That is, the output value of a certain neuro Is a value obtained by multiplying the input value Si from each input-side neural connection (ie, the output value of each preceding-side neuron) by the connection weighting factor Wi of the neuro-connection, and calculating the value of the connection-layer neuron in the preceding layer. From the sum,
This is the value of the sigmoid function obtained by subtracting the neuron threshold value H.

【0021】学習の進展とともに、結合重み係数の値は
一定値に収束して行く。その結果、結合重み係数の値が
0に近い場合には、上記の式から分かるように、その結
合は評価されない事になるので、除去しても支障がな
い。なお、この除去の可否についての判定は、各ニュー
ロ毎の結合重み係数の比較、各層毎の結合重み係数の比
較、ネットワーク全体での結合重み係数の比較などに基
づいて行う。
As the learning progresses, the value of the connection weight coefficient converges to a constant value. As a result, if the value of the connection weighting factor is close to 0, the connection is not evaluated, as can be seen from the above equation, and there is no problem in removing it. The determination as to whether or not the removal is possible is made based on a comparison of the connection weight coefficients of the respective neurons, a comparison of the connection weight coefficients of the respective layers, a comparison of the connection weight coefficients of the entire network, and the like.

【0022】図3に、この様にして不要と判定された一
部のニューロ結合が除去された後のネットワーク構成の
例を示す。図3に示したネットワーク構成では、入力側
のニューロ結合が1つ、出力側のニューロ結合が1つ、
及び入力側及び出力側のニューロ結合とも1つのニュー
ロが、それぞれ生じている。入力側のニューロ結合が一
個になったニューロについては、当該ニューロをその前
段側に接続されたニューロに吸収して除去するととも
に、除去されたニューロの前後に接続されていたニュー
ロについて、関係する結合データを修正する。同様に、
出力側のニューロ結合が一個になったニューロについて
は、当該ニューロをその後段側に接続されたニューロに
吸収して除去するとともに、除去されたニューロの前後
に接続されていたニューロについて、関係する結合デー
タを修正する。この様に、冗長なニューロを、結合関係
だけを残して除去すると、図4に示す様なネットワーク
構成が得られる。
FIG. 3 shows an example of the network configuration after a part of the neural connections determined to be unnecessary are removed in this way. In the network configuration shown in FIG. 3, there is one input-side neuro connection, one output-side neuro connection,
One neuron is generated in each of the input and output neuron connections. For a neuro with one input neuro-connection, the neuro is absorbed and removed by the neuro connected to the preceding stage, and the related connection is established for the neuro connected before and after the removed neuro. Modify the data. Similarly,
As for the neuro with one neuro connection on the output side, the neuro is absorbed and removed by the neuro connected to the subsequent stage, and the connection related to the neuro connected before and after the removed neuro is related. Modify the data. When the redundant neuro is removed while leaving only the connection relationship, a network configuration as shown in FIG. 4 is obtained.

【0023】次に、この様にして修正されたネットワー
ク構成を用いて、更に、学習計算を行い、不要なニュー
ロ結合及び冗長なニューロを、順次、除去していく。こ
の結果、ニューロ結合の除去が収束したところで、即
ち、ニューロ結合が更に除去される可能性が無くなった
ところで、計算を終了させる。以上の様にして、不要な
ニューロ結合及び冗長なニューロが整理され、最適化さ
れたネットワーク構成が得られる。
Next, learning calculation is further performed by using the network configuration thus modified, and unnecessary neural connections and redundant neurons are sequentially removed. As a result, the calculation is terminated when the removal of the neural connection has converged, that is, when there is no possibility that the neural connection is further removed. As described above, unnecessary neuro-connections and redundant neuros are arranged, and an optimized network configuration is obtained.

【0024】[0024]

【発明の効果】本発明に基づく階層型ニューラルネット
ワークの構成方法によれば、不要なニューロ結合及び冗
長なニューロを学習によって自動的に、順次、除去して
行くことができるので、ネットワーク構成の最適化に要
する手間を大幅に軽減することができる。
According to the method for constructing a hierarchical neural network according to the present invention, unnecessary neural connections and redundant neurons can be automatically and sequentially removed by learning, so that the optimal network configuration can be achieved. The labor required for the conversion can be greatly reduced.

【0025】また、この様にして最適化された階層型ニ
ューラルネットワークは、不要なニューロ結合及び冗長
なニューロが無いので、計算に要する時間が短く、特
に、計算の繰り返しが多数行われる学習過程に要する時
間が、従来と比べて大幅に短縮される。
The hierarchical neural network optimized in this way has no unnecessary neural connections and redundant neurons, so that the time required for the calculation is short, and especially in the learning process in which many calculations are repeated. The time required is greatly reduced as compared with the conventional case.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に基づく階層型ニューラルネットワーク
の構成方法において、初期状態として設定されるネット
ワーク構成の一例を示す図。
FIG. 1 is a diagram showing an example of a network configuration set as an initial state in a method of configuring a hierarchical neural network according to the present invention.

【図2】ニューロ出力の計算式において使用されるパラ
メータについて説明する図。
FIG. 2 is a view for explaining parameters used in a neuro output calculation formula.

【図3】図1に示したネットワーク構成から、本発明の
方法に基づいて、不要なニューロ結合を除去した後の状
態を示す図。
FIG. 3 is a diagram showing a state after unnecessary neuro-coupling has been removed from the network configuration shown in FIG. 1 based on the method of the present invention.

【図4】図3に示したネットワーク構成から、本発明の
方法に基づいて、冗長なニューロを除去した後の状態を
示す図。
FIG. 4 is a diagram showing a state after removing redundant neurons from the network configuration shown in FIG. 3 based on the method of the present invention.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 初期状態として、各ニューロが、隣接す
る前後の層に属する全てのニューロと結合されたネット
ワーク構成を備えた階層型ニューラルネットワークを設
定する第一の工程と、 各ニューロ毎に、他のニューロとの結合関係を表す結合
データを個別に設定する第二の工程と、 階層型ニューラルネットワークに既知の入力データ及び
出力データの組合わせを与えて、学習計算を行う第三の
工程と、 学習計算の結果が収束したところで、各ニューロ結合の
結合重み係数を調べ、その絶対値が所定の条件を下回る
ニューロ結合を除去するとともに、関係する結合データ
を修正する第四の工程と、 ニューロ結合を除去した結果、入力あるいは出力が一個
になったニューロが現れた場合には、結合関係のみを維
持してそのニューロを除去するとともに、関係する結合
データを修正する第五の工程と、 を備え、 結合データを修正した後、再び、第三、第四及び第五の
工程を行う処理を繰り返し、ニューロ結合の除去が収束
したところで終了させて、最適化されたネットワーク構
成を得ることを特徴とする階層型ニューラルネットワー
クの構成方法。
1. a first step of setting a hierarchical neural network having a network configuration in which each neuron is connected to all neurons belonging to adjacent and preceding and succeeding layers as an initial state; A second step of individually setting connection data representing a connection relationship with another neuro; and a third step of performing learning calculation by giving a combination of known input data and output data to a hierarchical neural network. When the result of the learning calculation converges, the fourth step of examining the connection weighting factor of each neuro connection, removing the neuro connection whose absolute value is below a predetermined condition, and correcting the relevant connection data, If a neuro with only one input or output appears as a result of removing the connection, remove the neuro by maintaining only the connection relationship. And a fifth step of correcting related connection data.After correcting the connection data, the processing of performing the third, fourth, and fifth steps is repeated again, and the elimination of the neuro connection has converged. By the way, a method of constructing a hierarchical neural network, wherein the method is terminated to obtain an optimized network configuration.
JP10203517A 1998-07-17 1998-07-17 Constitution method for hierarchical neural network Pending JP2000035955A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10203517A JP2000035955A (en) 1998-07-17 1998-07-17 Constitution method for hierarchical neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10203517A JP2000035955A (en) 1998-07-17 1998-07-17 Constitution method for hierarchical neural network

Publications (1)

Publication Number Publication Date
JP2000035955A true JP2000035955A (en) 2000-02-02

Family

ID=16475473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10203517A Pending JP2000035955A (en) 1998-07-17 1998-07-17 Constitution method for hierarchical neural network

Country Status (1)

Country Link
JP (1) JP2000035955A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010035485A1 (en) * 2008-09-29 2010-04-01 有限会社グーテック An operation discrimination device, a method for constructing an operation discrimination model, an operation discrimination method, and an operation discrimination computer program
JPWO2010106587A1 (en) * 2009-03-18 2012-09-13 パナソニック株式会社 Neural network system
JPWO2020225880A1 (en) * 2019-05-08 2020-11-12
JPWO2020225879A1 (en) * 2019-05-08 2020-11-12

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010035485A1 (en) * 2008-09-29 2010-04-01 有限会社グーテック An operation discrimination device, a method for constructing an operation discrimination model, an operation discrimination method, and an operation discrimination computer program
JPWO2010106587A1 (en) * 2009-03-18 2012-09-13 パナソニック株式会社 Neural network system
US8694451B2 (en) 2009-03-18 2014-04-08 Panasonic Corporation Neural network system
JPWO2020225880A1 (en) * 2019-05-08 2020-11-12
JPWO2020225879A1 (en) * 2019-05-08 2020-11-12
WO2020225879A1 (en) * 2019-05-08 2020-11-12 日本電気株式会社 Arithmetic device and arithmetic operation allocation method
WO2020225880A1 (en) * 2019-05-08 2020-11-12 日本電気株式会社 Assignment device, method, and program

Similar Documents

Publication Publication Date Title
Fukuyama et al. An application of neural network to dynamic dispatch using multi processors
JP2000035955A (en) Constitution method for hierarchical neural network
CN108470251B (en) Community division quality evaluation method and system based on average mutual information
JPH09204310A (en) Judgement rule correction device and judgement rule correction method
JPH0844569A (en) Fuzzy neural network system
JP2004530980A (en) Fourier series-based automatic generation system and method for multivariable fuzzy systems
JPH08272759A (en) Method for execution speedup of neural network for correlation signal processing
JPH07121498A (en) Method for constructing neural network
JPH07146852A (en) Structure simplifying method for neural network
JP3328953B2 (en) Nonlinear synaptic neuron, device thereof and prediction method using the same
JP3262340B2 (en) Information processing device
JP3412700B2 (en) Neural network type pattern learning method and pattern processing device
JPH05204885A (en) Device and method for accelerating learning of neural network
Viharos et al. AI techniques in modelling, assignment, problem solving and optimization
JP2790506B2 (en) Input layer of neural network
JP3101742B2 (en) Minimum detector
JPH0675935A (en) Multivariable system construction method and its device
JP3232597B2 (en) Neural network learning device
JPH0394364A (en) Neural network
JPH05324598A (en) Learning system in neural network learning device
JPH05151373A (en) Fuzzy reverse diagnostic method using neural network
CN116361618A (en) Multichannel active vibration reduction method based on diffusion filtering
JPH07160659A (en) Learning system
EP0439756A2 (en) Artificial neural network
JPH0318965A (en) Learning system for neural net