JP5002821B2 - Neural network device and method thereof - Google Patents

Neural network device and method thereof Download PDF

Info

Publication number
JP5002821B2
JP5002821B2 JP2008501514A JP2008501514A JP5002821B2 JP 5002821 B2 JP5002821 B2 JP 5002821B2 JP 2008501514 A JP2008501514 A JP 2008501514A JP 2008501514 A JP2008501514 A JP 2008501514A JP 5002821 B2 JP5002821 B2 JP 5002821B2
Authority
JP
Japan
Prior art keywords
learning
layer
input
output
nodes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008501514A
Other languages
Japanese (ja)
Other versions
JPWO2007096954A1 (en
Inventor
康平 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NATIONAL UNIVERSITY CORPORATION SAGA UNIVERSITY
Original Assignee
NATIONAL UNIVERSITY CORPORATION SAGA UNIVERSITY
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NATIONAL UNIVERSITY CORPORATION SAGA UNIVERSITY filed Critical NATIONAL UNIVERSITY CORPORATION SAGA UNIVERSITY
Publication of JPWO2007096954A1 publication Critical patent/JPWO2007096954A1/en
Application granted granted Critical
Publication of JP5002821B2 publication Critical patent/JP5002821B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Description

本発明は、脳の仕組みをまねて作成された情報処理機構を実現したニューラルネットワーク装置に関し、特に、入力層と隠れ層との間の重み係数の局所解ではなく大局解を効率的に求めることができるニューラルネットワーク装置に関する。   The present invention relates to a neural network device that realizes an information processing mechanism created by mimicking the mechanism of a brain, and more particularly to efficiently obtain a global solution rather than a local solution of a weighting factor between an input layer and a hidden layer. The present invention relates to a neural network device capable of

ニューラルネットワークとは、人間の脳の仕組みをまねた情報処理機構である。人間の脳はコンピュータでは実現が困難な処理でさえ容易に達成する優れた能力を持っている。現在、私たちが使っているコンピュータはノイマン型と呼ばれ、演算速度が非常に速く、定式化された問題などを解く場合には抜群の威力を発揮するが、人間が普段行っているパターン認識などの問題を解く場合、問題の定式化が難しく、実装するのが非常に困難となる。そこで、人間の脳内の情報処理機構をヒントにして、人間の基本機能である認識や記憶、判断といった処理をコンピュータ上で実現させるため、ニューラルネットワークが誕生した。ニューラルネットワークは脳内の情報処理機構を単純化した構造を持っている。人間の脳内には約140億個もの神経細胞が存在しており、それら神経細胞は互いに結び付いている。各神経細胞は他の細胞から入力信号を受け、その入力信号の和がある値を超えた場合に他の細胞へ出力信号を送り出すという働きを持っている。この細胞間の情報の伝播が、人間が普段行っている認識や記憶、判断といった処理を可能としている。脳内の情報処理の最大の特徴は、単純な機能しか持たない細胞が多数集まることにより、全体として複雑で高度な処理を実現しているという点にあり、ニューラルネットワークはこの利点を生かした仕組みとなっている。具体的には、脳内の神経細胞を「ニューロン」と呼ばれる素子としてモデル化し、多数のニューロンを配置・結合することによりネットワークを構築する。実際に応用する場合は、適用する問題に合わせて、各ニューロンのパラメータを変化(学習)させることで、種々の問題に対応することができる。   A neural network is an information processing mechanism that mimics the mechanism of the human brain. The human brain has an excellent ability to easily achieve even processing that is difficult to achieve with a computer. Currently, the computer we use is called the Neumann type, which is very fast and is extremely powerful when solving formulated problems. When solving such problems, it is difficult to formulate the problem and it is very difficult to implement. Therefore, a neural network was born in order to realize processes such as recognition, storage, and judgment, which are human basic functions, on a computer, using the information processing mechanism in the human brain as a hint. Neural networks have a simplified structure of information processing mechanisms in the brain. There are about 14 billion nerve cells in the human brain, and these nerve cells are connected to each other. Each nerve cell has a function of receiving an input signal from another cell and sending an output signal to the other cell when the sum of the input signals exceeds a certain value. This propagation of information between cells makes it possible to perform processes such as recognition, memory, and judgment that are usually performed by humans. The biggest feature of information processing in the brain is that a large number of cells that have only simple functions are gathered to realize complex and advanced processing as a whole, and neural networks take advantage of this advantage. It has become. Specifically, a nerve cell in the brain is modeled as an element called “neuron”, and a network is constructed by arranging and connecting a large number of neurons. When actually applied, various problems can be dealt with by changing (learning) the parameters of each neuron according to the problem to be applied.

図10(a)はニューロンの模式図である。細胞体(soma)は核などが含まれている部分で、ニューロンの本体といえる部分であり、樹状突起(dendrite)は細胞体から出ている多数の枝のような部分で、ニューロンの入力端子にあたるところであり、軸索(axon)は細胞体から伸びだし、ニューロンの出力端子にあたる部分であり、シナプス(synapse)は枝の末端にある小さい太い足で他のニューロンに接しており、ニューロンどうしをつなぎ、情報を伝達する役割をする。   FIG. 10A is a schematic diagram of a neuron. The cell body (soma) is the part that contains the nucleus and can be said to be the main body of the neuron, and the dendrite (dendrite) is the part of many branches that come out of the cell body, the input of the neuron The axon extends from the cell body and corresponds to the output terminal of the neuron, and the synapse is in contact with other neurons with a small thick leg at the end of the branch. It plays a role of transmitting information.

モデル化すると、図10(b)に示すようになり、式で示せば次のとおりとなる。   When modeled, the result is as shown in FIG. 10B, which can be expressed by the following formula.

Figure 0005002821
Figure 0005002821

それをさらに多数組み合わせることによって複雑な計算が可能になる。三層の階層形ニューラルネットワーク(任意の写像が実現可能)を図10(c)に示す。
ニューラルネットワークの学習は図10(d)に示すように行われる。
図11(a)はエラー(誤差)を示す。
Combining a large number of them enables complex calculations. FIG. 10C shows a three-layer hierarchical neural network (arbitrary mapping can be realized).
Learning of the neural network is performed as shown in FIG.
FIG. 11A shows an error (error).

Figure 0005002821
新しい重みは、次式となる。
Figure 0005002821
The new weight is:

Figure 0005002821
このようにすると極小値になる。
Figure 0005002821
In this way, the minimum value is obtained.

Figure 0005002821
Figure 0005002821

Figure 0005002821
Figure 0005002821

Figure 0005002821
Figure 0005002821

Figure 0005002821
Figure 0005002821

これらの式を満たすように変化させると、時刻tに対して誤差Eは非増加である。
多くの学習データ(入力と望ましい出力の組)を例示することによってニューラルネットワークの重みを決定する方法がある。最も多用されているのは誤差逆伝播と呼ばれる、最急降下法に基づく学習方法である。
図11(b)(c)は誤差逆伝播の構造説明図である。
出力層層のj番目のユニットへの総入力は、
When changing so as to satisfy these equations, the error E does not increase with respect to the time t.
There is a way to determine the weight of a neural network by exemplifying a lot of learning data (a set of inputs and desired outputs). The learning method based on the steepest descent method is called error back propagation.
FIGS. 11B and 11C are diagrams for explaining the structure of error back propagation.
The total input to the jth unit in the output layer is

Figure 0005002821
Figure 0005002821

Figure 0005002821
Figure 0005002821

Figure 0005002821
であり、誤差(エラー)Eが小さくなるようにwを決める。
Figure 0005002821
And w is determined so that the error (error) E becomes small.

Figure 0005002821
に従うように重みwを変化させつづければよい。
Figure 0005002821
The weight w may be continuously changed so as to follow.

Figure 0005002821
を求める。
図11(d)参照。
Figure 0005002821
Ask for.
Refer to FIG.

Figure 0005002821
ここで(3)より
Figure 0005002821
Here from (3)

Figure 0005002821
これを、
Figure 0005002821
this,

Figure 0005002821
で微分すると、
Figure 0005002821
Differentiated by

Figure 0005002821
だけが残る。
Figure 0005002821
Only remains.

Figure 0005002821
よって(13)は、
Figure 0005002821
Therefore (13)

Figure 0005002821
Figure 0005002821

Figure 0005002821
を求める。
図11(e)参照。
Figure 0005002821
Ask for.
Refer to FIG.

Figure 0005002821
Figure 0005002821

まず、

Figure 0005002821
First,
Figure 0005002821

次に、

Figure 0005002821
next,
Figure 0005002821

Figure 0005002821
Figure 0005002821

以上の計算を出力側から入力側へ逆向きに、

Figure 0005002821
を伝搬しながら傾きReverse the above calculation from the output side to the input side,
Figure 0005002821
Tilt while propagating

Figure 0005002821
Figure 0005002821

の計算が進む。これを誤差逆伝播学習という。
ニューラルネットワークの特徴を挙げると以下のようになる。
(1) 学習能力…提示される入出力サンプルに基づいて必要な機能を自動形成することができる。
(2) 非線形性…学習により、定式化が困難な複雑な写像関係でさえ容易に構築することができる。
(3) 並列処理…入力された信号は結合を通して様々なニューロンへと送られ、並列的に処理される。
The calculation proceeds. This is called error back propagation learning.
The characteristics of neural networks are as follows.
(1) Learning ability: Necessary functions can be automatically formed based on the input / output samples presented.
(2) Non-linearity: By learning, even complex mapping relationships that are difficult to formulate can be easily constructed.
(3) Parallel processing: The input signal is sent to various neurons through connection and processed in parallel.

誤差逆伝播学習に基づく階層型ニューラルネットワークでは、最急降下法に基づく最適化学習を行うため、大域的最適解を保証するものではなく局所解に陥る危険性がある。大域的最適解に到達するための学習方法としてシミュレーテッドアニ−リングがあるが、学習に時間を要することもさることながら、入力データセットと望ましい出力データセット(これらをトレーニングデータセットと呼ぶ)を大量に用意する必要があり現実的ではないという課題を有する。   In a hierarchical neural network based on error back-propagation learning, optimization learning based on the steepest descent method is performed, so there is a risk of falling into a local solution rather than guaranteeing a global optimal solution. There is simulated annealing as a learning method to reach the global optimal solution, but it takes time to learn and the input data set and the desired output data set (referred to as the training data set). There is a problem that it is necessary to prepare a large amount and is not realistic.

本発明は前記課題を解決するためになされたものであり、少ないトレーニングデータセットによる短時間での学習によって大域的最適解に到達することが可能であるニューラルネットワーク装置を提供することを目的とする。   The present invention has been made to solve the above problems, and an object of the present invention is to provide a neural network device capable of reaching a global optimum solution by learning in a short time with a small number of training data sets. .

発明者のニューラルネットワークへの鋭意的研究の結果、入力データは、学習の進行に伴って入力層と隠れ層を結合している重み係数に相関が高くなることが判明した。隠れ層のノード数にも依存するが、仮に、入力層と重み係数の数が同じである場合(隠れ層のノードを1つとすると、すべての入力層のノードがこの一つの隠れ層のノードに結合され、重み係数の数は入力層のノード数に一致)、入力と望ましい出力を与えて学習が進行したときの重み係数との間には相関、   As a result of the inventor's earnest research on the neural network, it has been found that the input data becomes highly correlated with the weighting coefficient connecting the input layer and the hidden layer as the learning progresses. Although it depends on the number of hidden layer nodes, if the number of input layer and the number of weighting coefficients is the same (if there is one hidden layer node, all the input layer nodes will be The number of weighting factors is the same as the number of nodes in the input layer), and the correlation between the input and the weighting factor when learning proceeds with the desired output,

Figure 0005002821
Figure 0005002821

が高くなる。隠れ層の数が大きくなった場合も同様に、間引くことにより、または、平均化操作を施して入力層の数に合わせると、式の相関係数が計算でき、学習の進行状況を調べることができる。ただし、相関係数の求め方は上式に限らず、相関の程度に数値化できる式であれば用いることができる。 Becomes higher. Similarly, when the number of hidden layers increases, the correlation coefficient of the equation can be calculated by thinning out or by performing an averaging operation to match the number of input layers, and the progress of learning can be checked. it can. However, the method of obtaining the correlation coefficient is not limited to the above formula, and any formula that can be quantified to the degree of correlation can be used.

本発明は、最急降下法に基づく誤差逆伝播学習を伴う階層型ニューラルネットワークを基本とし、入力データと入力層と隠れ層との間の重み係数との相関係数を調べることにより、学習の進行状況を調べ、局所解に陥っているか、それとも、大域的最適解に近い準最適解であるのかを判定するものである。また、仮に、誤差逆伝播学習が収束したとしても相関係数が低い場合、すなわち、局所解に陥っているような場合であれば、初期値を変えて学習をやり直すという学習法およびそれを用いたニューラルネットワーク装置も含まれる。   The present invention is based on a hierarchical neural network with error back-propagation learning based on the steepest descent method, and the progress of learning is investigated by examining the correlation coefficient between the input data and the weight coefficient between the input layer and the hidden layer. The situation is examined, and it is determined whether the solution falls into a local solution or is a suboptimal solution close to the global optimum solution. Also, even if error back-propagation learning converges, if the correlation coefficient is low, that is, if it falls into a local solution, use a learning method that changes the initial value and restarts learning. Also included are neural network devices.

本発明に係るニューラルネットワーク装置は、ノードを有する入力層、隠れ層及び出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置であって、入力データと入力層及び隠れ層のノード間の重み係数との相関係数が所定閾値以上であるという学習収束条件に該当する場合に学習が収束したと判断する第2の学習収束判断部を備えるものである。
The neural network device according to the present invention includes an input layer having nodes, a hidden layer, and an output layer. The input data is input to the input layer and the output data output from the output layer and the input data are prepared in advance. Compared with teacher data, using the error that is the comparison result, update the weighting coefficient between the nodes of the output layer and the hidden layer and the weighting coefficient between the nodes of the hidden layer and the input layer. Hierarchical neural network device based on which the learning has converged when the learning convergence condition that the correlation coefficient between the input data and the weighting coefficient between the nodes of the input layer and the hidden layer is equal to or greater than a predetermined threshold is met A second learning convergence determination unit is provided.

このように本発明によれば、ニューラルネットワークによって生成された出力データと教師データの出力データとの誤差を用いて重み係数を更新し、かかる誤差が小さくなってきた場合に学習を終了するだけではなく、入力データと入力層及び隠れ層の重み係数との相関係数に基づいて学習の収束を判断しているので、重み係数の更新が行き詰るだけで学習の収束状態と判断せずに、入力データと入力層及び隠れ層の重み係数との相関係数も用いて学習の収束を判断しており、局所解で学習が終了することなく、大域的最適解を導出して学習を終了させることができるという効果を奏する。   As described above, according to the present invention, the weight coefficient is updated using the error between the output data generated by the neural network and the output data of the teacher data, and when the error becomes small, the learning is not finished. Since the learning convergence is judged based on the correlation coefficient between the input data and the weighting factors of the input layer and the hidden layer, the input of the learning is not judged as the learning convergence state just by updating the weighting factor. The convergence of learning is judged using the correlation coefficient between the data and the weighting coefficients of the input layer and hidden layer, and the learning is terminated by deriving the global optimal solution without ending the learning with the local solution. There is an effect that can be.

また、本発明に係るニューラルネットワーク装置は、ノードを有する入力層、隠れ層及び出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置であって、前記学習の比較結果の誤差に基づいて学習の収束を判断する第1の学習収束判断部と、入力データと入力層及び隠れ層のノード間の重み係数との相関係数が所定閾値以上であるという学習収束条件に該当する場合に学習が収束したと判断する第2の学習収束判断部とを備え、第1の学習収束判断部と第2の学習収束判断部が共に学習が収束していると判断している場合に学習を終了するものである。
第1の学習収束判断部は、より具体的には、今まで求めてきた比較結果の誤差の変動をみており、この変動が略なくなった場合に学習が収束したと判断する。
The neural network device according to the present invention includes an input layer having nodes, a hidden layer, and an output layer. The input data is input to the input layer, and the output data output from the output layer and the input data are prepared in advance. Error propagation that learns by comparing the weighted coefficient between the nodes of the output layer and the hidden layer and the weight coefficient between the nodes of the hidden layer and the input layer using the error that is the comparison result A hierarchical neural network device based on learning, wherein a first learning convergence determination unit that determines convergence of learning based on an error of the comparison result of learning, and weights between nodes of input data and input layers and hidden layers and a second learning convergence judging section correlation coefficient between the coefficient is determined to learning when true learning convergence condition that is greater than or equal to a predetermined threshold value has converged, the first learning convergence judgment unit In which the second learning convergence judgment unit both learning terminates learning when you are determined to have converged.
More specifically, the first learning convergence determination unit looks at the fluctuation of the error of the comparison result obtained so far, and determines that the learning has converged when the fluctuation is almost eliminated.

また、本発明に係るニューラルネットワーク装置は、ノードを有する入力層、隠れ層及び出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置であって、前記学習の比較結果の誤差に基づいて学習の収束を判断する第1の学習収束判断部と、入力データと入力層及び隠れ層のノード間の重み係数との相関係数が所定閾値以上であるという学習収束条件に該当する場合に学習が収束したと判断する第2の学習収束判断部とを備え、第1の学習収束判断部が学習が収束したと判断した後に、第2の学習収束判断部が学習の収束を判断し、第2の学習収束判断部が学習が収束したと判断した場合に、学習を終了するものである。
The neural network device according to the present invention includes an input layer having nodes, a hidden layer, and an output layer. The input data is input to the input layer, and the output data output from the output layer and the input data are prepared in advance. Error propagation that learns by comparing the weighted coefficient between the nodes of the output layer and the hidden layer and the weight coefficient between the nodes of the hidden layer and the input layer using the error that is the comparison result A hierarchical neural network device based on learning, wherein a first learning convergence determination unit that determines convergence of learning based on an error of the comparison result of learning, and weights between nodes of input data and input layers and hidden layers and a second learning convergence judging section correlation coefficient between the coefficient is determined to learning when true learning convergence condition that is greater than or equal to a predetermined threshold value has converged, the first learning convergence judgment unit After it is determined that the learning has converged, the second learning convergence judgment unit judges the convergence of the learning, when the second learning convergence judgment unit determines that the learning has converged, is to end the learning.

このように本発明によれば、まずもってニューラルネットワークの生成した出力データと教師データの出力データとの誤差から学習の収束を判断しており、このニューラルネットワークの生成した出力データと教師データの出力データとの誤差は誤差逆伝播学習をする上では重み係数の反映のために必須のものであり、入力データと入力層及び隠れ層の重み係数との相関係数から学習収束を判断する前に、既に求まっている誤差を用いて誤差による学習収束の判断を実施することが効率がよいという効果を有する。   As described above, according to the present invention, learning convergence is first determined from the error between the output data generated by the neural network and the output data of the teacher data. The output of the output data generated by the neural network and the output of the teacher data is determined. The error with the data is indispensable for the reflection of the weight coefficient in error back propagation learning, and before judging the learning convergence from the correlation coefficient between the input data and the weight coefficient of the input layer and the hidden layer. It has the effect that it is efficient to carry out the determination of the learning convergence by the error using the already determined error.

た、本発明に係るニューラルネットワーク装置は、ノードを有する入力層、隠れ層及 び出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入 力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて 出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新 することで学習する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置であって 、入力データと入力層及び隠れ層のノード間の重み係数との相関係数が増大傾向が飽和に 達する学習収束条件に該当する場合に学習が収束したと判断する第2の学習収束判断部を 備えるものである。
た、本発明に係るニューラルネットワーク装置は、ノードを有する入力層、隠れ層及 び出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入 力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて 出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新 することで学習する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置であって 、前記学習の比較結果の誤差に基づいて学習の収束を判断する第1の学習収束判断部と、 入力データと入力層及び隠れ層のノード間の重み係数との相関係数が増大傾向が飽和に達 する学習収束条件に該当する場合に学習が収束したと判断する第2の学習収束判断部とを 備え、第1の学習収束判断部と第2の学習収束判断部が共に学習が収束していると判断し ている場合に学習を終了するものである。
また、本発明に係るニューラルネットワーク装置は、ノードを有する入力層、隠れ層及 び出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入 力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて 出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新 することで学習する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置であって 、前記学習の比較結果の誤差に基づいて学習の収束を判断する第1の学習収束判断部と、 入力データと入力層及び隠れ層のノード間の重み係数との相関係数が増大傾向が飽和に達 する学習収束条件に該当する場合に学習が収束したと判断する第2の学習収束判断部とを 備え、第1の学習収束判断部が学習が収束したと判断した後に、第2の学習収束判断部が 学習の収束を判断し、第2の学習収束判断部が学習が収束したと判断した場合に、学習を 終了するものである。
た、本発明に係るニューラルネットワーク装置は必要に応じて、第2の学習収束判断部は、前記学習収束条件に該当しない場合、重み係数を初期化して改めて学習し直すものである。
Also, the neural network system according to the present invention, an input layer having nodes consists hidden layer及 beauty output layer, and input to the input layer of input data corresponding to the output data and input data output from the output layer Compared with teacher data prepared in advance , learning is performed by updating the weighting coefficient between the nodes of the output layer and the hidden layer and the weighting coefficient between the nodes of the hidden layer and the input layer by using the error as the comparison result. Hierarchical neural network device based on backpropagation learning, learning when the correlation coefficient between the input data and the weighting coefficient between the nodes of the input layer and hidden layer satisfies the learning convergence condition where the increasing tendency reaches saturation There are those comprising a second learning convergence judging section for judging to have converged.
Also, the neural network system according to the present invention, an input layer having nodes consists hidden layer及 beauty output layer, and input to the input layer of input data corresponding to the output data and input data output from the output layer Compared with teacher data prepared in advance , learning is performed by updating the weighting coefficient between the nodes of the output layer and the hidden layer and the weighting coefficient between the nodes of the hidden layer and the input layer by using the error as the comparison result. A hierarchical neural network device based on error back propagation learning, a first learning convergence determination unit for determining convergence of learning based on an error of a comparison result of learning, and nodes of input data, an input layer, and a hidden layer and a second learning convergence judging section for judging the learning has converged when the correlation coefficient between the weighting factors increasing tendency corresponds to learning convergence conditions reach the saturation between the first learning convergence judgment unit When 2 of the learning convergence judgment unit are both learning is to end the training if you are determined to have converged.
Also, neural network system according to the present invention, an input layer having nodes consists hidden layer及 beauty output layer, and input to the input layer of input data corresponding to output data and input data output from the output layer An error that is learned by comparing the teacher data prepared in advance and updating the weighting coefficient between the nodes of the output layer and the hidden layer and the weighting coefficient between the nodes of the hidden layer and the input layer using the error that is the comparison result A hierarchical neural network device based on back propagation learning , wherein a first learning convergence determination unit that determines learning convergence based on an error of a comparison result of the learning, and between input data and nodes of an input layer and a hidden layer comprising of a second learning convergence judging section for judging the learning has converged when the correlation coefficient between the weighting factors increasing tendency corresponds to learning convergence conditions reach the saturation, the first learning convergence judgment unit After learning is determined that converges the second learning convergence judgment unit judges the convergence of the learning, when the second learning convergence judgment unit determines that the learning has converged, is to end the learning.
Also, neural network system according to the present invention, if necessary, the second learning convergence judgment unit, if not applicable to the learning convergence conditions are those re-relearned initialize the weighting factor.

このように本発明によれば、ニューラルネットワークの生成した出力データと教師データの出力データとの誤差から学習が収束したと判断した場合で、且つ、入力データと入力層及び隠れ層の重み係数との相関係数から学習が収束していないと判断した場合には、大域的最適解が求まらず局所解に陥っていることとなり、再度重み係数を初期化して誤差逆伝播学習をすることで大域的最適解を求めることができるという効果を有する。局所解に陥っている状態で何度学習しても局所解を脱して大域的最適解に達することは困難であるために、重み係数を初期化することが望ましい。   Thus, according to the present invention, when it is determined that learning has converged from the error between the output data generated by the neural network and the output data of the teacher data, and the input data and the weighting factors of the input layer and the hidden layer, If it is determined that the learning has not converged based on the correlation coefficient, it means that the global optimal solution is not found and falls into the local solution, and the weight coefficient is initialized again and error propagation propagation learning is performed. This has the effect that a global optimum solution can be obtained. Since it is difficult to get out of the local solution and reach the global optimal solution no matter how many times learning is performed in the state of falling into the local solution, it is desirable to initialize the weighting factor.

た、本発明に係るニューラルネットワーク装置は必要に応じて、前記重み係数を初期化する場合には、初期化した重み係数と初期化する前の重み係数の相関係数を求め、この相関係数が所定閾値以上である場合には再度重み係数を初期化するものである。
このように本発明によれば、重み係数を初期化した場合であっても依然の重み係数と同様であれば誤差逆伝播の学習を再度行った場合に同様の局所解に陥る可能性が高く、その場合に、再度初期化することで無駄な学習を回避し、効率的に大域的最適解を求めることができるという効果を有する。
Also, if the neural network system according to the present invention should, when said weighting factors to initialize, the correlation coefficient of the weighting coefficient before initializing the weighting factors are initialized this phase relationship When the number is equal to or greater than a predetermined threshold, the weighting coefficient is initialized again.
Thus, according to the present invention, even if the weighting factor is initialized, if it is the same as the still weighting factor, there is a high possibility of falling into the same local solution when error back propagation learning is performed again. In such a case, there is an effect that by reinitializing, unnecessary learning can be avoided and a global optimum solution can be efficiently obtained.

た、本発明に係る階層的ニューラルネットワーク装置の誤差逆伝播学習方法は、入力データを入力層に入力して出力層から出力された出力データと入力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する階層的ニューラルネットワーク装置の誤差逆伝播学習方法であって、入力データと入力層及び隠れ層のノード間の重み係数との相関係数が所定閾値以上である場合に学習が収束したと判断するものである。
また、本発明に係る階層的ニューラルネットワーク装置の誤差逆伝播学習方法は、入力 データを入力層に入力して出力層から出力された出力データと入力データに対応する予め 用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノー ド間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する階層 的ニューラルネットワーク装置の誤差逆伝播学習方法であって、入力データと入力層及び 隠れ層のノード間の重み係数との相関係数が増大傾向が飽和に達する学習収束条件に該当 する場合に学習が収束したと判断するものである。
また、本発明に係る誤差逆伝播学習プログラムは、ノードを有する入力層、隠れ層及び 出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入力 データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出 力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新す ることで学習する階層的ニューラルネットワーク装置としてコンピュータを機能させる誤 差逆伝播学習プログラムであって、入力データと入力層及び隠れ層のノード間の重み係数 との相関係数が所定閾値以上である場合に学習が収束したと判断する第2の学習収束判断 部としてコンピュータを機能させるものである。
また、本発明に係る誤差逆伝播学習プログラムは、ノードを有する入力層、隠れ層及び 出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入力 データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出 力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新す ることで学習する階層的ニューラルネットワーク装置としてコンピュータを機能させる誤 差逆伝播学習プログラムであって、入力データと入力層及び隠れ層のノード間の重み係数 との相関係数が増大傾向が飽和に達する学習収束条件に該当する場合に学習が収束したと 判断する第2の学習収束判断部としてコンピュータを機能させるものである。
このように本発明は、方法又はプログラムとしても把握することができる。
これら前記の発明の概要は、本発明に必須となる特徴を列挙したものではなく、これら複数の特徴のサブコンビネーションも発明となり得る。
Also, the backpropagation learning method of a hierarchical neural network system according to the present invention, the teacher data is input to the input layer of input data are prepared in advance corresponding to the output data and the input data output from the output layer And the error inverse of the hierarchical neural network device that learns by updating the weighting coefficient between the nodes of the output layer and the hidden layer and the weighting coefficient between the nodes of the hidden layer and the input layer using the error that is the comparison result In this propagation learning method, it is determined that learning has converged when a correlation coefficient between input data and a weighting coefficient between nodes in the input layer and the hidden layer is equal to or greater than a predetermined threshold .
Also, the error back propagation learning method of the hierarchical neural network device according to the present invention includes: input data input to an input layer; output data output from an output layer; and teacher data prepared in advance corresponding to the input data. comparison, an error reverse hierarchical neural network system that learns by updating the weighting factor between the nodes of the weighting factors and the hidden layer and input layer between nodes in the output layer and the hidden layer using an error as a result of the comparison Propagation learning method that determines that learning has converged when the correlation coefficient between the input data and the weighting coefficient between nodes in the input layer and hidden layer satisfies the learning convergence condition where the increasing tendency reaches saturation. is there.
The error back propagation learning program according to the present invention includes an input layer having nodes, a hidden layer, and an output layer. The input data is input to the input layer and corresponds to the output data and the input data output from the output layer. comparing the previously prepared teaching data, learning users update the weighting factor between the nodes of the weighting factors and the hidden layer and input layer between nodes of the output layer and a hidden layer with an error as a result of the comparison to a Sagyaku propagation learning program erroneously causing a computer to function as a hierarchical neural network system, the learning when the correlation coefficient between the weighting coefficients between the nodes of the input layer and the hidden layer to the input data is equal to or greater than a predetermined threshold value The computer is caused to function as a second learning convergence determination unit that determines that it has converged .
The error back propagation learning program according to the present invention includes an input layer having nodes, a hidden layer, and an output layer. The input data is input to the input layer and corresponds to the output data and the input data output from the output layer. comparing the previously prepared teaching data, learning users update the weighting factor between the nodes of the weighting factors and the hidden layer and input layer between nodes of the output layer and a hidden layer with an error as a result of the comparison to a Sagyaku propagation learning program erroneously causing a computer to function as a hierarchical neural network system, the learning convergence conditions the correlation coefficient of a weighting factor between the nodes of the input layer and the hidden layer to the input data is increasing tendency reaches saturation In this case, the computer is caused to function as a second learning convergence determination unit that determines that learning has converged .
Thus, the present invention can be grasped as a method or a program .
These outlines of the invention do not enumerate the features essential to the present invention, and a sub-combination of these features can also be an invention.

本発明の第1の実施形態に係るニューラルネットワーク装置のブロック構成図である。1 is a block configuration diagram of a neural network device according to a first embodiment of the present invention. 本発明の第1の実施形態に係るニューラルネットワーク装置を構築されているコンピュータのハードウェア構成図である。1 is a hardware configuration diagram of a computer in which a neural network device according to a first embodiment of the present invention is constructed. 本発明の第1の実施形態に係るニューラルネットワーク装置の学習時の動作フローチャートである。It is an operation | movement flowchart at the time of learning of the neural network apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係るニューラルネットワーク装置の初期化に関する部分代替フローチャートである。It is a partial substitution flowchart regarding initialization of the neural network device concerning a 1st embodiment of the present invention. 実施例に係る2002年5月20日17時11分の観測画像及び実測値である。It is an observation image and actual measurement value of 17:11 on May 20, 2002 which concern on an Example. 実施例に係る2004年11月30日16時45分の観測画像及び実測値である。It is an observation image and actual measurement value of 16:45 on November 30, 2004 which concern on an Example. 図6の入力及び望ましい出力に対する解の推移である。FIG. 7 is a transition of the solution for the input and the desired output of FIG. 図5の入力及び望ましい出力に対する解の推移である。FIG. 6 is the transition of the solution for the input and the desired output of FIG. 図5の入力及び望ましい出力に対する解の推移である。FIG. 6 is the transition of the solution for the input and the desired output of FIG. 背景技術のニューラルネットワークの説明図である。It is explanatory drawing of the neural network of background art. 背景技術のニューラルネットワークの説明図である。It is explanatory drawing of the neural network of background art.

符号の説明Explanation of symbols

10 入力部
20 ニューラルネットワーク機構部
30 出力部
40 誤差逆伝播機構
41 誤差算出部
42 重み係数反映部
43 誤差収束判定部
50 相関係数機構
51 相関係数算出部
52 相関係数条件判定部
53 初期化部
100 コンピュータ
111 CPU
112 RAM
113 ROM
114 フラッシュメモリ
115 HD
116 LANカード
117 マウス
118 キーボード
119 ビデオカード
119a ディスプレイ
120 サウンドカード
120a スピーカ
121 ドライブ
DESCRIPTION OF SYMBOLS 10 Input part 20 Neural network mechanism part 30 Output part 40 Error back propagation mechanism 41 Error calculation part 42 Weight coefficient reflection part 43 Error convergence determination part 50 Correlation coefficient mechanism 51 Correlation coefficient calculation part 52 Correlation coefficient condition determination part 53 Initial stage Conversion unit 100 Computer 111 CPU
112 RAM
113 ROM
114 Flash memory 115 HD
116 LAN card 117 mouse 118 keyboard 119 video card 119a display 120 sound card 120a speaker 121 drive

(本発明の第1の実施形態)
(1)ブロック構成
図1は本実施形態に係るニューラルネットワーク装置のブロック構成図である。
本実施形態に係るニューラルネットワーク装置は、処理対象の入力データを取り込む入力部10と、取り込んだ入力データを処理して出力データを生成するニューラルネットワーク機構部20と、生成した出力データを送り出す出力部30と、学習時にニューラルネットワーク機構部20により生成された出力データと教師データの出力データから誤差を求め、求めた誤差から誤差が収束しているか否かを判断し、収束していないと判断した場合には誤差逆伝播を行い重み係数を更新する誤差逆伝播機構40と、学習時に入力データと入力層と隠れ層との隠れ係数との相関係数を求め、前記誤差逆伝播機構40が収束していると判断した場合に、直近の相関係数が所定閾値と比べて低いか否か、及び、相関係数が増大傾向であって飽和に達するか否かを判断し、直近の相関係数が所定閾値と比べて低い場合、相関係数が増大傾向ではない場合、または、相関係数が増大傾向でも飽和に達しない場合、ニューラルネットワーク機構部20を初期化する相関係数機構50とを備える構成である。
(First embodiment of the present invention)
(1) Block Configuration FIG. 1 is a block configuration diagram of a neural network device according to this embodiment.
The neural network device according to the present embodiment includes an input unit 10 that captures input data to be processed, a neural network mechanism unit 20 that processes the captured input data and generates output data, and an output unit that sends the generated output data 30 and obtaining an error from the output data generated by the neural network mechanism 20 during learning and the output data of the teacher data, determining whether the error has converged from the obtained error, and determining that the error has not converged. In this case, the error back-propagation mechanism 40 that performs error back-propagation and updates the weighting coefficient, and the correlation coefficient between the input data and the hidden coefficient between the input layer and the hidden layer are obtained during learning, and the error back-propagation mechanism 40 converges. If it is determined that the latest correlation coefficient is lower than the predetermined threshold, the correlation coefficient is increasing and reaches saturation. If the latest correlation coefficient is lower than the predetermined threshold, if the correlation coefficient is not increasing, or if the correlation coefficient does not reach saturation even if the correlation coefficient is increasing, the neural network mechanism unit And a correlation coefficient mechanism 50 that initializes 20.

誤差逆伝播機構40は、学習時に入力データの入力毎に出力データと教師データの出力データの誤差を求める誤差算出部41と、この誤差算出部41で求めた誤差を用いてニューラルネットワーク機構部20の重み係数を更新する重み係数反映部42と、誤差算出部41が求めた誤差の変動から収束しているか否かを判断する誤差収束判定部43とからなる。誤差収束判定部43が収束しないと判断した場合にだけ重み係数反映部42が重み係数の反映を行う構成にすることもできるし、誤差収束判定部43に依らず誤差算出部41で誤差が求められた場合には重み係数反映部42が重み係数を反映する構成にすることもできる。後者の構成を採った場合にも、誤差収束判定部43が収束すると判断した場合で且つ、大域的最適解が求まっていれば以降誤差算出部41及び重み係数反映部42での処理は行われない。   The error back propagation mechanism 40 includes an error calculation unit 41 that calculates an error between the output data and the output data of the teacher data for each input of input data during learning, and the neural network mechanism unit 20 using the error calculated by the error calculation unit 41. The weight coefficient reflecting section 42 for updating the weight coefficient and the error convergence determining section 43 for determining whether or not the error has been converged from the error variation obtained by the error calculating section 41. The weight coefficient reflecting unit 42 can be configured to reflect the weight coefficient only when the error convergence determining unit 43 determines that the error does not converge, or the error calculating unit 41 obtains an error regardless of the error convergence determining unit 43. In such a case, the weight coefficient reflecting unit 42 may be configured to reflect the weight coefficient. Even in the case of adopting the latter configuration, if the error convergence determination unit 43 determines that the convergence has occurred and if a global optimum solution has been obtained, the processing in the error calculation unit 41 and the weight coefficient reflection unit 42 is performed thereafter. Absent.

相関係数機構50は、学習時に入力データの入力毎に入力データと入力層と隠れ層の重み係数との相関係数を求める相関係数算出部51と、直近の相関係数が所定閾値と比べて低いか否か、及び、相関係数が増大傾向であって飽和に達するか否かを判断する相関係数条件判定部52と、この相関係数条件判定部52が直近の相関係数が所定閾値と比べて低いと判断した場合、相関係数が増大傾向ではないと判断した場合、または、相関係数が増大傾向でも飽和に達しないと判断した場合にニューラルネットワーク機構部20を初期化する初期化部53とからなる。   The correlation coefficient mechanism 50 includes a correlation coefficient calculation unit 51 that obtains a correlation coefficient between the input data and the weight coefficient of the hidden layer and the hidden layer for each input of the input data during learning, and the latest correlation coefficient is a predetermined threshold value. A correlation coefficient condition determining unit 52 for determining whether the correlation coefficient is increasing and reaching a saturation level, and the correlation coefficient condition determining unit 52 includes the latest correlation coefficient Is determined to be lower than the predetermined threshold, the correlation coefficient is determined not to increase, or the neural network mechanism unit 20 is initialized when it is determined that the correlation coefficient does not reach saturation even when the correlation coefficient is increasing. And an initialization unit 53 to be converted.

(2)ハードウェア構成
図2は本実施形態に係るニューラルネットワーク装置を構築されているコンピュータのハードウェア構成図である。
ニューラルネットワークが構築されているコンピュータ100は、CPU(Central Processing Unit)111、RAM(Random Access Memory)112、ROM(Read Only Memory)113、フラッシュメモリ(Flash memory)114、外部記憶装置であるHD(Hard disk)115、LAN(Local Area Network)カード116、マウス117、キーボード118、ビデオカード119、このビデオカード119と電気的に接続する表示装置であるディスプレイ119a、サウンドカード120、このサウンドカード120と電気的に接続する音出力装置であるスピーカ120a及びフレキシブルディスク、CD−ROM、DVD−ROM等の記憶媒体を読み書きするドライブ121からなる。なお、所謂当業者であれば、若干のハードウェアの構成要素の変更をすることができ、また、複数コンピュータに対して一つのニューラルネットワークを構築することができる。コンピュータ毎に全てではなく一部の一又は複数のモジュールを構築して負荷分散を図ることができる。勿論、グリッドコンピュータシステム上にニューラルネットワークを構築することもできる。
(2) Hardware Configuration FIG. 2 is a hardware configuration diagram of a computer in which the neural network device according to this embodiment is constructed.
The computer 100 in which the neural network is constructed includes a CPU (Central Processing Unit) 111, a RAM (Random Access Memory) 112, a ROM (Read Only Memory) 113, a flash memory (Flash memory) 114, and an HD (external storage device). Hard disk) 115, LAN (Local Area Network) card 116, mouse 117, keyboard 118, video card 119, display 119a which is a display device electrically connected to the video card 119, sound card 120, and sound card 120 It comprises a speaker 120a, which is an electrically connected sound output device, and a drive 121 for reading and writing a storage medium such as a flexible disk, CD-ROM, DVD-ROM or the like. A so-called person skilled in the art can slightly change the components of the hardware, and can construct one neural network for a plurality of computers. One or a plurality of modules, not all, can be constructed for each computer to achieve load distribution. Of course, a neural network can also be constructed on the grid computer system.

(3)動作
図3は本実施形態に係るニューラルネットワーク装置の学習時の動作フローチャートである。
入力部10が入力データ及び出力データからなる教師データを取り込み、取り込んだ入力データがニューラルネットワーク機構20で処理され、出力部10が生成された出力データを出力する。誤差算出部41は出力データと教師データの出力データとから誤差を算出する(ステップ201)。重み係数反映部42は算出した誤差を用いてニューラルネットワークの重み係数を更新する(ステップ202)。相関係数算出部51は入力層と隠れ層の重み係数と入力データとから相関係数を算出する(ステップ211)。誤差収束判定部43は誤差算出部41が求めてきた誤差を用いて誤差が収束しているか否かを判断する(ステップ221)。ステップ221において収束していないと判断した場合にはステップ100に戻る。ステップ221において収束していると判断した場合には、相関係数条件判定部52は相関係数算出部51が求めてきた相関係数を用いて直近の相関係数が所定閾値と比べて低いか否かを判断する(ステップ231)。ステップ231において直近の相関係数が低いと判断した場合には、相関係数が増大傾向であって飽和に達するか否かを判断する(ステップ232)。ステップ231において相関係数が低くないと判断した場合、又は、ステップ232において相関係数が増大傾向であって飽和に達すると判断した場合、大域的最適解が求まったとしてニューラルネットワークの学習を終了する。ステップ232において相関係数が増大傾向であって飽和に達してはいないと判断した場合には、局所解が求まったとしてニューラルネットワーク機構20の初期値を再設定し(ステップ241)、ステップ100に戻る。
(3) Operation FIG. 3 is an operation flowchart during learning of the neural network device according to the present embodiment.
The input unit 10 captures teacher data composed of input data and output data, the captured input data is processed by the neural network mechanism 20, and the output unit 10 outputs the generated output data. The error calculation unit 41 calculates an error from the output data and the output data of the teacher data (step 201). The weight coefficient reflection unit 42 updates the weight coefficient of the neural network using the calculated error (step 202). The correlation coefficient calculation unit 51 calculates a correlation coefficient from the input layer and hidden layer weight coefficients and the input data (step 211). The error convergence determination unit 43 determines whether the error has converged using the error obtained by the error calculation unit 41 (step 221). If it is determined in step 221 that the convergence has not occurred, the process returns to step 100. If it is determined in step 221 that convergence has occurred, the correlation coefficient condition determination unit 52 uses the correlation coefficient obtained by the correlation coefficient calculation unit 51 and the latest correlation coefficient is lower than the predetermined threshold value. Whether or not (step 231). If it is determined in step 231 that the most recent correlation coefficient is low, it is determined whether the correlation coefficient is increasing and reaches saturation (step 232). If it is determined in step 231 that the correlation coefficient is not low, or if it is determined in step 232 that the correlation coefficient tends to increase and reaches saturation, the learning of the neural network is terminated as a global optimal solution has been obtained. To do. If it is determined in step 232 that the correlation coefficient is increasing and has not reached saturation, it is determined that a local solution has been obtained, and the initial value of the neural network mechanism 20 is reset (step 241). Return.

(4)本実施形態の効果
このように本実施形態に係るニューラルネットワーク装置によれば、ニューラルネットワークによって生成された出力データと教師データの出力データの誤差を求めて誤差逆伝播させて重み係数を更新させ、求めた誤差を蓄積して誤差の変動から誤差の収束を判断し、誤差が収束している場合に継続して求めてきた相関係数の変動が所定条件を満たすか否かを判断し、ここで所定条件とは相関係数が所定閾値より小さくない、及び、相関係数が増加傾向であって飽和に達していることであり、この条件を満たす場合には大域的最適解が求まったとして学習を終了し、一方、条件を満たさない場合には局所解が求まったとしてニューラルネットワークを初期化して再度学習するので、最急降下法を適用して迅速に学習をさせることができ、また、この最急降下法で学習終了とされたニューラルネットワークが実際に大域的最適解が求まっているか否かを判断しており、学習終了時に局所解ではなく大域的最適解が求まった状態にすることができる。
(4) Effects of the present embodiment As described above, according to the neural network device according to the present embodiment, the error between the output data generated by the neural network and the output data of the teacher data is obtained and the error coefficient is propagated back to determine the weight coefficient. Update, accumulate the obtained error, judge the convergence of the error from the fluctuation of the error, and determine whether the fluctuation of the correlation coefficient obtained continuously when the error is converged satisfies the predetermined condition In this case, the predetermined condition is that the correlation coefficient is not smaller than the predetermined threshold, and that the correlation coefficient is increasing and has reached saturation. If the condition is not met, the neural network is initialized and learned again if the condition is not met, so the steepest descent method is applied to learn quickly. In addition, the neural network that has been learned by the steepest descent method determines whether or not a global optimal solution has actually been obtained. It can be in the desired state.

(その他の実施形態)
[誤差による判断と相関係数による判断]
前記第1の実施形態に係るニューラルネットワーク装置においては、出力データと教師データの出力データとの誤差の変動をまず判断し、その後に、相関係数の判断を実行しているが、相関係数の判断をまず実行した後に誤差の変動を判断することもできる。ただし、出力データと教師データの出力データとの誤差は、誤差逆伝播学習においては学習のために必ず導出する必要がある値であるために誤差の変動をまずもって判断する方が望ましい。また、出力データと教師データの出力データとの誤差の変動から学習が収束したと判断した場合には少なくとも局所解は求まっており、一方、相関係数から学習が収束したと判断した場合には局所解すら求まっていない可能性もあり、まずもって出力データと教師データの出力データとの誤差の変動から学習の収束を判断する方が望ましい。
(Other embodiments)
[Judgment by error and judgment by correlation coefficient]
In the neural network device according to the first embodiment, the fluctuation of the error between the output data and the output data of the teacher data is first determined, and then the correlation coefficient is determined. It is also possible to determine the variation in error after first executing the above determination. However, since the error between the output data and the output data of the teacher data is a value that must be derived for learning in error back-propagation learning, it is preferable to determine the error variation first. In addition, when it is determined that learning has converged from fluctuations in the error between the output data and the output data of the teacher data, at least the local solution is obtained, whereas when it is determined that learning has converged from the correlation coefficient There is a possibility that even a local solution has not been obtained, and it is desirable to first determine the convergence of learning from the variation in error between the output data and the output data of the teacher data.

[重み係数の初期化]
前記第1の実施形態に係るニューラルネットワーク装置においては、例えば、初期化を乱数により実施するのであるが、この乱数による初期化が初期化前の重み係数と略同様となる可能性もあり、初期化後も略同じ重み係数となった場合には再度同じ局所解に陥る可能性が高く、無駄な学習を実施するのを未然に防止すべく、初期化した後の重み係数と初期化前の重み係数の相関係数が所定閾値以上であれば再度初期化する構成にすることもできる。
[Initialization of weighting factor]
In the neural network device according to the first embodiment, for example, initialization is performed using a random number. However, there is a possibility that the initialization using the random number may be substantially the same as the weighting factor before initialization. If the weighting coefficients are almost the same even after initialization, there is a high possibility that they will fall into the same local solution again, and in order to prevent unnecessary learning, the weighting coefficients after initialization and the If the correlation coefficient of the weighting coefficient is equal to or greater than a predetermined threshold, it can be re-initialized.

例えば、ステップ241に代えて図4に示すように、現在の重み係数を記録し(ステップ2411)、重み係数を初期化し(ステップ2412)、記録した初期化前の重み係数と初期化後の重み係数の相関係数を求め(ステップ2413)、この相関係数が所定閾値以上か否かを判断し(ステップ2414)、所定閾値以上であると判断した場合にはステップ2411に戻り、所定閾値より小さいと判断した場合にはステップ100に戻る。   For example, as shown in FIG. 4 instead of step 241, the current weighting factor is recorded (step 2411), the weighting factor is initialized (step 2412), and the recorded weighting factor before initialization and weight after initialization are recorded. A correlation coefficient of the coefficient is obtained (step 2413), and it is determined whether or not this correlation coefficient is equal to or greater than a predetermined threshold (step 2414). If it is determined that the correlation coefficient is equal to or greater than the predetermined threshold, the process returns to step 2411. If it is determined that the value is smaller, the process returns to step 100.

海洋・大気観測衛星NOAA/AVHRR(高空間分解能可視熱赤外放射計)データを用いた海面温度(SST)推定に階層型ニューラルネットワークを用いた。図5または図6は、NOAA/AVHRRバンド4,5の熱赤外画像とMCSST(複数チャンネル海面温度)と呼ばれる方法によって推定された海面温度である。図5(a)または図6(a)がバンド4の熱赤外画像であり、図5
(b)または図6(b)がバンド5の熱赤外画像であり、図5(c)または図6(c)がMCSSTによる推定実測値である。図5が2002年5月20日17時11分のものであり、図6が2004年11月30日16時45分のものである。
A hierarchical neural network was used to estimate the sea surface temperature (SST) using NOAA / AVHRR (High Spatial Resolution Visible Thermal Infrared Radiometer) data. FIG. 5 or FIG. 6 is a thermal infrared image of NOAA / AVHRR bands 4 and 5 and a sea surface temperature estimated by a method called MCSST (multi-channel sea surface temperature). FIG. 5A or 6A is a thermal infrared image of the band 4, and FIG.
(B) or FIG. 6 (b) is a thermal infrared image of band 5, and FIG. 5 (c) or FIG. 6 (c) is an estimated actual measurement value by MCSST. FIG. 5 is that at 17:11 on May 20, 2002, and FIG. 6 is that at 16:45 on November 30, 2004.

図5(a)(b)または図6(a)(b)を入力データとして、また、図5(c)または図6(c)を望ましい出力と見立てて階層型ニューラルネットワークの誤差逆伝播学習を行った。このとき、望ましい出力と階層型ニューラルネットワークの実際の出力との差の平均を平均誤差として評価した。また、重み係数の初期値は一様乱数によって与えることにした。   Error back-propagation learning of a hierarchical neural network with FIG. 5 (a) (b) or 6 (a) (b) as input data and FIG. 5 (c) or 6 (c) as a desired output. Went. At this time, the average of the difference between the desired output and the actual output of the hierarchical neural network was evaluated as an average error. The initial value of the weighting factor is given by a uniform random number.

学習の経過の一例を図7ないし図9にそれぞれ示す。図7は図6の入力及び望ましい出力に対する解の推移であり、図8または図9は図5に対する場合である。図7及び図8は宮崎県沖の画像領域に関するものであり、図9は小倉沖の画像領域に関するものである。   An example of the course of learning is shown in FIGS. FIG. 7 shows the transition of the solution for the input and the desired output of FIG. 6, and FIG. 8 or FIG. 9 is the case for FIG. 7 and 8 relate to the image area off Miyazaki Prefecture, and FIG. 9 relates to the image area off Kokura.

図7(a)は相関係数が増加傾向に転じることなく低い部分で収束していることを示し、図7(b)は誤差が学習回数を経るごとに小さくなっておりその減少傾向も収束の方向に向かっていることを示す。したがって、図7から局所解に陥っていることが分かる。   FIG. 7 (a) shows that the correlation coefficient converges at a low part without turning to an increasing trend, and FIG. 7 (b) shows that the error decreases as the number of learning passes and the decreasing tendency also converges. Indicates that you are heading toward Therefore, it can be seen from FIG.

図8(a)は相関係数が増加傾向を経て収束しようとしていることを示し、図8(b)は誤差が学習回数を経るごとに小さくなっておりその減少傾向も収束の方向に向かっていることを示す。したがって、図8から大域的最適解が求まっていることが分かる。   FIG. 8A shows that the correlation coefficient tends to converge through an increasing tendency, and FIG. 8B shows that the error decreases as the number of learning passes, and the decreasing tendency tends to converge. Indicates that Therefore, it can be seen from FIG. 8 that a global optimum solution has been obtained.

図9(a)は相関係数が増加傾向を維持していることを示し、図9(b)は誤差が学習回数を経るごとに小さくなっておりその減少傾向も収束の方向に向かっていることを示す。したがって、図9から大域的最適解が求まっていることが分かる。   FIG. 9 (a) shows that the correlation coefficient maintains an increasing trend, and FIG. 9 (b) shows that the error decreases as the number of learning passes, and the decreasing trend is also in the direction of convergence. It shows that. Therefore, it can be seen from FIG. 9 that a global optimum solution has been obtained.

これらを見ると、いずれも入力と入力層と隠れ層の間の重み係数との相関係数が高くなり、平均誤差が少なくなる傾向が見られる。すなわち、相関係数が学習収束の指標として用いることができることを表している。   When these are seen, the correlation coefficient of the weight coefficient between an input, an input layer, and a hidden layer becomes high, and the tendency for an average error to decrease is seen. That is, the correlation coefficient can be used as an index for learning convergence.

以上の前記各実施形態により本発明を説明したが、本発明の技術的範囲は実施形態に記載の範囲には限定されず、これら各実施形態に多様な変更又は改良を加えることが可能である。そして、かような変更又は改良を加えた実施の形態も本発明の技術的範囲に含まれる。このことは、特許請求の範囲及び課題を解決する手段からも明らかなことである。   Although the present invention has been described with the above embodiments, the technical scope of the present invention is not limited to the scope described in the embodiments, and various modifications or improvements can be added to these embodiments. . And embodiment which added such a change or improvement is also contained in the technical scope of the present invention. This is apparent from the claims and the means for solving the problems.

Claims (12)

ノードを有する入力層、隠れ層及び出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置であって、
入力データと入力層及び隠れ層のノード間の重み係数との相関係数が所定閾値以上であるという学習収束条件に該当する場合に学習が収束したと判断する第2の学習収束判断部を備える誤差逆伝播学習に基づく階層的ニューラルネットワーク装置。
It consists of an input layer with nodes, a hidden layer, and an output layer. Input data is input to the input layer, the output data output from the output layer is compared with teacher data prepared in advance corresponding to the input data, and the comparison result A hierarchical neural network device based on error back-propagation learning that learns by updating the weighting coefficient between nodes in the output layer and hidden layer and the weighting coefficient between nodes in the hidden layer and input layer using the error ,
A second learning convergence determination unit configured to determine that learning has converged when a learning convergence condition that a correlation coefficient between input data and a weighting coefficient between nodes of the input layer and the hidden layer is equal to or greater than a predetermined threshold is satisfied; A hierarchical neural network device based on error back-propagation learning.
ノードを有する入力層、隠れ層及び出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置であって、
前記学習の比較結果の誤差に基づいて学習の収束を判断する第1の学習収束判断部と、
入力データと入力層及び隠れ層のノード間の重み係数との相関係数が所定閾値以上であるという学習収束条件に該当する場合に学習が収束したと判断する第2の学習収束判断部とを備え、
第1の学習収束判断部と第2の学習収束判断部が共に学習が収束していると判断している場合に学習を終了する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置。
It consists of an input layer with nodes, a hidden layer, and an output layer. Input data is input to the input layer, the output data output from the output layer is compared with teacher data prepared in advance corresponding to the input data, and the comparison result A hierarchical neural network device based on error back-propagation learning that learns by updating the weighting coefficient between nodes in the output layer and hidden layer and the weighting coefficient between nodes in the hidden layer and input layer using the error ,
A first learning convergence determination unit that determines learning convergence based on an error of the learning comparison result;
A second learning convergence determination unit that determines that learning has converged when a learning convergence condition that a correlation coefficient between input data and a weighting coefficient between nodes of the input layer and the hidden layer is equal to or greater than a predetermined threshold is satisfied; Prepared,
A hierarchical neural network device based on error back propagation learning that terminates learning when both the first learning convergence determination unit and the second learning convergence determination unit determine that learning has converged.
ノードを有する入力層、隠れ層及び出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置であって、
前記学習の比較結果の誤差に基づいて学習の収束を判断する第1の学習収束判断部と、
入力データと入力層及び隠れ層のノード間の重み係数との相関係数が所定閾値以上であるという学習収束条件に該当する場合に学習が収束したと判断する第2の学習収束判断部とを備え、
第1の学習収束判断部が学習が収束したと判断した後に、第2の学習収束判断部が学習の収束を判断し、
第2の学習収束判断部が学習が収束したと判断した場合に、学習を終了する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置。
It consists of an input layer with nodes, a hidden layer, and an output layer. Input data is input to the input layer, the output data output from the output layer is compared with teacher data prepared in advance corresponding to the input data, and the comparison result A hierarchical neural network device based on error back-propagation learning that learns by updating the weighting coefficient between nodes in the output layer and hidden layer and the weighting coefficient between nodes in the hidden layer and input layer using the error ,
A first learning convergence determination unit that determines learning convergence based on an error of the learning comparison result;
A second learning convergence determination unit that determines that learning has converged when a learning convergence condition that a correlation coefficient between input data and a weighting coefficient between nodes of the input layer and the hidden layer is equal to or greater than a predetermined threshold is satisfied; Prepared,
After the first learning convergence determination unit determines that the learning has converged, the second learning convergence determination unit determines the learning convergence,
A hierarchical neural network device based on error back propagation learning that terminates learning when the second learning convergence determination unit determines that learning has converged.
ノードを有する入力層、隠れ層及び出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置であって、
入力データと入力層及び隠れ層のノード間の重み係数との相関係数が増大傾向が飽和に達する学習収束条件に該当する場合に学習が収束したと判断する第2の学習収束判断部を備える誤差逆伝播学習に基づく階層的ニューラルネットワーク装置。
It consists of an input layer with nodes, a hidden layer, and an output layer. Input data is input to the input layer, the output data output from the output layer is compared with teacher data prepared in advance corresponding to the input data, and the comparison result A hierarchical neural network device based on error back-propagation learning that learns by updating the weighting coefficient between nodes in the output layer and hidden layer and the weighting coefficient between nodes in the hidden layer and input layer using the error ,
A second learning convergence determination unit configured to determine that learning has converged when the correlation coefficient between the input data and the weighting coefficient between nodes in the input layer and the hidden layer corresponds to a learning convergence condition in which the increasing tendency reaches saturation; A hierarchical neural network device based on error back-propagation learning.
ノードを有する入力層、隠れ層及び出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置であって、
前記学習の比較結果の誤差に基づいて学習の収束を判断する第1の学習収束判断部と、
入力データと入力層及び隠れ層のノード間の重み係数との相関係数が増大傾向が飽和に達する学習収束条件に該当する場合に学習が収束したと判断する第2の学習収束判断部とを備え、
第1の学習収束判断部と第2の学習収束判断部が共に学習が収束していると判断している場合に学習を終了する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置。
It consists of an input layer with nodes, a hidden layer, and an output layer. Input data is input to the input layer, the output data output from the output layer is compared with teacher data prepared in advance corresponding to the input data, and the comparison result A hierarchical neural network device based on error back-propagation learning that learns by updating the weighting coefficient between nodes in the output layer and hidden layer and the weighting coefficient between nodes in the hidden layer and input layer using the error ,
A first learning convergence determination unit that determines learning convergence based on an error of the learning comparison result;
A second learning convergence determination unit that determines that learning has converged when the correlation coefficient between the input data and the weighting coefficient between nodes of the input layer and the hidden layer corresponds to a learning convergence condition in which the increasing tendency reaches saturation; Prepared,
A hierarchical neural network device based on error back propagation learning that terminates learning when both the first learning convergence determination unit and the second learning convergence determination unit determine that learning has converged .
ノードを有する入力層、隠れ層及び出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置であって、
前記学習の比較結果の誤差に基づいて学習の収束を判断する第1の学習収束判断部と、
入力データと入力層及び隠れ層のノード間の重み係数との相関係数が増大傾向が飽和に達する学習収束条件に該当する場合に学習が収束したと判断する第2の学習収束判断部とを備え、
第1の学習収束判断部が学習が収束したと判断した後に、第2の学習収束判断部が学習の収束を判断し、
第2の学習収束判断部が学習が収束したと判断した場合に、学習を終了する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置。
It consists of an input layer with nodes, a hidden layer, and an output layer. Input data is input to the input layer, the output data output from the output layer is compared with teacher data prepared in advance corresponding to the input data, and the comparison result A hierarchical neural network device based on error back-propagation learning that learns by updating the weighting coefficient between nodes in the output layer and hidden layer and the weighting coefficient between nodes in the hidden layer and input layer using the error ,
A first learning convergence determination unit that determines learning convergence based on an error of the learning comparison result;
A second learning convergence determination unit that determines that learning has converged when the correlation coefficient between the input data and the weighting coefficient between nodes of the input layer and the hidden layer corresponds to a learning convergence condition in which the increasing tendency reaches saturation; Prepared,
After the first learning convergence determination unit determines that the learning has converged, the second learning convergence determination unit determines the learning convergence,
A hierarchical neural network device based on error back propagation learning that terminates learning when the second learning convergence determination unit determines that learning has converged .
第2の学習収束判断部は、前記学習収束条件に該当しない場合、重み係数を初期化して改めて学習し直す
前記請求項1ないし6のいずれかに記載の誤差逆伝播学習に基づく階層的ニューラルネットワーク装置
7. The hierarchical neural network based on error back propagation learning according to claim 1, wherein, when the learning convergence condition is not satisfied, the second learning convergence determination unit initializes a weighting coefficient and performs learning again. Equipment .
前記重み係数を初期化する場合には、初期化した重み係数と初期化する前の重み係数の相関係数を求め、この相関係数が所定閾値以上である場合には再度重み係数を初期化するWhen initializing the weighting coefficient, a correlation coefficient between the initialized weighting coefficient and the weighting coefficient before initialization is obtained, and when the correlation coefficient is equal to or greater than a predetermined threshold, the weighting coefficient is initialized again. Do
前記請求項7に記載の誤差逆伝播学習に基づく階層的ニューラルネットワーク装置。A hierarchical neural network device based on error back propagation learning according to claim 7.
入力データを入力層に入力して出力層から出力された出力データと入力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する階層的ニューラルネットワーク装置の誤差逆伝播学習方法であって、Input data is input to the input layer and the output data output from the output layer is compared with the teacher data prepared in advance corresponding to the input data. An error back-propagation learning method of a hierarchical neural network device that learns by updating a weighting factor of a node and a weighting factor between nodes of a hidden layer and an input layer,
入力データと入力層及び隠れ層のノード間の重み係数との相関係数が所定閾値以上である場合に学習が収束したと判断する階層的ニューラルネットワーク装置の誤差逆伝播学習方法。An error back-propagation learning method for a hierarchical neural network device that determines that learning has converged when a correlation coefficient between input data and a weight coefficient between nodes of an input layer and a hidden layer is equal to or greater than a predetermined threshold.
入力データを入力層に入力して出力層から出力された出力データと入力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する階層的ニューラルネットワーク装置の誤差逆伝播学習方法であって、Input data is input to the input layer and the output data output from the output layer is compared with the teacher data prepared in advance corresponding to the input data. An error back-propagation learning method of a hierarchical neural network device that learns by updating a weighting factor of a node and a weighting factor between nodes of a hidden layer and an input layer,
入力データと入力層及び隠れ層のノード間の重み係数との相関係数が増大傾向が飽和に達する学習収束条件に該当する場合に学習が収束したと判断する階層的ニューラルネットワーク装置の誤差逆伝播学習方法。Error back-propagation in a hierarchical neural network device that judges that learning has converged when the correlation coefficient between the input data and the weighting factor between nodes in the input layer and hidden layer satisfies the learning convergence condition where the increasing tendency reaches saturation Learning method.
ノードを有する入力層、隠れ層及び出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する階層的ニューラルネットワーク装置としてコンピュータを機能させる誤差逆伝播学習プログラムであって、It consists of an input layer with nodes, a hidden layer, and an output layer. Input data is input to the input layer, the output data output from the output layer is compared with teacher data prepared in advance corresponding to the input data, and the comparison result Error propagation propagation learning that makes the computer function as a hierarchical neural network device that learns by updating the weighting coefficient between the nodes in the output layer and the hidden layer and the weighting coefficient between the nodes in the hidden layer and the input layer using the error A program,
入力データと入力層及び隠れ層のノード間の重み係数との相関係数が所定閾値以上である場合に学習が収束したと判断する第2の学習収束判断部としてコンピュータを機能させる誤差逆伝播学習プログラム。Error back propagation learning that causes the computer to function as a second learning convergence determination unit that determines that learning has converged when the correlation coefficient between the input data and the weighting coefficient between nodes in the input layer and the hidden layer is equal to or greater than a predetermined threshold. program.
ノードを有する入力層、隠れ層及び出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する階層的ニューラルネットワーク装置としてコンピュータを機能させる誤差逆伝播学習プログラムであって、It consists of an input layer with nodes, a hidden layer, and an output layer. Input data is input to the input layer, the output data output from the output layer is compared with teacher data prepared in advance corresponding to the input data, and the comparison result Error propagation propagation learning that makes the computer function as a hierarchical neural network device that learns by updating the weighting coefficient between the nodes in the output layer and the hidden layer and the weighting coefficient between the nodes in the hidden layer and the input layer using the error A program,
入力データと入力層及び隠れ層のノード間の重み係数との相関係数が増大傾向が飽和に達する学習収束条件に該当する場合に学習が収束したと判断する第2の学習収束判断部としてコンピュータを機能させる誤差逆伝播学習プログラム。A computer serving as a second learning convergence determination unit that determines that learning has converged when the correlation coefficient between the input data and the weighting coefficient between nodes in the input layer and the hidden layer corresponds to a learning convergence condition in which the increasing tendency reaches saturation An error back propagation learning program that works.
JP2008501514A 2006-02-22 2006-02-22 Neural network device and method thereof Active JP5002821B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2006/303147 WO2007096954A1 (en) 2006-02-22 2006-02-22 Neural network device and its method

Publications (2)

Publication Number Publication Date
JPWO2007096954A1 JPWO2007096954A1 (en) 2009-07-09
JP5002821B2 true JP5002821B2 (en) 2012-08-15

Family

ID=38437016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008501514A Active JP5002821B2 (en) 2006-02-22 2006-02-22 Neural network device and method thereof

Country Status (2)

Country Link
JP (1) JP5002821B2 (en)
WO (1) WO2007096954A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014130120A2 (en) * 2012-12-03 2014-08-28 Hrl Laboratories, Llc Generating messages from the firing of pre-synaptic neurons
CN111782359B (en) * 2020-06-23 2022-03-11 平安科技(深圳)有限公司 Distributed computing system task allocation method and related equipment

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04319760A (en) * 1991-04-19 1992-11-10 Meidensha Corp Hierarchical connection type neuro-computer
JPH05197821A (en) * 1991-11-11 1993-08-06 Omron Corp Method for optimizing hierarchical neural network and device therefor
JPH10283334A (en) * 1997-04-10 1998-10-23 Fuji Electric Co Ltd Input layer optimizing method for neural network

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04319760A (en) * 1991-04-19 1992-11-10 Meidensha Corp Hierarchical connection type neuro-computer
JPH05197821A (en) * 1991-11-11 1993-08-06 Omron Corp Method for optimizing hierarchical neural network and device therefor
JPH10283334A (en) * 1997-04-10 1998-10-23 Fuji Electric Co Ltd Input layer optimizing method for neural network

Also Published As

Publication number Publication date
JPWO2007096954A1 (en) 2009-07-09
WO2007096954A1 (en) 2007-08-30

Similar Documents

Publication Publication Date Title
CN110799994B (en) Adaptive bit width reduction for neural networks
CN110168578B (en) Multi-tasking neural network with task-specific paths
US20210365782A1 (en) Method and apparatus for generating neural network model, and computer-readable storage medium
Chan et al. Short-term ANN load forecasting from limited data using generalization learning strategies
CN114896899B (en) Multi-agent distributed decision method and system based on information interaction
JP7196803B2 (en) Artificial Neural Network Circuit and Learning Value Switching Method in Artificial Neural Network Circuit
CN113128678A (en) Self-adaptive searching method and device for neural network
JP2021526678A (en) Image processing methods, devices, electronic devices and storage media
US11068787B2 (en) Training neural networks using evolution based strategies and novelty search
CN110751032A (en) Training method of brain-computer interface model without calibration
CN113722980A (en) Ocean wave height prediction method, system, computer equipment, storage medium and terminal
CN112766496A (en) Deep learning model security guarantee compression method and device based on reinforcement learning
JP5002821B2 (en) Neural network device and method thereof
CN115168720A (en) Content interaction prediction method and related equipment
CN108810551B (en) Video frame prediction method, terminal and computer storage medium
CN113792753A (en) Dynamic hypergraph neural network classification method and system
CN112214791B (en) Privacy policy optimization method and system based on reinforcement learning and readable storage medium
CN116796821A (en) Efficient neural network architecture searching method and device for 3D target detection algorithm
JP6986160B2 (en) Image processing method and image processing equipment
JP7073171B2 (en) Learning equipment, learning methods and programs
KR102624710B1 (en) Structural response estimation method using gated recurrent unit
CN115168722A (en) Content interaction prediction method and related equipment
CN115438842A (en) Load prediction method based on adaptive improved dayflies and BP neural network
WO2021140698A1 (en) Information processing device, method, and program
JP2023531538A (en) Neural network generation method, device and computer readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111220

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120424

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150