JPH05216857A - Neural network learning state display method - Google Patents
Neural network learning state display methodInfo
- Publication number
- JPH05216857A JPH05216857A JP4022337A JP2233792A JPH05216857A JP H05216857 A JPH05216857 A JP H05216857A JP 4022337 A JP4022337 A JP 4022337A JP 2233792 A JP2233792 A JP 2233792A JP H05216857 A JPH05216857 A JP H05216857A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- learning state
- neural network
- bar
- weight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Digital Computer Display Output (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は層状ニューラルネットワ
ークの学習における学習状態の表示に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to displaying a learning state in learning of a layered neural network.
【0002】[0002]
【従来の技術】層状のニューラルネットワークとは、人
間の脳における神経回路網を簡略化したモデルであり、
それは図8に示すように層状に並んだ神経細胞ニューロ
ンが重みを持つシナプスを介して、他の層のニューロン
と結合されているネットワークである。ニューロン間の
信号の伝達はこのシナプスを通して行なわれ、シナプス
の重みを適当に調整することにより様々な情報処理が可
能となる。ニューラルネットワークの学習とは期待され
る出力がでるようにシナプスの重みを調整することをい
う。2. Description of the Related Art A layered neural network is a simplified model of a neural network in the human brain.
It is a network in which neuron neurons arranged in layers as shown in FIG. 8 are connected to neurons in other layers via synapses having a weight. Signal transmission between neurons is performed through this synapse, and various information processing can be performed by appropriately adjusting the weight of the synapse. Learning a neural network means adjusting the weights of synapses so that an expected output can be obtained.
【0003】以下ではニューラルネットワークの学習に
ついて説明する。これは通常バックプロパゲーションと
呼ばれる最適化手法を用いて行なわれる。この手法に関
しては、例えば、PDPモデル、産業図書(1989
年)第325頁から第331頁において論じられてい
る。The learning of the neural network will be described below. This is usually done using an optimization technique called backpropagation. Regarding this method, for example, PDP model, industry book (1989)
(Year) pp. 325-331.
【0004】バックプロパゲーションについて図1と図
9を用いて説明する。Back propagation will be described with reference to FIGS. 1 and 9.
【0005】ステップ30では、学習を始めるためにニ
ューラルネットワーク1の重みを初期化する。In step 30, the weights of the neural network 1 are initialized to start learning.
【0006】ステップ34では、ニューラルネットワー
ク1が入力データ記憶部7から入力データを入力し次の
式に従ってニューラルネットワークの出力を計算する。In step 34, the neural network 1 inputs the input data from the input data storage unit 7 and calculates the output of the neural network according to the following equation.
【0007】[0007]
【数5】 [Equation 5]
【0008】そこでfはシグモイド関数と呼ばれる非線
形関数であり、図6の特性を持つ。Therefore, f is a non-linear function called a sigmoid function and has the characteristics shown in FIG.
【0009】ステップ35では、学習処理部2が教師デ
ータ記憶部8から教師データを読みだし、数6の出力誤
差を計算する。In step 35, the learning processing unit 2 reads the teacher data from the teacher data storage unit 8 and calculates the output error of the equation 6.
【0010】[0010]
【数6】 [Equation 6]
【0011】ステップ36では、学習処理部2が数7で
示す誤差に対する最急降下勾配を計算する。In step 36, the learning processing section 2 calculates the steepest descent gradient with respect to the error expressed by the equation (7).
【0012】[0012]
【数7】 [Equation 7]
【0013】ステップ32では、全ての学習パターンに
ついてステップ33からステップ35の処理を繰り返
す。In step 32, the processes of steps 33 to 35 are repeated for all learning patterns.
【0014】ステップ33では、下の式を用いて誤差に
対する最急降下勾配と前回の重みの修正量より今回の修
正量を求め、対応する各重みを修正する。In step 33, the current correction amount is obtained from the steepest descent gradient with respect to the error and the correction amount of the previous weight by using the following equation, and the corresponding weights are corrected.
【0015】[0015]
【数8】 [Equation 8]
【0016】但し、ηは学習係数であり、αはモーメン
ト係数である。また、右辺第二項はモーメント項と呼ば
れ、学習を加速するために経験的に加える項である。However, η is a learning coefficient, and α is a moment coefficient. The second term on the right side is called a moment term, and is an term added empirically to accelerate learning.
【0017】ステップ31では、ステップ31からステ
ップ32を学習の終了条件が満たされるまで繰り返す。In step 31, steps 31 to 32 are repeated until the learning end condition is satisfied.
【0018】この学習法の問題点として、 (イ)ローカルミニマム (ロ)学習時間が長い (ハ)学習時間のパラメータ依存性が大きい が挙げられる。Problems of this learning method include (a) local minimum (b) long learning time (c) large parameter dependence of learning time.
【0019】まず、(イ)について説明する。バックプ
ロパゲーションは山登り法である。それゆえ、ローカル
ミニマムに捕らわれることは避けることができない問題
である。これは重みの初期化が適切であるかどうかや数
4のηやαの設定の善し悪しにも依存する問題である。First, (a) will be described. Backpropagation is a hill climbing method. Therefore, being caught by a local minimum is an unavoidable problem. This is a problem that depends on whether the initialization of weights is appropriate and whether η and α in Equation 4 are set properly.
【0020】つぎに、(ロ)について説明する。ηやα
の値の設定が適切でないと学習に非常に時間が掛かる。
一般にこの最適値を決めることは非常に困難である。Next, (b) will be described. η and α
If the value of is not set properly, learning will take a very long time.
Generally, it is very difficult to determine this optimum value.
【0021】最後に、(ハ)について説明する。バック
プロパゲーションによる学習時間はηやαの値、重みの
初期化の仕方によって大きくかわる。ηやαが小さすぎ
る場合には誤差の最小点に到達するのに多くの学習回数
が必要となり、逆に大きすぎると最小点の近辺を振動し
てなかなか収束しない。ηやαの値を変えると最適な場
合に較べて学習時間は10の4乗程度は簡単に長くな
る。Finally, (c) will be described. The learning time by backpropagation varies greatly depending on the values of η and α and the initialization of weights. If η and α are too small, a large number of learnings are required to reach the minimum point of the error. On the other hand, if they are too large, the vicinity of the minimum point oscillates and it does not converge easily. When the values of η and α are changed, the learning time is easily lengthened by about 10 4 as compared with the optimum case.
【0022】以上のような問題点を内在している従来の
パックプロパゲーションを用いた学習では、学習の経緯
を表す状態量を視覚的に表示し、学習が適切に進行して
いるかオペレータが監視する必要がある。In the conventional learning using the pack propagation which has the above-mentioned problems, the state quantity indicating the learning process is visually displayed, and the operator monitors whether the learning is progressing properly. There is a need to.
【0023】[0023]
【発明が解決しようとする課題】ニューラルネットワー
クの学習状態を示す従来の表示方法では、図10に示す
ように各シナプスの重みの値を色の階調で示していた。
しかしニューロンの数が多い場合、この方法では重みを
表す線同士が入り組んで非常に見にくくなる。図10の
ように、高々この程度のニューロン数でも線が込み入
り、状態を把握しにくい。In the conventional display method for indicating the learning state of the neural network, the value of the weight of each synapse is shown by the gradation of color as shown in FIG.
However, when the number of neurons is large, this method makes lines that represent weights intricate and is very difficult to see. As shown in FIG. 10, even with the number of neurons at this level at most, the lines are complicated and it is difficult to grasp the state.
【0024】別の学習状態表示方法として、図11に示
すように学習状態を示す各状態量を学習回数の関数とし
て経時的に示す方法がある。この場合、表示が容易に理
解できるためには、一つのグラフに数個のデータしか表
示できない。そのため、各層ごとに平均を取る、または
全体の平均を取るなどして全体的な量を見ることにな
り、個々のニューロンについての学習状態を把握するこ
とができない。As another learning state display method, there is a method of sequentially showing each state quantity indicating the learning state as a function of the number of times of learning as shown in FIG. In this case, only a few data can be displayed in one graph so that the display can be easily understood. Therefore, an average is taken for each layer, or an overall average is taken to see the overall amount, and the learning state of each neuron cannot be grasped.
【0025】一方、学習の問題によっては一個のニュー
ロンの学習状態が悪いために全体の学習が収束しないこ
とがある。上記表示方法では個々のニューロンの学習状
態が分からないため、このような状態をオペレータが把
握し難いという問題点があった。On the other hand, depending on the learning problem, the learning state of one neuron is poor, and the entire learning may not converge. The above display method has a problem that it is difficult for the operator to grasp such a state because the learning state of each neuron is not known.
【0026】本発明の目的は、この様な個々のニューロ
ンの学習状態が把握し難い、という問題点を解消するた
めのニューラルネットワーク学習状態表示方法を提供す
ることにある。An object of the present invention is to provide a neural network learning state display method for solving such a problem that it is difficult to grasp the learning state of each individual neuron.
【0027】[0027]
【課題を解決するための手段】本発明は、個々のニュー
ロンの現在の学習状態を示す一つの量を棒の長さで示す
ステップと、現在の学習状態を示す別の量を棒の色また
は階調で示すステップをもつことを特徴とする学習状態
表示方法である。SUMMARY OF THE INVENTION The present invention provides a step of indicating, by the length of a bar, one quantity indicating the current learning state of each neuron, and another quantity indicating the current learning state of the individual neurons The learning state display method is characterized by having steps indicated by gradation.
【0028】また、本発明は個々のニューロンの現在の
学習状態を示す一つの量を棒の長さで示すステップと、
学習状態を示す別の量の過去の履歴を、棒を履歴に対応
するよう領域分けして、それぞれの領域を別の色または
階調によって示すステップを有することを特徴とする学
習状態表示方法である。The present invention also includes the step of indicating, by the length of a bar, one quantity indicating the current learning state of each neuron,
A learning state display method characterized by including a step of indicating a different amount of past history indicating a learning state into areas corresponding to the history and indicating each area by a different color or gradation. is there.
【0029】[0029]
【作用】本発明の学習状態表示方法では、個々のニュー
ロンの現在の学習状態、及び学習状態量の過去の履歴を
視覚的に表示するので、個々のニューロンの学習状態を
簡単に把握することができる。また個々のニューロンの
学習状態を表示するので、一個のニューロンが原因で学
習が収束しない場合でも、それがどのニューロンである
かを迅速に把握することができる。In the learning state display method of the present invention, the current learning state of each neuron and the past history of the learning state quantity are visually displayed, so that the learning state of each neuron can be easily grasped. it can. Further, since the learning state of each neuron is displayed, even if the learning does not converge due to one neuron, it is possible to quickly grasp which neuron it is.
【0030】[0030]
【実施例】以下、本発明の実施例を図1〜図7を用いて
説明する。Embodiments of the present invention will be described below with reference to FIGS.
【0031】図1は実施例を示す装置全体のブロック
図、図2は図1の実施例の装置の処理全体の流れのフロ
ーチャート、図3は重みの学習と学習状態量の計算処理
手順の詳細を示したブロック図、図4は学習状態の表示
例を示す説明図、図5は学習状態の履歴の表示例を示す
説明図である。FIG. 1 is a block diagram of the entire apparatus showing the embodiment, FIG. 2 is a flow chart of the overall processing flow of the apparatus of the embodiment of FIG. 1, and FIG. 3 is the details of the weight learning and learning state quantity calculation processing procedure. FIG. 4 is an explanatory diagram showing a display example of a learning state, and FIG. 5 is an explanatory diagram showing a display example of a history of the learning state.
【0032】次に本発明の実施例動作の詳細を図2を用
いて説明する。Next, details of the operation of the embodiment of the present invention will be described with reference to FIG.
【0033】ステップ11では、学習を始めるためにニ
ューラルネットワーク1の重みを初期化する。In step 11, the weights of the neural network 1 are initialized to start learning.
【0034】ステップ13では、重みの学習と学習状態
量を計算する。図3にステップ13の詳細を示す。In step 13, weight learning and a learning state quantity are calculated. FIG. 3 shows details of step 13.
【0035】ステップ20では、ニューラルネットワー
ク1が入力データ記憶部7から入力データを入力し数5
に従いニューラルネットワークの出力を計算する。In step 20, the neural network 1 inputs the input data from the input data storage unit 7
Calculate the output of the neural network according to.
【0036】ステップ21では、学習処理部2が教師デ
ータ記憶部8から教師データを読みだし、数6の出力誤
差を計算する。In step 21, the learning processing unit 2 reads the teacher data from the teacher data storage unit 8 and calculates the output error of the equation (6).
【0037】ステップ22では、学習処理部2が数7で
示す誤差に対する最急降下勾配を計算する。In step 22, the learning processing unit 2 calculates the steepest descent slope with respect to the error shown in the equation (7).
【0038】ステップ23では、学習状態量計算部3が
各学習パターンに対する個々のニューロンのネット(n
et)を学習状態量記憶部9に記憶する。In step 23, the learning state quantity calculator 3 determines the net (n) of each neuron for each learning pattern.
et) is stored in the learning state quantity storage unit 9.
【0039】ステップ17では、全ての学習パターンに
ついてステップ20からステップ23の処理を繰り返
す。In step 17, the processing from step 20 to step 23 is repeated for all learning patterns.
【0040】ステップ18では、数8を用いて誤差に対
する最急降下勾配と前回の重みの修正量より今回の修正
量を求め、各重みを修正する。In step 18, the present correction amount is obtained from the steepest descent gradient with respect to the error and the correction amount of the previous weight using equation 8, and each weight is corrected.
【0041】ステップ19では、学習状態計算部3が学
習状態量記憶部9からステップ23で記憶したnetを
読みだし、またニューラルネットワーク1から重みのデ
ータを読みだす。その後、学習状態量を計算する。学習
状態量として、個々のニューロンに対し、総入力絶対値
の学習パターン平均,ニューロン出力の学習パターン平
均,シグモイド関数微分の学習パターン平均,重みの大
きさ,誤差勾配の大きさ,重み修正量の大きさ,重みベ
クトルの回転角度を計算する。そこで、重みの大きさ,
誤差勾配の大きさ,重み修正量の大きさ,重みベクトル
の回転角度はそれぞれ数1,数2,数3,数4で定義す
る。さらに、これらの学習状態量を学習状態量記憶部
9,学習状態量履歴記憶部10に記憶する。In step 19, the learning state calculation section 3 reads out the net stored in step 23 from the learning state quantity storage section 9 and also reads out the weight data from the neural network 1. Then, the learning state quantity is calculated. As the learning state quantity, for each neuron, the learning pattern average of the total input absolute value, the learning pattern average of the neuron output, the learning pattern average of the sigmoid function derivative, the weight magnitude, the error gradient magnitude, and the weight correction quantity Calculate the rotation angle of the size and weight vector. Therefore, the size of the weight,
The magnitude of the error gradient, the magnitude of the weight correction amount, and the rotation angle of the weight vector are defined by Equation 1, Equation 2, Equation 3, and Equation 4, respectively. Further, these learning state quantities are stored in the learning state quantity storage unit 9 and the learning state quantity history storage unit 10.
【0042】以上のステップ13の結果、重みの学習と
学習状態量が計算される。As a result of the above step 13, the weight learning and the learning state quantity are calculated.
【0043】ステップ14では、表示合成部4が学習状
態量記憶部9から学習状態量を読みだし、オペレータが
指定する複数の学習状態量を合成しそれらを表示部6に
表示する。表示の例を図4に示す。〇はニューロンを表
す。個々のニューロンに対する重みの大きさは〇上の棒
グラフの長さで示し、netの絶対値を棒グラフの色の
階調で示し、学習による重みベクトルの回転の角度を〇
の下の数値で示す。In step 14, the display synthesizing unit 4 reads the learning state amount from the learning state amount storage unit 9, synthesizes a plurality of learning state amounts designated by the operator, and displays them on the display unit 6. An example of the display is shown in FIG. ◯ represents a neuron. The magnitude of the weight for each neuron is shown by the length of the bar graph above ◯, the absolute value of net is shown by the color gradation of the bar graph, and the angle of rotation of the weight vector by learning is shown by the number below ◯.
【0044】この表示例を作成するための処理を次に示
す。まず、表示合成部4が学習状態量記憶部9から重み
の大きさを読みだし、棒の長さへの変換部4aがそれを
棒の長さへ変換する。同様に、表示合成部4が学習状態
量記憶部9からnetの絶対値の学習パターン平均を読
みだし、棒の色の階調への変換部4bがそれを棒の色の
階調へ変換する。さらに、表示合成部4が学習状態量記
憶部9から重みベクトルの回転角度を読みだす。その
後、これらの結果を全てのニューロンについて合成し、
図4の表示例を作成する。The processing for creating this display example will be described below. First, the display synthesizing unit 4 reads out the magnitude of the weight from the learning state amount storage unit 9, and the rod length conversion unit 4a converts it into the rod length. Similarly, the display synthesizing unit 4 reads the learning pattern average of the absolute value of net from the learning state amount storage unit 9, and the conversion unit 4b to the gradation of the color of the stick converts it to the gradation of the color of the stick. .. Further, the display synthesis unit 4 reads the rotation angle of the weight vector from the learning state amount storage unit 9. Then we synthesize these results for all neurons,
The display example of FIG. 4 is created.
【0045】ステップ15では入力部5より学習状態の
履歴を表示するかどうかの信号を、表示合成部4が受け
取る。表示するという意味の信号が入った場合はステッ
プ16へ行く。In step 15, the display synthesizing unit 4 receives a signal from the input unit 5 as to whether or not to display the history of learning states. If a signal indicating display is received, go to step 16.
【0046】ステップ16では、表示合成部4が学習状
態量履歴記憶部9から学習状態量の履歴を読みだし、現
在の学習状態量と別の学習状態量の履歴を合成しそれら
を表示部6に表示する。表示の例を図5に示す。〇はニ
ューロンを表す。個々のニューロンに対するその時点の
重みの大きさは〇上の棒グラフの長さで示し、それまで
のnet絶対値の過去の履歴を、棒グラフの領域を分割
して履歴に対応するようその領域を色の階調で示す。図
では例えば、1.0≦|net|≦2.0を示す領域は、そ
の領域に入る重みの大きさの時はnetが1.0≦|ne
t|≦2.0であったことを示す。In step 16, the display synthesizing unit 4 reads the history of the learning state amount from the learning state amount history storage unit 9, synthesizes the history of the current learning state amount and the history of another learning state amount, and displays them. To display. An example of the display is shown in FIG. ◯ represents a neuron. The magnitude of the weight for each neuron at that time is indicated by the length of the bar graph above, and the past history of net absolute values up to that point is divided into areas of the bar graph and the area is colored to correspond to the history. The gradation is shown. In the figure, for example, a region showing 1.0 ≦ | net | ≦ 2.0 has a net of 1.0 ≦ | ne when the weight of the region is large.
It shows that t | ≦ 2.0.
【0047】この表示例を作成するための処理を次に示
す。まず、表示合成部4が学習状態量記憶部9から重み
の大きさを読みだし、棒の長さへの変換部4aが重みの
大きさを棒の長さへ変換する。同様に、表示合成部4が
学習状態量記憶部9からnet絶対値の学習パターン平
均の履歴データを読みだし、棒の領域分割部4cが履歴
に対応するよう棒の領域を分割する。また、棒の色の階
調への変換部4bがそれぞれの領域におけるnetの値
を対応する棒の色の階調へ変換する。その後、これらの
結果を全てのニューロンについて合成し、図5の表示例
を作成する。The processing for creating this display example will be described below. First, the display synthesizing unit 4 reads the magnitude of the weight from the learning state amount storage unit 9, and the conversion unit 4a for the length of the rod converts the magnitude of the weight into the length of the rod. Similarly, the display synthesizing unit 4 reads the history data of the learning pattern average of the net absolute value from the learning state amount storage unit 9, and the bar area dividing unit 4c divides the bar area so as to correspond to the history. Further, the bar color gradation conversion unit 4b converts the net value in each area into the corresponding bar color gradation. Then, these results are combined for all neurons to create the display example of FIG.
【0048】ステップ12では、ステップ13からステ
ップ16を学習が収束するまで繰り返す。In step 12, steps 13 to 16 are repeated until learning converges.
【0049】この様な表示方法により、個々のニューロ
ンの学習状態を把握することができ、また各々のニュー
ロンの過去の学習状態量の履歴を視覚的に見ることが可
能となる。With such a display method, the learning state of each neuron can be grasped, and the history of the past learning state amount of each neuron can be visually observed.
【0050】なお本実施例では、ニューラルネットワー
クの学習方法をバックプロパゲーションとしたが、本発
明はこれに限定されるものではなく、例えば、共役勾配
法を用いた学習を使っても良い。また学習状態量は本実
施例に限るものではなく、例えは重みの大きさを数9の
ように定義しても良い。In this embodiment, the learning method of the neural network is the back propagation, but the present invention is not limited to this. For example, learning using the conjugate gradient method may be used. Further, the learning state quantity is not limited to that in the present embodiment, and for example, the magnitude of the weight may be defined as in Expression 9.
【0051】[0051]
【数9】 [Equation 9]
【0052】[0052]
【発明の効果】以上説明した本発明の学習状態表示方法
では、個々のニューロンの学習状態を表示するので、個
別にニューロンの学習状態を把握することができる。ま
た、重みの大きさを棒グラフの長さで表すだけでなく、
netの状態を棒グラフの色の階調で表すので、学習が
適切に進行しているかどうかを各ニューロン毎に把握で
きる。これについて図6,図7を用いて説明する。According to the learning state display method of the present invention described above, since the learning states of individual neurons are displayed, the learning states of neurons can be individually grasped. Also, not only the size of the weight is represented by the length of the bar graph,
Since the net state is represented by the color gradation of the bar graph, it can be grasped for each neuron whether or not learning is progressing properly. This will be described with reference to FIGS. 6 and 7.
【0053】重みの修正量には数8で示すように最急降
下勾配が関わる。最急降下勾配は数7を見ると、シグモ
イド関数の微分が積の形で入る。netの絶対値が大き
くなると図6,図7で示すようにニューロンの出力が0
または1に飽和すると同時にシグモイド関数の微分値が
小さくなる。その場合、最急降下勾配も小さくなり、結
果として重みの修正量も減るので学習の進行が遅くな
る。よって、netの状態を棒グラフの色の階調で表す
ことで学習が順調に進んでいるかどうか簡単に知ること
ができる。The steepest descent gradient is involved in the correction amount of the weight as shown in the equation (8). Looking at Equation 7 for the steepest descent gradient, the derivative of the sigmoid function enters in the form of a product. When the absolute value of net becomes large, the output of the neuron becomes 0 as shown in FIGS.
Alternatively, the differential value of the sigmoid function becomes small at the same time when it is saturated to 1. In that case, the steepest descent gradient becomes small, and as a result, the amount of correction of the weight also decreases, so that the learning progresses slowly. Therefore, it is possible to easily know whether or not the learning is proceeding smoothly by expressing the state of net by the color gradation of the bar graph.
【0054】一方、netが大きくなる原因として重み
の大きさが大きくなることが挙げられる。netの計算
では数5に示すように重みと他のニューロンの出力の内
積の形になっており、netを書き替えると数10のよ
うになる。On the other hand, the reason why the net becomes large is that the weight becomes large. In the calculation of net, the weight has the form of the inner product of the outputs of other neurons as shown in Equation 5, and when Net is rewritten, Equation 10 is obtained.
【0055】[0055]
【数10】 [Equation 10]
【0056】これより、重みの大きさが大きくなるとn
etの絶対値も大きくなる傾向を示すことが分かる。よ
って、学習が順調に進んでいるかを見るには重みの大き
さを表示すれば良い。From this, when the weight becomes large, n
It can be seen that the absolute value of et also tends to increase. Therefore, in order to see whether the learning is proceeding smoothly, the weight size may be displayed.
【0057】さらに、一個のニューロンが原因で学習が
収束しない時、例えばそのニューロンの重みの大きさを
小さくして回復をはかろうとする場合、学習状態の履歴
を表示することで、どの程度小さくするかの指針を示す
ことができる。Furthermore, when learning does not converge due to one neuron, for example, when trying to recover by reducing the weight of that neuron, by displaying the history of the learning state, how small You can give guidance on what to do.
【図面の簡単な説明】[Brief description of drawings]
【図1】本発明による実施例の装置のブロック図。FIG. 1 is a block diagram of an apparatus according to an embodiment of the present invention.
【図2】実施例の処理全体の流れを示すフローチャー
ト。FIG. 2 is a flowchart showing the overall flow of processing of the embodiment.
【図3】図1のステップ13の詳細を示すブロック図。FIG. 3 is a block diagram showing details of step 13 in FIG.
【図4】本発明による学習状態の表示例を示す説明図。FIG. 4 is an explanatory diagram showing a display example of a learning state according to the present invention.
【図5】本発明による学習状態の履歴の表示例を示す説
明図。FIG. 5 is an explanatory diagram showing a display example of a history of learning states according to the present invention.
【図6】シグモイド関数を示す特性図。FIG. 6 is a characteristic diagram showing a sigmoid function.
【図7】シグモイド関数の微分値を示す特性図。FIG. 7 is a characteristic diagram showing a differential value of a sigmoid function.
【図8】層状のニューラルネットワークの構造を示す説
明図。FIG. 8 is an explanatory diagram showing a structure of a layered neural network.
【図9】バックプロパゲーションの処理手順を示すフロ
ーチャート。FIG. 9 is a flowchart showing a processing procedure of back propagation.
【図10】従来の学習状態の表示例1を示す説明図。FIG. 10 is an explanatory diagram showing a display example 1 of a conventional learning state.
【図11】従来の学習状態の表示例2を示す説明図。FIG. 11 is an explanatory diagram showing a display example 2 of a conventional learning state.
1…ニューラルネットワーク、2…学習処理部、3…学
習状態計算部、4…複数の学習状態量表示合成部、5…
入力部、6…表示部、7…入力データ記憶部、8…教師
データ記憶部、9…学習状態量記憶部、10…学習状態
量履歴記憶部。DESCRIPTION OF SYMBOLS 1 ... Neural network, 2 ... Learning processing part, 3 ... Learning state calculation part, 4 ... Multiple learning state quantity display synthesis part, 5 ...
Input unit, 6 ... Display unit, 7 ... Input data storage unit, 8 ... Teacher data storage unit, 9 ... Learning state amount storage unit, 10 ... Learning state amount history storage unit.
───────────────────────────────────────────────────── フロントページの続き (72)発明者 東野 純一 東京都国分寺市東恋ケ窪1丁目280番地 株式会社日立製作所中央研究所内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Junichi Higashino 1-280 Higashi Koikekubo, Kokubunji City, Tokyo Inside the Central Research Laboratory, Hitachi, Ltd.
Claims (5)
個々のニューロンの現在の学習状態を示す一つの量を棒
の長さで示すステップと、現在の学習状態を示す別の量
を棒の色または階調で示すステップをもつことを特徴と
するニューラルネットワークの学習状態表示方法。1. In learning of a neural network,
Neurals characterized by the step of indicating one quantity indicating the current learning state of each neuron by the length of the bar and the step indicating another quantity indicating the current learning state by the color or gradation of the bar Network learning status display method.
個々のニューロンの現在の学習状態を示す一つの量を棒
の長さで示すステップと、学習状態を示す別の量の過去
の履歴を、棒を履歴に対応するよう領域分けして、それ
ぞれの領域を別の色または階調によって示すステップを
もつことを特徴とするニューラルネットワークの学習状
態表示方法。2. In learning of a neural network,
The step of indicating one quantity indicating the current learning state of each neuron by the length of the bar and the past history of another quantity indicating the learning state are divided into regions corresponding to the history, and A learning state display method for a neural network, characterized in that it has a step of indicating a region with another color or gradation.
個々のニューロンの現在の重みの大きさを棒の長さで示
すステップと、現在のニューロンの総入力絶対値の学習
パターン平均,シグモイド関数微分の学習パターン平
均,出力の学習パターン平均,重みベクトルの大きさ,
最急降下方向の大きさ,重みの修正量の大きさ,重みベ
クトルの回転角度のいずれかを棒の色または階調で示す
ステップをもつことを特徴とするニューラルネットワー
クの学習状態表示方法。3. In learning of a neural network,
The step of indicating the magnitude of the current weight of each neuron by the length of the bar, the learning pattern average of the total input absolute value of the current neuron, the learning pattern average of the sigmoid function derivative, the output learning pattern average, and the weight vector size,
A learning state display method for a neural network, characterized in that it has a step of indicating one of the size of the steepest descent direction, the size of the correction amount of the weight, and the rotation angle of the weight vector by the color of the bar or the gradation.
個々のニューロンの現在の重みの大きさを棒の長さで示
すステップと、ニューロンの総入力絶対値の学習パター
ン平均,シグモイド関数微分の学習パターン平均,出力
の学習パターン平均,重みベクトルの大きさ,最急降下
方向の大きさ,重みの修正量の大きさ,重みベクトルの
回転角度のいずれかの過去の履歴を、棒を履歴に対応す
るよう領域分けして、それぞれの領域を別の色または階
調によって示すステップをもつことを特徴とするニュー
ラルネットワークの学習状態表示方法。4. In learning of a neural network,
The step of indicating the current weight of each neuron by the length of the bar, the learning pattern average of the total input absolute value of the neuron, the learning pattern average of the sigmoid function derivative, the output learning pattern average, and the weight vector size , The size of the steepest descent direction, the size of the weight correction amount, or the rotation angle of the weight vector, the past history is divided into areas corresponding to the history, and each area is assigned a different color or A learning state display method for a neural network, characterized by having steps indicated by gradation.
ベクトルの大きさ,最急降下方向の大きさ,重みの修正
量の大きさ,重みベクトルの回転角度をそれぞれ数1,
数2,数3,数4とするニューラルネットワークの学習
状態表示方法。 【数1】 【数2】 【数3】 【数4】 5. The weight vector size, the size in the steepest descent direction, the weight correction amount level, and the rotation angle of the weight vector in the third and fourth aspects are respectively expressed by the following equations:
A method for displaying the learning state of the neural network, which is expressed by equations 2, 3, and 4. [Equation 1] [Equation 2] [Equation 3] [Equation 4]
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4022337A JPH05216857A (en) | 1992-02-07 | 1992-02-07 | Neural network learning state display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4022337A JPH05216857A (en) | 1992-02-07 | 1992-02-07 | Neural network learning state display method |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH05216857A true JPH05216857A (en) | 1993-08-27 |
Family
ID=12079891
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4022337A Pending JPH05216857A (en) | 1992-02-07 | 1992-02-07 | Neural network learning state display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH05216857A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1049508A (en) * | 1995-12-27 | 1998-02-20 | Toshiba Corp | Data processing system, system construction device and method, and medium for recording system construction program |
JP2012504810A (en) * | 2008-10-03 | 2012-02-23 | ビ−エイイ− システムズ パブリック リミテッド カンパニ− | Support for updating models for diagnosing faults in systems |
WO2020164644A3 (en) * | 2019-02-14 | 2020-10-01 | 上海寒武纪信息科技有限公司 | Neural network model splitting method, apparatus, computer device and storage medium |
-
1992
- 1992-02-07 JP JP4022337A patent/JPH05216857A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1049508A (en) * | 1995-12-27 | 1998-02-20 | Toshiba Corp | Data processing system, system construction device and method, and medium for recording system construction program |
JP2012504810A (en) * | 2008-10-03 | 2012-02-23 | ビ−エイイ− システムズ パブリック リミテッド カンパニ− | Support for updating models for diagnosing faults in systems |
WO2020164644A3 (en) * | 2019-02-14 | 2020-10-01 | 上海寒武纪信息科技有限公司 | Neural network model splitting method, apparatus, computer device and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109447906A (en) | A kind of picture synthetic method based on generation confrontation network | |
DE69424464T2 (en) | Video image processing system with neural network | |
US4912647A (en) | Neural network training tool | |
CN109978165A (en) | A kind of generation confrontation network method merged from attention mechanism | |
CN110929697A (en) | Neural network target identification method and system based on residual error structure | |
JPH04262453A (en) | Neurolearning control method and equipment | |
EP0416173A1 (en) | A method for adjusting network parameters in a multi-layer perceptron device, and perceptron device provided with means for executing the method | |
CN108875917A (en) | A kind of control method and device for convolutional neural networks processor | |
JPH02270060A (en) | Grading learning system | |
JPH05216857A (en) | Neural network learning state display method | |
JPH0954765A (en) | Optimization control method and device therefor | |
US5596681A (en) | Method of determining an optimal number of neurons contained in hidden layers of a neural network | |
CN109117946A (en) | Neural computing handles model | |
CN108875925A (en) | A kind of control method and device for convolutional neural networks processor | |
CN113426109A (en) | Method for cloning chess and card game behaviors based on factorization machine | |
JP3679071B2 (en) | Optimization adjustment device | |
JPH1049508A (en) | Data processing system, system construction device and method, and medium for recording system construction program | |
Korites | Population Dynamics | |
JPH06110861A (en) | Adaptive control system | |
JP2000122991A (en) | Manufacture of controller, the controller, data generator, method for determining input/output characteristics, method for evaluating correlation | |
EP3910558A2 (en) | Computer system and method | |
Furrer et al. | NEURAL-NETWORK MODELING. | |
JP3082530B2 (en) | Neural network circuit | |
JP2607351B2 (en) | Error Signal Generation Method for Efficient Learning of Multilayer Perceptron Neural Network | |
Amini | of Satellite Images (IRS-1D) |