JPH10283334A - Input layer optimizing method for neural network - Google Patents

Input layer optimizing method for neural network

Info

Publication number
JPH10283334A
JPH10283334A JP9092052A JP9205297A JPH10283334A JP H10283334 A JPH10283334 A JP H10283334A JP 9092052 A JP9092052 A JP 9092052A JP 9205297 A JP9205297 A JP 9205297A JP H10283334 A JPH10283334 A JP H10283334A
Authority
JP
Japan
Prior art keywords
input
data
neural network
layer
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9092052A
Other languages
Japanese (ja)
Inventor
Tatsuya Iizaka
達也 飯坂
Tetsuo Matsui
哲郎 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP9092052A priority Critical patent/JPH10283334A/en
Publication of JPH10283334A publication Critical patent/JPH10283334A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To optimize the input layer of the neural network by evaluating the coefficient of coupling between the input layer and intermediate layer or output layer of the neural network that varies depending upon its learning, and detecting and removing unnecessary data in input data according to the result. SOLUTION: An ordinary learning process is performed by the neural network having the input layer for inputting pieces of data by using a necessary sufficient number of input variables, and the coefficient of coupling between the input layer and intermediate or output layer which varies depending upon the learning is evaluated (S21). Then it is decided whether or not there is unnecessary data according to the evaluation result and the process is ended when there is no unnecessary data (S3). When there is unnecessary data, the input variable is changed (S22) and learning is carried out again (S1); and unnecessary data detected by input evaluation (S21) is deleted. Consequently, the input layer of the neural network can be optimized.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、各種の情報処理分
野において使用されるニューラルネットワークの入力デ
ータから不要データを除去することにより、入力層を最
適化する方法に関する。
The present invention relates to a method for optimizing an input layer by removing unnecessary data from input data of a neural network used in various information processing fields.

【0002】[0002]

【従来の技術】各種情報処理分野において、特に非線形
性のある系に対してニューラルネットワークが用いられ
ている。図5〜図7は周知の各種ニューラルネットワー
クモデルを示している。図5は入力層、中間層、出力層
からなる階層型モデル、図6は入力層及び出力層からな
るリカレントネットワークモデルとしてのWilliams & Z
ipserモデル、図7は入力層、コンテクスト層、中間
層、出力層からなるリカレントネットワークモデルとし
てのElmanモデルである。
2. Description of the Related Art In various information processing fields, a neural network is used particularly for a system having nonlinearity. 5 to 7 show various known neural network models. FIG. 5 is a hierarchical model including an input layer, a middle layer and an output layer, and FIG. 6 is a Williams & Z as a recurrent network model including an input layer and an output layer.
FIG. 7 shows an Elman model as a recurrent network model including an input layer, a context layer, a hidden layer, and an output layer.

【0003】なお、図6のWilliams & Zipserモデルは
相互結合形ニューラルネットワークであり、すべての出
力が入力側にフィードバックされている。入力層は外部
入力及びフィードバック入力からなっており、実時間リ
カレント学習(RTRL)と呼ばれる学習アルゴリズム
等により学習を行う。図7のElmanモデルでは、中間層
の一次遅れの状態をコンテクスト層にフィードバックし
ている。中間層は通常、入出力層の状態を反映して学習
の進行と共に過去の情報を含んだものとなっていくた
め、コンテクスト層は入出力の履歴を十分に反映したも
のとなる。これらのリカレントネットワークモデルは内
部にフィードバック結合を有しており、一周期前の情報
をネットワーク内に持つことで、時系列データの履歴の
把握が可能である。
The Williams & Zipser model shown in FIG. 6 is a mutual connection type neural network, and all outputs are fed back to the input side. The input layer includes an external input and a feedback input, and performs learning using a learning algorithm called real-time recurrent learning (RTRL). In the Elman model of FIG. 7, the state of the first-order delay of the hidden layer is fed back to the context layer. The middle layer usually includes past information as the learning progresses, reflecting the state of the input / output layer. Therefore, the context layer sufficiently reflects the input / output history. These recurrent network models have a feedback connection inside, and it is possible to grasp the history of time-series data by having information one cycle before in the network.

【0004】さて、これらのニューラルネットワークの
適用の仕方は様々であるが、一般にニューラルネットワ
ークに過去の多くの事例をあらかじめ学習させておき、
使用時に学習済みのニューラルネットワークを用いて各
種の予測・制御を行っている。従来、この学習・予測に
用いる入力変数(入力データ)は、各分野の熟練者や専
門家が経験や実験的な結果に基づいて決定していた。
[0004] These neural networks can be applied in various ways. Generally, neural networks are made to learn many past cases in advance.
Various predictions and controls are performed using a neural network that has been trained during use. Conventionally, input variables (input data) used for the learning and prediction have been determined by experts and experts in various fields based on experience and experimental results.

【0005】具体的には、出力は予測値・制御量・状態
など目的とする値そのものであり、一意的に決定され
る。また、中間層の素子数は、情報量基準としてのAI
Cに代表される情報量を用いて統計的に決定したり、図
5のような階層型ニューラルネットワークの中間層に限
定した評価基準であるBadness Factor,Goodness Facto
r, Effectiveness Factor等の基準により決定してい
る。しかし、入力変数は、温度・流れなど様々な種類が
あり、一意的に決定できない。従来では、回帰式、統計
処理、直感などの方法で選んだ入力変数をそのまま用い
たり、ニューロの学習を何度も行い、その中で最も良好
な結果が得られる入力変数を選ぶなど、実験的に決定す
る方法が採られていた。
Specifically, the output is a target value itself such as a predicted value, a control amount, and a state, and is uniquely determined. The number of elements in the intermediate layer is determined by AI as an information amount reference.
Badness Factor and Goodness Facto, which are statistically determined using the information amount represented by C or are evaluation criteria limited to the intermediate layer of a hierarchical neural network as shown in FIG.
Determined based on criteria such as r and Effectiveness Factor. However, there are various types of input variables such as temperature and flow and cannot be uniquely determined. Conventionally, input variables selected by methods such as regression formulas, statistical processing, and intuition can be used as they are, or neuro learning can be performed many times, and the input variables that provide the best results can be selected. The method of determining was adopted.

【0006】[0006]

【発明が解決しようとする課題】ここで問題となるの
は、所望の出力を得るためにはどのような入力変数(入
力データ)が必要であるか、必ずしも明確ではないとい
うことである。これは、ニューラルネットワークの適用
分野が非線形であることに起因している。一般に、出力
値の精度を上げるためには充分に多くのデータが必要で
ある。しかし、出力と関係のないデータを入力すると、
そのデータはノイズとして働くことがあり、学習精度、
予測精度を悪化させる原因となる。また、入力データ数
が多いと、ニューラルネットワークの規模が大きくかつ
複雑になり、学習時間の長期化や局所解への収束危険性
の増加を招く。
The problem here is that it is not always clear what input variables (input data) are needed to obtain the desired output. This is due to the nonlinear application field of the neural network. Generally, a sufficiently large amount of data is required to improve the accuracy of an output value. However, if you enter data that has nothing to do with the output,
That data can act as noise,
This may cause the prediction accuracy to deteriorate. Further, when the number of input data is large, the scale of the neural network becomes large and complicated, which leads to a long learning time and an increased risk of convergence to a local solution.

【0007】入力データ数をも含めた入力層の最適化方
法には、感度解析を適用する方法も考えられなくもない
が、一般に適用が難しく良好な結果が望めない。感度解
析は入力誤差の影響を判断する手法であり、入力データ
にゆらぎを与えて出力への影響を計るもので、残念なが
ら線形や非線形の限られた範囲の解析に対しては強力な
ツールであるが、非線形の広い範囲の感度は良好に求め
ることができない。非線形の系では計算する点において
感度が異なるので、客観的・定量的な判断が難しい。そ
のため、感度解析を適用して自動的に入力層を最適化す
ることは困難である。
As a method of optimizing the input layer including the number of input data, there is no conceivable way to apply a sensitivity analysis, but it is generally difficult to apply the method and good results cannot be expected. Sensitivity analysis is a method to determine the effect of input errors, and measures the effect on output by fluctuating input data.Unfortunately, it is a powerful tool for analysis in a limited range of linear and nonlinear. However, a wide range of non-linear sensitivities cannot be obtained well. In a non-linear system, the sensitivity differs in the point of calculation, so it is difficult to make an objective and quantitative judgment. Therefore, it is difficult to automatically optimize the input layer by applying the sensitivity analysis.

【0008】本発明はこれらの点に鑑みてなされたもの
で、感度解析等の方法によらず、不要データを削除して
適切な入力データのみを用いるようにした入力層最適化
方法を提供しようとするものである。
The present invention has been made in view of the above points, and provides an input layer optimizing method in which unnecessary data is deleted and only appropriate input data is used irrespective of a method such as sensitivity analysis. It is assumed that.

【0009】[0009]

【課題を解決するための手段】上記課題を解決するた
め、本発明は、複数のデータが入力される入力層を持つ
ニューラルネットワークにおいて、ニューラルネットワ
ークの学習により変化する入力層と中間層または出力層
との間の結合係数を評価し、その結果に応じて入力デー
タ中の不要データを検出し除去することにより、ニュー
ラルネットワークの入力層を最適化するものである。
In order to solve the above-mentioned problems, the present invention relates to a neural network having an input layer to which a plurality of data are input, wherein the input layer and the intermediate layer or the output layer change by learning of the neural network. Is evaluated, and unnecessary data in the input data is detected and removed according to the result, thereby optimizing the input layer of the neural network.

【0010】[0010]

【発明の実施の形態】まず、本発明では、ニューラルネ
ットワークの学習において、入力データのうち不要なデ
ータを検出して入力層の最適化を行うようにした。すな
わち、本発明は、所望の出力に関連しない不要データが
ニューラルネットワークに入力されていた場合、これら
の不要データを、学習中もしくは学習終了後に検出して
除去するものである。
First, in the present invention, in learning a neural network, unnecessary data is detected from input data to optimize an input layer. That is, the present invention detects and removes unnecessary data during or after learning when unnecessary data that is not related to a desired output is input to the neural network.

【0011】図1は、本発明の実施形態が適用されるニ
ューラルネットワークモデルを概念的に示したものであ
る。ネットワークの外部入力には必要データと共に不必
要データが入力されているが、入力層と出力層との間の
結合のうち必要データと繋がる結合は強化され、不要デ
ータと繋がる結合は弱くなる。この特徴に着目して、以
下の数式1(Goodness Factorに対応する)または数式
2(Effectiveness Factorに対応する)で示される評価
式により、不要データを検出する。
FIG. 1 conceptually shows a neural network model to which an embodiment of the present invention is applied. Unnecessary data as well as necessary data are input to the external input of the network, but of the connection between the input layer and the output layer, the connection connected to the required data is strengthened, and the connection connected to the unnecessary data is weakened. Paying attention to this feature, unnecessary data is detected by an evaluation formula shown by the following Expression 1 (corresponding to Goodness Factor) or Expression 2 (corresponding to Effectiveness Factor).

【0012】[0012]

【数1】Goodi=Σ(wij・ii2 ## EQU1 ## Good i = Σ (w ij · i i ) 2

【0013】[0013]

【数2】Effecti=Σwij 2 [Equation 2] Effect i = Σw ij 2

【0014】これらの数式において、wijは入力素子i
と出力素子jとの間の結合係数であり、iiは入力素子
iへの入力データである。また、数式1のGoodi
入力素子iが出力する情報の二乗和であって情報量を基
準とした評価式であり、数式2のEffectiはネッ
トワーク構造に着目した評価式である。数式1のGoo
iは右辺に入力データiiがあるので、すべての学習パ
ターンに対して評価を行い、その平均や総和などとして
求める必要がある。他方、数式2のEffectiは、
入力データが正規化され、その分布に偏りがないときに
用いる。このEffectiは、入力データiiがない分
だけGoodiよりも高速に計算することができる。
In these equations, w ij is the input element i
Is a coupling coefficient between the input element i and the output element j, and ii is input data to the input element i. Good i in Expression 1 is a sum of squares of information output from the input element i and is an evaluation expression based on the amount of information, and Effect i in Expression 2 is an evaluation expression focusing on the network structure. Goo of Equation 1
Since d i is the input data i i into the right side evaluates to all training patterns, it is necessary to determine the like average or sum. On the other hand, Effect i in Equation 2 is
Used when input data is normalized and its distribution is unbiased. This Effect i can be calculated faster than Good i because there is no input data i i .

【0015】これらのGoodi及びEffectiは、
従来、中間層削除アルゴリズムに適用していた評価基準
の概念を入力層最適化のために特化変更して適用したも
のであり、フィードフォワード階層型以外のネットワー
クタイプにも適用可能である。
These Good i and Effect i are:
The concept of the evaluation criterion that has been conventionally applied to the hidden layer elimination algorithm is specially modified for the input layer optimization and applied, and is applicable to network types other than the feedforward hierarchical type.

【0016】図2は、上記評価式を用いて不要データを
削除することにより入力層を最適化する一連の処理を示
すフローチャートである。従来と比べると、入力を評価
し、その結果に応じて入力変数を変更する処理を加える
だけで実現可能である。以下、図2における各処理の内
容を説明する。
FIG. 2 is a flowchart showing a series of processes for optimizing the input layer by deleting unnecessary data using the above evaluation formula. Compared with the related art, it can be realized only by adding a process of evaluating an input and changing an input variable according to the result. Hereinafter, the contents of each process in FIG. 2 will be described.

【0017】(1)学習(S1) ニューラルネットワークによる通常の学習処理である。
最初に学習する時には必要十分な数の入力変数(入力デ
ータ)を用意する。ここで、学習アルゴリズムには前述
の実時間リカレント学習やバックプロパゲーション(誤
差逆伝播)等、様々なものがあるが、学習アルゴリズム
自体は本発明の要旨ではないため説明を省略する。
(1) Learning (S1) This is a normal learning process using a neural network.
When learning for the first time, a necessary and sufficient number of input variables (input data) are prepared. Here, there are various learning algorithms, such as the above-described real-time recurrent learning and back propagation (backpropagation), but the learning algorithm itself is not the gist of the present invention, and thus the description is omitted.

【0018】(2)入力評価(S21) 学習後または学習と並行して行う。具体的には、入力層
から出る結合係数wijを用いて、前記数式1または数式
2等によりGoodiやEffectiを求める。評価の
方法自体は種々考えられるが、例えば、GoodiやE
ffectiの値がある設定値以上になる時の入力デー
タを必要データ、それ以外を不要データとする等の方法
があり得る。
(2) Input evaluation (S21) This is performed after or in parallel with learning. More specifically, Good i and Effect i are obtained by using the coupling coefficient w ij coming out of the input layer and the above-mentioned equation (1) or equation (2). Although various evaluation methods can be considered, for example, Good i and E
There may be a method in which the input data when the value of f.sub.fect i becomes equal to or greater than a certain set value is required data, and the other data is unnecessary data.

【0019】(3)終了判定(S3) 入力評価(S21)の結果、不要データがあるか否かを
判定し、なければ終了する。不要データがある場合に
は、下記の入力変数の変更(S22)を行ってから再度
学習する(S1)。
(3) Termination determination (S3) As a result of the input evaluation (S21), it is determined whether or not there is unnecessary data. If there is unnecessary data, the following input variables are changed (S22), and learning is performed again (S1).

【0020】(4)入力変数の変更(S22) このステップでは、入力評価(S21)により検出され
た不要データを削除する。この処理は、従来、オペレー
タが手作業により試行錯誤的に行っていたものである
が、本実施形態では入力評価(S21)によって不要デ
ータが定量的かつ自動的に評価、検出できるので、客観
的かつ高速に入力変数を変更することが可能である。
(4) Change of input variables (S22) In this step, unnecessary data detected by the input evaluation (S21) is deleted. Conventionally, this processing is manually performed by an operator by trial and error. However, in the present embodiment, unnecessary data can be quantitatively and automatically evaluated and detected by the input evaluation (S21). It is possible to change input variables at high speed.

【0021】[0021]

【実施例】学習データを表1に示す。入力データは出力
データy(t)=2sin(t)との間で大きな相関関
係のあるx1(t)=sin(t)と、出力データy
(t)に全く関係のないx2(t)(=ランダムノイ
ズ)とした。ただし、t=0,π/18,2π/18,
……,6π (108データ)である。本発明の入力層最
適化機能により、不要データとしてのランダムノイズが
入力されている素子を検出することを試みる。
EXAMPLE Table 1 shows the learning data. The input data has x1 (t) = sin (t) which has a large correlation with the output data y (t) = 2 sin (t), and the output data y
X2 (t) (= random noise), which has nothing to do with (t). Where t = 0, π / 18, 2π / 18,
.., 6π (108 data). The input layer optimization function of the present invention attempts to detect an element to which random noise as unnecessary data is input.

【0022】[0022]

【表1】 [Table 1]

【0023】学習条件を表2に示す。対象としたネット
ワークモデルは図6、図7に示したWilliams & Zipser
モデル、Elmanモデルである。評価式としては、数式2
のEffectiveness Factorを用いた。
Table 2 shows the learning conditions. The target network model is Williams & Zipser shown in Figs.
Model, Elman model. Equation 2 is used as the evaluation equation.
Effectiveness Factor was used.

【0024】[0024]

【表2】 [Table 2]

【0025】図3(Williams & Zipserモデル)、図4
(Elmanモデル)は学習結果を示している。何れの場合
も入力データx1(t)=sin(t)が与えられた入
力素子のEffectiveness Factor(数式2の値)は学習回
数が増加するにつれて大きくなるが、ランダムノイズが
与えられた入力素子のEffectiveness Factorはほとんど
0のままで変化がない。言い換えれば、学習が進むにつ
れて出力データy(t)=2sin(t)に大きな相関
関係を持つデータx1(t)=sin(t)sinの入
力素子の重要度(Effectiveness Factor)は増すが、不
要な入力データx2(t)であるランダムノイズの入力
素子の重要度は低いままである。このことから、出力へ
の貢献度の低い不要入力データを検出でき、これらの不
要データを削除することにより、ニューラルネットワー
クの入力層の最適化が可能になる。なお、図3、図4に
は、出力データの絶対値誤差も併せて示してある。この
絶対値誤差は、学習回数が増加するに従って減少してい
るのが分かる。
FIG. 3 (Williams & Zipser model), FIG. 4
(Elman model) shows the learning result. In any case, the Effectiveness Factor (the value of Expression 2) of the input element to which the input data x1 (t) = sin (t) is given increases as the number of times of learning increases. Effectiveness Factor remains almost 0 and does not change. In other words, as the learning progresses, the importance (Effectiveness Factor) of the input element of the data x1 (t) = sin (t) sin having a large correlation with the output data y (t) = 2sin (t) increases, but is unnecessary. The importance of the input element of random noise that is the input data x2 (t) remains low. From this, unnecessary input data having a low contribution to the output can be detected, and by deleting these unnecessary data, the input layer of the neural network can be optimized. 3 and 4 also show the absolute value error of the output data. It can be seen that this absolute value error decreases as the number of times of learning increases.

【0026】[0026]

【発明の効果】以上のように本発明によれば、ニューラ
ルネットワークに入力されている不要データを客観的・
定量的に評価することができ、ネットワークの入力層の
最適化、学習時間の短縮を図ることができる。また、通
常、ニューラルネットワークの学習には多くの試行錯誤
的な入力変数の選択処理が行われるが、この過程を大幅
に短縮することが可能となる。
As described above, according to the present invention, unnecessary data input to a neural network is objectively and
Quantitative evaluation can be performed, and the input layer of the network can be optimized and the learning time can be reduced. In addition, usually, neural network learning involves many trial-and-error input variable selection processes. This process can be greatly reduced.

【0027】例えば、ニューラルネットワークを用いて
翌日の電力需要量の最大値を予測する日最大電力予測に
おいて、気象と電力需要量との相関が強く、気象を入力
データとすることにより電力需要量を予測できることが
知られている。しかし、入力データとして、具体的にど
の気象条件がどのくらい必要であるかは明確には分から
ない。例えば、最高・最低気温を用いる例もあれば、特
定時間の気温を用いる例もある。また、ニューラルネッ
トワークには通常、過去数日分のデータを入力している
が、何日前のデータまで入力する必要があるかといった
明確な基準はない。更に、入力変数の組合わせは莫大で
あり、その全てを検証することは事実上不可能である。
現実問題として、日最大電力の研究は過去数年来行われ
ている。このような例は、ダム流入量予測、平均株価予
測、溶接溶融池制御、ロボット制御など、ニューラルネ
ットワークが適用される全ての分野において共通の問題
である。
For example, in a daily maximum power prediction for predicting the maximum value of the power demand on the next day using a neural network, the correlation between the weather and the power demand is strong, and the power demand is calculated by using the weather as input data. It is known that it can be predicted. However, it is not clear exactly which weather conditions and how much are required as input data. For example, there is an example in which the maximum and minimum temperatures are used, and an example in which the temperature at a specific time is used. In addition, the neural network normally inputs data for the past several days, but there is no clear standard as to how many days ago data needs to be input. Furthermore, the combination of input variables is enormous, and it is virtually impossible to verify all of them.
As a practical matter, research on daily maximum power has been conducted for the past several years. Such an example is a common problem in all fields to which a neural network is applied, such as dam inflow prediction, average stock price prediction, weld pool control, and robot control.

【0028】従って、本発明を用いれば、不要な入力デ
ータを簡単に検出し除去することが可能であり、研究期
間の短縮、ネットワークの最適化による学習精度、予測
精度の向上、処理時間の短縮が期待できる。
Therefore, according to the present invention, unnecessary input data can be easily detected and removed, thereby shortening the research period, improving learning accuracy and prediction accuracy by optimizing a network, and reducing processing time. Can be expected.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態が適用されるニューラルネッ
トワークモデルの概念図である。
FIG. 1 is a conceptual diagram of a neural network model to which an embodiment of the present invention is applied.

【図2】本発明の実施形態において入力層を最適化する
一連の処理を示すフローチャートである。
FIG. 2 is a flowchart showing a series of processes for optimizing an input layer in the embodiment of the present invention.

【図3】本発明の実施例におけるEffectiveness Factor
及び出力データの絶対値誤差を示す図である。
FIG. 3 is an Effectiveness Factor according to an embodiment of the present invention.
FIG. 7 is a diagram illustrating an absolute value error of output data.

【図4】本発明の実施例におけるEffectiveness Factor
及び出力データの絶対値誤差を示す図である。
FIG. 4 is an Effectiveness Factor according to the embodiment of the present invention.
FIG. 7 is a diagram illustrating an absolute value error of output data.

【図5】階層型モデルの概念図である。FIG. 5 is a conceptual diagram of a hierarchical model.

【図6】Williams & Zipserモデルの概念図である。FIG. 6 is a conceptual diagram of a Williams & Zipser model.

【図7】Elmanモデルの概念図である。FIG. 7 is a conceptual diagram of an Elman model.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 複数のデータが入力される入力層を持つ
ニューラルネットワークにおいて、 ニューラルネットワークの学習により変化する入力層と
中間層または出力層との間の結合係数を評価し、その結
果に応じて入力データ中の不要データを検出し除去する
ことを特徴とするニューラルネットワークの入力層最適
化方法。
In a neural network having an input layer to which a plurality of data is input, a coupling coefficient between an input layer and an intermediate layer or an output layer, which is changed by learning of the neural network, is evaluated, and according to the result, An input layer optimization method for a neural network, comprising detecting and removing unnecessary data from input data.
JP9092052A 1997-04-10 1997-04-10 Input layer optimizing method for neural network Pending JPH10283334A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9092052A JPH10283334A (en) 1997-04-10 1997-04-10 Input layer optimizing method for neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9092052A JPH10283334A (en) 1997-04-10 1997-04-10 Input layer optimizing method for neural network

Publications (1)

Publication Number Publication Date
JPH10283334A true JPH10283334A (en) 1998-10-23

Family

ID=14043750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9092052A Pending JPH10283334A (en) 1997-04-10 1997-04-10 Input layer optimizing method for neural network

Country Status (1)

Country Link
JP (1) JPH10283334A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007096954A1 (en) * 2006-02-22 2007-08-30 Saga University Neural network device and its method
US7840508B2 (en) 2006-04-06 2010-11-23 Sony Corporation Information processing apparatus, information processing method, and program
US8135653B2 (en) 2007-11-20 2012-03-13 Hitachi, Ltd. Power plant control device which uses a model, a learning signal, a correction signal, and a manipulation signal
JP2014046889A (en) * 2012-09-03 2014-03-17 Mazda Motor Corp Vehicle control device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007096954A1 (en) * 2006-02-22 2007-08-30 Saga University Neural network device and its method
JP5002821B2 (en) * 2006-02-22 2012-08-15 国立大学法人佐賀大学 Neural network device and method thereof
US7840508B2 (en) 2006-04-06 2010-11-23 Sony Corporation Information processing apparatus, information processing method, and program
US8135653B2 (en) 2007-11-20 2012-03-13 Hitachi, Ltd. Power plant control device which uses a model, a learning signal, a correction signal, and a manipulation signal
US8554706B2 (en) 2007-11-20 2013-10-08 Hitachi, Ltd. Power plant control device which uses a model, a learning signal, a correction signal, and a manipulation signal
JP2014046889A (en) * 2012-09-03 2014-03-17 Mazda Motor Corp Vehicle control device

Similar Documents

Publication Publication Date Title
Benrhmach et al. Nonlinear autoregressive neural network and extended Kalman filters for prediction of financial time series
Asprey et al. Statistical tools for optimal dynamic model building
Tan et al. Neural-network-based d-step-ahead predictors for nonlinear systems with time delay
Grieu et al. Artificial intelligence tools and inverse methods for estimating the thermal diffusivity of building materials
Qin Neural networks for intelligent sensors and control—practical issues and some solutions
Lazar et al. A neural predictive controller for non-linear systems
JP2005504367A (en) Combinatorial method for monitoring neural network learning
Wild et al. An experimental design strategy for designing robust systems using discrete-event simulation
Callow et al. Development of hybrid optimisation method for Artificial Intelligence based bridge deterioration model—Feasibility study
WO2019160138A1 (en) Causality estimation device, causality estimation method, and program
Taffese Case-based reasoning and neural networks for real estate valuation.
Eng et al. Forecast forex with ANN using fundamental data
JPH06337852A (en) Time series prediction method by neural network
Xie Software reliability models—A selected annotated bibliography
WO2013167342A1 (en) A method for computer-aided processing of models of a technical system
JPH10283334A (en) Input layer optimizing method for neural network
Tian et al. Software reliability prediction using recurrent neural network with Bayesian regularization
JP2004094437A (en) Data prediction method and data prediction system
JPH0581228A (en) Method for constituting neural network and learning/ recollecting system
Mohammed et al. Predicting performance measurement of residential buildings using an artificial neural network
Rojek Neural networks as prediction models for water intake in water supply system
JPH0895938A (en) Method and device for learning time sequential data
Colò Anomaly detection for cyber security: time series forecasting and deep learning
Shojaee et al. Integration of production–maintenance planning and monitoring simple linear profiles via Hotelling's T2 control chart and particle swarm optimization
Bassi et al. Medium term electric load forecasting using TLFN neural networks

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050426