JPH10283334A - Input layer optimizing method for neural network - Google Patents
Input layer optimizing method for neural networkInfo
- Publication number
- JPH10283334A JPH10283334A JP9092052A JP9205297A JPH10283334A JP H10283334 A JPH10283334 A JP H10283334A JP 9092052 A JP9092052 A JP 9092052A JP 9205297 A JP9205297 A JP 9205297A JP H10283334 A JPH10283334 A JP H10283334A
- Authority
- JP
- Japan
- Prior art keywords
- input
- data
- neural network
- layer
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、各種の情報処理分
野において使用されるニューラルネットワークの入力デ
ータから不要データを除去することにより、入力層を最
適化する方法に関する。The present invention relates to a method for optimizing an input layer by removing unnecessary data from input data of a neural network used in various information processing fields.
【0002】[0002]
【従来の技術】各種情報処理分野において、特に非線形
性のある系に対してニューラルネットワークが用いられ
ている。図5〜図7は周知の各種ニューラルネットワー
クモデルを示している。図5は入力層、中間層、出力層
からなる階層型モデル、図6は入力層及び出力層からな
るリカレントネットワークモデルとしてのWilliams & Z
ipserモデル、図7は入力層、コンテクスト層、中間
層、出力層からなるリカレントネットワークモデルとし
てのElmanモデルである。2. Description of the Related Art In various information processing fields, a neural network is used particularly for a system having nonlinearity. 5 to 7 show various known neural network models. FIG. 5 is a hierarchical model including an input layer, a middle layer and an output layer, and FIG. 6 is a Williams & Z as a recurrent network model including an input layer and an output layer.
FIG. 7 shows an Elman model as a recurrent network model including an input layer, a context layer, a hidden layer, and an output layer.
【0003】なお、図6のWilliams & Zipserモデルは
相互結合形ニューラルネットワークであり、すべての出
力が入力側にフィードバックされている。入力層は外部
入力及びフィードバック入力からなっており、実時間リ
カレント学習(RTRL)と呼ばれる学習アルゴリズム
等により学習を行う。図7のElmanモデルでは、中間層
の一次遅れの状態をコンテクスト層にフィードバックし
ている。中間層は通常、入出力層の状態を反映して学習
の進行と共に過去の情報を含んだものとなっていくた
め、コンテクスト層は入出力の履歴を十分に反映したも
のとなる。これらのリカレントネットワークモデルは内
部にフィードバック結合を有しており、一周期前の情報
をネットワーク内に持つことで、時系列データの履歴の
把握が可能である。The Williams & Zipser model shown in FIG. 6 is a mutual connection type neural network, and all outputs are fed back to the input side. The input layer includes an external input and a feedback input, and performs learning using a learning algorithm called real-time recurrent learning (RTRL). In the Elman model of FIG. 7, the state of the first-order delay of the hidden layer is fed back to the context layer. The middle layer usually includes past information as the learning progresses, reflecting the state of the input / output layer. Therefore, the context layer sufficiently reflects the input / output history. These recurrent network models have a feedback connection inside, and it is possible to grasp the history of time-series data by having information one cycle before in the network.
【0004】さて、これらのニューラルネットワークの
適用の仕方は様々であるが、一般にニューラルネットワ
ークに過去の多くの事例をあらかじめ学習させておき、
使用時に学習済みのニューラルネットワークを用いて各
種の予測・制御を行っている。従来、この学習・予測に
用いる入力変数(入力データ)は、各分野の熟練者や専
門家が経験や実験的な結果に基づいて決定していた。[0004] These neural networks can be applied in various ways. Generally, neural networks are made to learn many past cases in advance.
Various predictions and controls are performed using a neural network that has been trained during use. Conventionally, input variables (input data) used for the learning and prediction have been determined by experts and experts in various fields based on experience and experimental results.
【0005】具体的には、出力は予測値・制御量・状態
など目的とする値そのものであり、一意的に決定され
る。また、中間層の素子数は、情報量基準としてのAI
Cに代表される情報量を用いて統計的に決定したり、図
5のような階層型ニューラルネットワークの中間層に限
定した評価基準であるBadness Factor,Goodness Facto
r, Effectiveness Factor等の基準により決定してい
る。しかし、入力変数は、温度・流れなど様々な種類が
あり、一意的に決定できない。従来では、回帰式、統計
処理、直感などの方法で選んだ入力変数をそのまま用い
たり、ニューロの学習を何度も行い、その中で最も良好
な結果が得られる入力変数を選ぶなど、実験的に決定す
る方法が採られていた。Specifically, the output is a target value itself such as a predicted value, a control amount, and a state, and is uniquely determined. The number of elements in the intermediate layer is determined by AI as an information amount reference.
Badness Factor and Goodness Facto, which are statistically determined using the information amount represented by C or are evaluation criteria limited to the intermediate layer of a hierarchical neural network as shown in FIG.
Determined based on criteria such as r and Effectiveness Factor. However, there are various types of input variables such as temperature and flow and cannot be uniquely determined. Conventionally, input variables selected by methods such as regression formulas, statistical processing, and intuition can be used as they are, or neuro learning can be performed many times, and the input variables that provide the best results can be selected. The method of determining was adopted.
【0006】[0006]
【発明が解決しようとする課題】ここで問題となるの
は、所望の出力を得るためにはどのような入力変数(入
力データ)が必要であるか、必ずしも明確ではないとい
うことである。これは、ニューラルネットワークの適用
分野が非線形であることに起因している。一般に、出力
値の精度を上げるためには充分に多くのデータが必要で
ある。しかし、出力と関係のないデータを入力すると、
そのデータはノイズとして働くことがあり、学習精度、
予測精度を悪化させる原因となる。また、入力データ数
が多いと、ニューラルネットワークの規模が大きくかつ
複雑になり、学習時間の長期化や局所解への収束危険性
の増加を招く。The problem here is that it is not always clear what input variables (input data) are needed to obtain the desired output. This is due to the nonlinear application field of the neural network. Generally, a sufficiently large amount of data is required to improve the accuracy of an output value. However, if you enter data that has nothing to do with the output,
That data can act as noise,
This may cause the prediction accuracy to deteriorate. Further, when the number of input data is large, the scale of the neural network becomes large and complicated, which leads to a long learning time and an increased risk of convergence to a local solution.
【0007】入力データ数をも含めた入力層の最適化方
法には、感度解析を適用する方法も考えられなくもない
が、一般に適用が難しく良好な結果が望めない。感度解
析は入力誤差の影響を判断する手法であり、入力データ
にゆらぎを与えて出力への影響を計るもので、残念なが
ら線形や非線形の限られた範囲の解析に対しては強力な
ツールであるが、非線形の広い範囲の感度は良好に求め
ることができない。非線形の系では計算する点において
感度が異なるので、客観的・定量的な判断が難しい。そ
のため、感度解析を適用して自動的に入力層を最適化す
ることは困難である。As a method of optimizing the input layer including the number of input data, there is no conceivable way to apply a sensitivity analysis, but it is generally difficult to apply the method and good results cannot be expected. Sensitivity analysis is a method to determine the effect of input errors, and measures the effect on output by fluctuating input data.Unfortunately, it is a powerful tool for analysis in a limited range of linear and nonlinear. However, a wide range of non-linear sensitivities cannot be obtained well. In a non-linear system, the sensitivity differs in the point of calculation, so it is difficult to make an objective and quantitative judgment. Therefore, it is difficult to automatically optimize the input layer by applying the sensitivity analysis.
【0008】本発明はこれらの点に鑑みてなされたもの
で、感度解析等の方法によらず、不要データを削除して
適切な入力データのみを用いるようにした入力層最適化
方法を提供しようとするものである。The present invention has been made in view of the above points, and provides an input layer optimizing method in which unnecessary data is deleted and only appropriate input data is used irrespective of a method such as sensitivity analysis. It is assumed that.
【0009】[0009]
【課題を解決するための手段】上記課題を解決するた
め、本発明は、複数のデータが入力される入力層を持つ
ニューラルネットワークにおいて、ニューラルネットワ
ークの学習により変化する入力層と中間層または出力層
との間の結合係数を評価し、その結果に応じて入力デー
タ中の不要データを検出し除去することにより、ニュー
ラルネットワークの入力層を最適化するものである。In order to solve the above-mentioned problems, the present invention relates to a neural network having an input layer to which a plurality of data are input, wherein the input layer and the intermediate layer or the output layer change by learning of the neural network. Is evaluated, and unnecessary data in the input data is detected and removed according to the result, thereby optimizing the input layer of the neural network.
【0010】[0010]
【発明の実施の形態】まず、本発明では、ニューラルネ
ットワークの学習において、入力データのうち不要なデ
ータを検出して入力層の最適化を行うようにした。すな
わち、本発明は、所望の出力に関連しない不要データが
ニューラルネットワークに入力されていた場合、これら
の不要データを、学習中もしくは学習終了後に検出して
除去するものである。First, in the present invention, in learning a neural network, unnecessary data is detected from input data to optimize an input layer. That is, the present invention detects and removes unnecessary data during or after learning when unnecessary data that is not related to a desired output is input to the neural network.
【0011】図1は、本発明の実施形態が適用されるニ
ューラルネットワークモデルを概念的に示したものであ
る。ネットワークの外部入力には必要データと共に不必
要データが入力されているが、入力層と出力層との間の
結合のうち必要データと繋がる結合は強化され、不要デ
ータと繋がる結合は弱くなる。この特徴に着目して、以
下の数式1(Goodness Factorに対応する)または数式
2(Effectiveness Factorに対応する)で示される評価
式により、不要データを検出する。FIG. 1 conceptually shows a neural network model to which an embodiment of the present invention is applied. Unnecessary data as well as necessary data are input to the external input of the network, but of the connection between the input layer and the output layer, the connection connected to the required data is strengthened, and the connection connected to the unnecessary data is weakened. Paying attention to this feature, unnecessary data is detected by an evaluation formula shown by the following Expression 1 (corresponding to Goodness Factor) or Expression 2 (corresponding to Effectiveness Factor).
【0012】[0012]
【数1】Goodi=Σ(wij・ii)2 ## EQU1 ## Good i = Σ (w ij · i i ) 2
【0013】[0013]
【数2】Effecti=Σwij 2 [Equation 2] Effect i = Σw ij 2
【0014】これらの数式において、wijは入力素子i
と出力素子jとの間の結合係数であり、iiは入力素子
iへの入力データである。また、数式1のGoodiは
入力素子iが出力する情報の二乗和であって情報量を基
準とした評価式であり、数式2のEffectiはネッ
トワーク構造に着目した評価式である。数式1のGoo
diは右辺に入力データiiがあるので、すべての学習パ
ターンに対して評価を行い、その平均や総和などとして
求める必要がある。他方、数式2のEffectiは、
入力データが正規化され、その分布に偏りがないときに
用いる。このEffectiは、入力データiiがない分
だけGoodiよりも高速に計算することができる。In these equations, w ij is the input element i
Is a coupling coefficient between the input element i and the output element j, and ii is input data to the input element i. Good i in Expression 1 is a sum of squares of information output from the input element i and is an evaluation expression based on the amount of information, and Effect i in Expression 2 is an evaluation expression focusing on the network structure. Goo of Equation 1
Since d i is the input data i i into the right side evaluates to all training patterns, it is necessary to determine the like average or sum. On the other hand, Effect i in Equation 2 is
Used when input data is normalized and its distribution is unbiased. This Effect i can be calculated faster than Good i because there is no input data i i .
【0015】これらのGoodi及びEffectiは、
従来、中間層削除アルゴリズムに適用していた評価基準
の概念を入力層最適化のために特化変更して適用したも
のであり、フィードフォワード階層型以外のネットワー
クタイプにも適用可能である。These Good i and Effect i are:
The concept of the evaluation criterion that has been conventionally applied to the hidden layer elimination algorithm is specially modified for the input layer optimization and applied, and is applicable to network types other than the feedforward hierarchical type.
【0016】図2は、上記評価式を用いて不要データを
削除することにより入力層を最適化する一連の処理を示
すフローチャートである。従来と比べると、入力を評価
し、その結果に応じて入力変数を変更する処理を加える
だけで実現可能である。以下、図2における各処理の内
容を説明する。FIG. 2 is a flowchart showing a series of processes for optimizing the input layer by deleting unnecessary data using the above evaluation formula. Compared with the related art, it can be realized only by adding a process of evaluating an input and changing an input variable according to the result. Hereinafter, the contents of each process in FIG. 2 will be described.
【0017】(1)学習(S1) ニューラルネットワークによる通常の学習処理である。
最初に学習する時には必要十分な数の入力変数(入力デ
ータ)を用意する。ここで、学習アルゴリズムには前述
の実時間リカレント学習やバックプロパゲーション(誤
差逆伝播)等、様々なものがあるが、学習アルゴリズム
自体は本発明の要旨ではないため説明を省略する。(1) Learning (S1) This is a normal learning process using a neural network.
When learning for the first time, a necessary and sufficient number of input variables (input data) are prepared. Here, there are various learning algorithms, such as the above-described real-time recurrent learning and back propagation (backpropagation), but the learning algorithm itself is not the gist of the present invention, and thus the description is omitted.
【0018】(2)入力評価(S21) 学習後または学習と並行して行う。具体的には、入力層
から出る結合係数wijを用いて、前記数式1または数式
2等によりGoodiやEffectiを求める。評価の
方法自体は種々考えられるが、例えば、GoodiやE
ffectiの値がある設定値以上になる時の入力デー
タを必要データ、それ以外を不要データとする等の方法
があり得る。(2) Input evaluation (S21) This is performed after or in parallel with learning. More specifically, Good i and Effect i are obtained by using the coupling coefficient w ij coming out of the input layer and the above-mentioned equation (1) or equation (2). Although various evaluation methods can be considered, for example, Good i and E
There may be a method in which the input data when the value of f.sub.fect i becomes equal to or greater than a certain set value is required data, and the other data is unnecessary data.
【0019】(3)終了判定(S3) 入力評価(S21)の結果、不要データがあるか否かを
判定し、なければ終了する。不要データがある場合に
は、下記の入力変数の変更(S22)を行ってから再度
学習する(S1)。(3) Termination determination (S3) As a result of the input evaluation (S21), it is determined whether or not there is unnecessary data. If there is unnecessary data, the following input variables are changed (S22), and learning is performed again (S1).
【0020】(4)入力変数の変更(S22) このステップでは、入力評価(S21)により検出され
た不要データを削除する。この処理は、従来、オペレー
タが手作業により試行錯誤的に行っていたものである
が、本実施形態では入力評価(S21)によって不要デ
ータが定量的かつ自動的に評価、検出できるので、客観
的かつ高速に入力変数を変更することが可能である。(4) Change of input variables (S22) In this step, unnecessary data detected by the input evaluation (S21) is deleted. Conventionally, this processing is manually performed by an operator by trial and error. However, in the present embodiment, unnecessary data can be quantitatively and automatically evaluated and detected by the input evaluation (S21). It is possible to change input variables at high speed.
【0021】[0021]
【実施例】学習データを表1に示す。入力データは出力
データy(t)=2sin(t)との間で大きな相関関
係のあるx1(t)=sin(t)と、出力データy
(t)に全く関係のないx2(t)(=ランダムノイ
ズ)とした。ただし、t=0,π/18,2π/18,
……,6π (108データ)である。本発明の入力層最
適化機能により、不要データとしてのランダムノイズが
入力されている素子を検出することを試みる。EXAMPLE Table 1 shows the learning data. The input data has x1 (t) = sin (t) which has a large correlation with the output data y (t) = 2 sin (t), and the output data y
X2 (t) (= random noise), which has nothing to do with (t). Where t = 0, π / 18, 2π / 18,
.., 6π (108 data). The input layer optimization function of the present invention attempts to detect an element to which random noise as unnecessary data is input.
【0022】[0022]
【表1】 [Table 1]
【0023】学習条件を表2に示す。対象としたネット
ワークモデルは図6、図7に示したWilliams & Zipser
モデル、Elmanモデルである。評価式としては、数式2
のEffectiveness Factorを用いた。Table 2 shows the learning conditions. The target network model is Williams & Zipser shown in Figs.
Model, Elman model. Equation 2 is used as the evaluation equation.
Effectiveness Factor was used.
【0024】[0024]
【表2】 [Table 2]
【0025】図3(Williams & Zipserモデル)、図4
(Elmanモデル)は学習結果を示している。何れの場合
も入力データx1(t)=sin(t)が与えられた入
力素子のEffectiveness Factor(数式2の値)は学習回
数が増加するにつれて大きくなるが、ランダムノイズが
与えられた入力素子のEffectiveness Factorはほとんど
0のままで変化がない。言い換えれば、学習が進むにつ
れて出力データy(t)=2sin(t)に大きな相関
関係を持つデータx1(t)=sin(t)sinの入
力素子の重要度(Effectiveness Factor)は増すが、不
要な入力データx2(t)であるランダムノイズの入力
素子の重要度は低いままである。このことから、出力へ
の貢献度の低い不要入力データを検出でき、これらの不
要データを削除することにより、ニューラルネットワー
クの入力層の最適化が可能になる。なお、図3、図4に
は、出力データの絶対値誤差も併せて示してある。この
絶対値誤差は、学習回数が増加するに従って減少してい
るのが分かる。FIG. 3 (Williams & Zipser model), FIG. 4
(Elman model) shows the learning result. In any case, the Effectiveness Factor (the value of Expression 2) of the input element to which the input data x1 (t) = sin (t) is given increases as the number of times of learning increases. Effectiveness Factor remains almost 0 and does not change. In other words, as the learning progresses, the importance (Effectiveness Factor) of the input element of the data x1 (t) = sin (t) sin having a large correlation with the output data y (t) = 2sin (t) increases, but is unnecessary. The importance of the input element of random noise that is the input data x2 (t) remains low. From this, unnecessary input data having a low contribution to the output can be detected, and by deleting these unnecessary data, the input layer of the neural network can be optimized. 3 and 4 also show the absolute value error of the output data. It can be seen that this absolute value error decreases as the number of times of learning increases.
【0026】[0026]
【発明の効果】以上のように本発明によれば、ニューラ
ルネットワークに入力されている不要データを客観的・
定量的に評価することができ、ネットワークの入力層の
最適化、学習時間の短縮を図ることができる。また、通
常、ニューラルネットワークの学習には多くの試行錯誤
的な入力変数の選択処理が行われるが、この過程を大幅
に短縮することが可能となる。As described above, according to the present invention, unnecessary data input to a neural network is objectively and
Quantitative evaluation can be performed, and the input layer of the network can be optimized and the learning time can be reduced. In addition, usually, neural network learning involves many trial-and-error input variable selection processes. This process can be greatly reduced.
【0027】例えば、ニューラルネットワークを用いて
翌日の電力需要量の最大値を予測する日最大電力予測に
おいて、気象と電力需要量との相関が強く、気象を入力
データとすることにより電力需要量を予測できることが
知られている。しかし、入力データとして、具体的にど
の気象条件がどのくらい必要であるかは明確には分から
ない。例えば、最高・最低気温を用いる例もあれば、特
定時間の気温を用いる例もある。また、ニューラルネッ
トワークには通常、過去数日分のデータを入力している
が、何日前のデータまで入力する必要があるかといった
明確な基準はない。更に、入力変数の組合わせは莫大で
あり、その全てを検証することは事実上不可能である。
現実問題として、日最大電力の研究は過去数年来行われ
ている。このような例は、ダム流入量予測、平均株価予
測、溶接溶融池制御、ロボット制御など、ニューラルネ
ットワークが適用される全ての分野において共通の問題
である。For example, in a daily maximum power prediction for predicting the maximum value of the power demand on the next day using a neural network, the correlation between the weather and the power demand is strong, and the power demand is calculated by using the weather as input data. It is known that it can be predicted. However, it is not clear exactly which weather conditions and how much are required as input data. For example, there is an example in which the maximum and minimum temperatures are used, and an example in which the temperature at a specific time is used. In addition, the neural network normally inputs data for the past several days, but there is no clear standard as to how many days ago data needs to be input. Furthermore, the combination of input variables is enormous, and it is virtually impossible to verify all of them.
As a practical matter, research on daily maximum power has been conducted for the past several years. Such an example is a common problem in all fields to which a neural network is applied, such as dam inflow prediction, average stock price prediction, weld pool control, and robot control.
【0028】従って、本発明を用いれば、不要な入力デ
ータを簡単に検出し除去することが可能であり、研究期
間の短縮、ネットワークの最適化による学習精度、予測
精度の向上、処理時間の短縮が期待できる。Therefore, according to the present invention, unnecessary input data can be easily detected and removed, thereby shortening the research period, improving learning accuracy and prediction accuracy by optimizing a network, and reducing processing time. Can be expected.
【図1】本発明の実施形態が適用されるニューラルネッ
トワークモデルの概念図である。FIG. 1 is a conceptual diagram of a neural network model to which an embodiment of the present invention is applied.
【図2】本発明の実施形態において入力層を最適化する
一連の処理を示すフローチャートである。FIG. 2 is a flowchart showing a series of processes for optimizing an input layer in the embodiment of the present invention.
【図3】本発明の実施例におけるEffectiveness Factor
及び出力データの絶対値誤差を示す図である。FIG. 3 is an Effectiveness Factor according to an embodiment of the present invention.
FIG. 7 is a diagram illustrating an absolute value error of output data.
【図4】本発明の実施例におけるEffectiveness Factor
及び出力データの絶対値誤差を示す図である。FIG. 4 is an Effectiveness Factor according to the embodiment of the present invention.
FIG. 7 is a diagram illustrating an absolute value error of output data.
【図5】階層型モデルの概念図である。FIG. 5 is a conceptual diagram of a hierarchical model.
【図6】Williams & Zipserモデルの概念図である。FIG. 6 is a conceptual diagram of a Williams & Zipser model.
【図7】Elmanモデルの概念図である。FIG. 7 is a conceptual diagram of an Elman model.
Claims (1)
ニューラルネットワークにおいて、 ニューラルネットワークの学習により変化する入力層と
中間層または出力層との間の結合係数を評価し、その結
果に応じて入力データ中の不要データを検出し除去する
ことを特徴とするニューラルネットワークの入力層最適
化方法。In a neural network having an input layer to which a plurality of data is input, a coupling coefficient between an input layer and an intermediate layer or an output layer, which is changed by learning of the neural network, is evaluated, and according to the result, An input layer optimization method for a neural network, comprising detecting and removing unnecessary data from input data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9092052A JPH10283334A (en) | 1997-04-10 | 1997-04-10 | Input layer optimizing method for neural network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9092052A JPH10283334A (en) | 1997-04-10 | 1997-04-10 | Input layer optimizing method for neural network |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH10283334A true JPH10283334A (en) | 1998-10-23 |
Family
ID=14043750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP9092052A Pending JPH10283334A (en) | 1997-04-10 | 1997-04-10 | Input layer optimizing method for neural network |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH10283334A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007096954A1 (en) * | 2006-02-22 | 2007-08-30 | Saga University | Neural network device and its method |
US7840508B2 (en) | 2006-04-06 | 2010-11-23 | Sony Corporation | Information processing apparatus, information processing method, and program |
US8135653B2 (en) | 2007-11-20 | 2012-03-13 | Hitachi, Ltd. | Power plant control device which uses a model, a learning signal, a correction signal, and a manipulation signal |
JP2014046889A (en) * | 2012-09-03 | 2014-03-17 | Mazda Motor Corp | Vehicle control device |
-
1997
- 1997-04-10 JP JP9092052A patent/JPH10283334A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007096954A1 (en) * | 2006-02-22 | 2007-08-30 | Saga University | Neural network device and its method |
JP5002821B2 (en) * | 2006-02-22 | 2012-08-15 | 国立大学法人佐賀大学 | Neural network device and method thereof |
US7840508B2 (en) | 2006-04-06 | 2010-11-23 | Sony Corporation | Information processing apparatus, information processing method, and program |
US8135653B2 (en) | 2007-11-20 | 2012-03-13 | Hitachi, Ltd. | Power plant control device which uses a model, a learning signal, a correction signal, and a manipulation signal |
US8554706B2 (en) | 2007-11-20 | 2013-10-08 | Hitachi, Ltd. | Power plant control device which uses a model, a learning signal, a correction signal, and a manipulation signal |
JP2014046889A (en) * | 2012-09-03 | 2014-03-17 | Mazda Motor Corp | Vehicle control device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Benrhmach et al. | Nonlinear autoregressive neural network and extended Kalman filters for prediction of financial time series | |
Asprey et al. | Statistical tools for optimal dynamic model building | |
Tan et al. | Neural-network-based d-step-ahead predictors for nonlinear systems with time delay | |
Grieu et al. | Artificial intelligence tools and inverse methods for estimating the thermal diffusivity of building materials | |
Qin | Neural networks for intelligent sensors and control—practical issues and some solutions | |
Lazar et al. | A neural predictive controller for non-linear systems | |
JP2005504367A (en) | Combinatorial method for monitoring neural network learning | |
Wild et al. | An experimental design strategy for designing robust systems using discrete-event simulation | |
Callow et al. | Development of hybrid optimisation method for Artificial Intelligence based bridge deterioration model—Feasibility study | |
WO2019160138A1 (en) | Causality estimation device, causality estimation method, and program | |
Taffese | Case-based reasoning and neural networks for real estate valuation. | |
Eng et al. | Forecast forex with ANN using fundamental data | |
JPH06337852A (en) | Time series prediction method by neural network | |
Xie | Software reliability models—A selected annotated bibliography | |
WO2013167342A1 (en) | A method for computer-aided processing of models of a technical system | |
JPH10283334A (en) | Input layer optimizing method for neural network | |
Tian et al. | Software reliability prediction using recurrent neural network with Bayesian regularization | |
JP2004094437A (en) | Data prediction method and data prediction system | |
JPH0581228A (en) | Method for constituting neural network and learning/ recollecting system | |
Mohammed et al. | Predicting performance measurement of residential buildings using an artificial neural network | |
Rojek | Neural networks as prediction models for water intake in water supply system | |
JPH0895938A (en) | Method and device for learning time sequential data | |
Colò | Anomaly detection for cyber security: time series forecasting and deep learning | |
Shojaee et al. | Integration of production–maintenance planning and monitoring simple linear profiles via Hotelling's T2 control chart and particle swarm optimization | |
Bassi et al. | Medium term electric load forecasting using TLFN neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050105 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20050426 |