JPH06162234A - Inference method and structure determining method for neural network using method thereof - Google Patents

Inference method and structure determining method for neural network using method thereof

Info

Publication number
JPH06162234A
JPH06162234A JP4330944A JP33094492A JPH06162234A JP H06162234 A JPH06162234 A JP H06162234A JP 4330944 A JP4330944 A JP 4330944A JP 33094492 A JP33094492 A JP 33094492A JP H06162234 A JPH06162234 A JP H06162234A
Authority
JP
Japan
Prior art keywords
neural network
inference
input
equation
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4330944A
Other languages
Japanese (ja)
Inventor
Sumio Watanabe
澄夫 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP4330944A priority Critical patent/JPH06162234A/en
Publication of JPH06162234A publication Critical patent/JPH06162234A/en
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

PURPOSE:To constitute the method so that a neural network can be interpreted, and adjustment and a change after learning the neural network can be executed easily, when the neural network is applied to various products and allowed to execute an inference operation. CONSTITUTION:When a dimension of an input (x) and dimension of an output (y) are denoted as M and N, respectively, and the relation of the input (x) and the output (y) is shown by simultaneous probability P(w; x, y) having a parameter (w), this neural network 1 constitutes it of probabilistic integration of an inference rule, and executes probability inference. That is, by approximating the simultaneous probability P(w; x, y) by the sum (probabilistic integration) of inference rules Qi(w; x), Ri(w; y/x), the neural network is realized. Accordingly, with respect to this simultaneous probability P(w; x, y), interpretation of an if-then format can be executed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、文字認識,画像認識,
音声認識,ロボット制御等の種々の分野に利用可能な推
論方法およびそれを用いたニュ−ラルネットワ−クの構
造決定方法に関する。
BACKGROUND OF THE INVENTION The present invention relates to character recognition, image recognition,
The present invention relates to an inference method applicable to various fields such as voice recognition and robot control, and a method for determining a structure of a neural network using the inference method.

【0002】[0002]

【従来の技術】近年、ニュ−ラルネットワ−クを利用し
て、各種の推論を行なわせる製品が多数市販されてお
り、このような製品に用いられるニュ−ラルネットワ−
クのモデルとして、従来では、関数近似型の確率モデル
や、ボルツマンマシン型のモデルが知られている。この
種のニュ−ラルネットワ−クでは、入力xと出力yとの
例,すなわちデ−タサンプルから、パラメ−タwの最適
化を学習により行なうことによって、入出力の同時確率
P(w;x,y)を獲得するようになっている。このよ
うに、パラメ−タwをもつ同時確率P(w;x,y)に
よって入力xと出力yとの関係が表わされる場合を考え
ると、上記関数近似型の確率モデルのニュ−ラルネット
ワ−クでは、同時確率P(w;x,y)として次式を用
いて、確率推論を行なうようになっている。
2. Description of the Related Art In recent years, a large number of products for making various inferences by using a neural network are commercially available, and the neural network used for such products is available.
In the past, function approximation type probabilistic models and Boltzmann machine type models are known as Ku's models. In this type of neural network, the optimization of parameter w is performed by learning from the example of input x and output y, that is, data sample, so that the simultaneous probability P (w; x of input / output). , Y). Considering the case where the relation between the input x and the output y is represented by the joint probability P (w; x, y) having the parameter w in this way, the neural network of the above-mentioned function approximation type probabilistic model is considered. Then, probability inference is performed using the following equation as the joint probability P (w; x, y).

【0003】[0003]

【数1】 [Equation 1]

【0004】ここで、Nは入力の次元,R(x)は入力
の確率密度,σは出力の標準偏差,φ(w;x)は近似
に用いられる関数をそれぞれ表わしている。
Here, N represents the dimension of the input, R (x) represents the probability density of the input, σ represents the standard deviation of the output, and φ (w; x) represents the function used for the approximation.

【0005】また、ボルツマン型の確率モデルのニュ−
ラルネットワ−クでは、同時確率P(w;x,y)とし
て次式を用いて、確率推論を行なうようになっている。
In addition, the Boltzmann stochastic model
In the Lar network, probability inference is performed by using the following equation as the joint probability P (w; x, y).

【0006】[0006]

【数2】 [Equation 2]

【0007】ここで、Z(w)は分配関数,hは中間層,
sは直和s=x(+)h(+)yをそれぞれ表わしている。
なお、上記のようなニュ−ラルネットワ−クのモデルに
ついては、例えば、著者「渡辺,福水」による文献
「“ニュ−ラルネットワ−クの統一理論と新しいモデル
の提案” 電子情報通信学会,ニューロコンピューティ
ング研究会 1992年3月18日第179〜186
頁」にその詳細が示されている。
Where Z (w) is a partition function, h is an intermediate layer,
s represents the direct sum s = x (+) h (+) y.
For the model of the neural network as described above, see, for example, the article "Watanabe, Fukumizu" in "A unified theory of neural networks and a proposal of a new model", The Institute of Electronics, Information and Communication Engineers, Neurocompute. Study Group, March 18, 1992, 179-186
The details are shown in "Page".

【0008】[0008]

【発明が解決しようとする課題】しかしながら、従来で
は、上記のようなニュ−ラルネットワ−クの各モデルを
種々の製品に適用して、推論動作を行なわせる場合に、
各モデルについての解釈が極めて困難であり、十分に解
釈がなされていないため、ニュ−ラルネットワ−クを学
習した後の調整や変更を容易に行なうことができないと
いう問題があった。
However, conventionally, when each model of the neural network as described above is applied to various products and an inference operation is performed,
Since the interpretation of each model is extremely difficult and not sufficiently done, there is a problem that adjustments and changes after learning the neural network cannot be easily performed.

【0009】本発明は、ニュ−ラルネットワ−クを種々
の製品に適用して推論動作を行なわせるときに、ニュ−
ラルネットワ−クの解釈が可能となり、ニュ−ラルネッ
トワ−クを学習した後の調整や変更を容易に行なうこと
の可能な推論方法およびそれを用いたニュ−ラルネット
ワ−クの構造決定方法を提供することを目的としてい
る。
According to the present invention, when the neural network is applied to various products to make an inference operation,
To provide an inference method capable of interpreting a laural network and capable of easily making adjustments and changes after learning the neural network, and a method for determining a structure of a neural network using the inference method. It is an object.

【0010】[0010]

【課題を解決するための手段および作用】上記目的を達
成するために、本発明は、入出力の関係を少なくとも1
つの推論ル−ルの確率的統合によって構成することを特
徴としている。これにより、ニュ−ラルネットワ−クの
解釈が可能となり、ニュ−ラルネットワ−クを学習した
後の調整や変更を容易に行なうことができる。
In order to achieve the above object, the present invention has at least one input / output relationship.
It is characterized by constructing by probabilistic integration of one inference rule. As a result, it is possible to interpret the neural network, and it is possible to easily make adjustments and changes after learning the neural network.

【0011】[0011]

【実施例】以下、本発明の実施例を図面に基づいて説明
する。図1は本発明に係る推論方法が適用されるニュ−
ラルネットワ−クの概念図である。このニュ−ラルネッ
トワ−ク1は、入力xの次元をM,出力yの次元をNと
し、入力xと出力yとの関係がパラメ−タwをもつ同時
確率P(w;x,y)によって表わされるときに、この
確率密度P(w;x,y)を次式のように近似して、確
率推論を行なうようになっている。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows a case in which the inference method according to the present invention is applied.
It is a conceptual diagram of a Lar network. In this neural network 1, the dimension of the input x is M, the dimension of the output y is N, and the relation between the input x and the output y is a joint probability P (w; x, y) having a parameter w. When represented, the probability density P (w; x, y) is approximated by the following equation to perform probability inference.

【0012】[0012]

【数3】 [Equation 3]

【0013】また、ニュ−ラルネットワ−ク1は、入力
と出力との例,すなわちデ−タサンプル{(xi,yi);
i=1,2,…,S}からパラメ−タwを学習すること
によって、上記確率密度P(w;x,y)を最適化する
学習機能を有しており、この学習を次式によって行なう
ようになっている。
The neural network 1 is an example of input and output, that is, data samples {(xi, yi);
It has a learning function of optimizing the probability density P (w; x, y) by learning the parameter w from i = 1, 2, ..., S}. I am supposed to do it.

【0014】[0014]

【数4】 [Equation 4]

【0015】ところで、数3において、Qh(w;x)は
入力の生起確率であり、またRh(w;y|x)は、入力
xが与えられたときの出力yの条件付確率であり、これ
によって推論のル−ルが定められる。すなわち、本実施
例では、確率密度,すなわち同時確率P(w;x,y)
を推論ル−ルQi(w;x)Ri(w;y|x)の和(確率的
統合)によって近似することによりニュ−ラルネットワ
−クを実現しており、従って、この同時確率P(w;
x,y)に対し、次式のようなif−then形式の解
釈を行なうことができる。
In Equation 3, Q h (w; x) is the occurrence probability of the input, and R h (w; y | x) is the conditional probability of the output y when the input x is given. , Which defines the rules of reasoning. That is, in this embodiment, the probability density, that is, the joint probability P (w; x, y)
Is approximated by the sum (stochastic integration) of the inference rule Q i (w; x) R i (w; y | x) to realize the neural network. Therefore, this joint probability P (w;
x-y) can be interpreted in the if-then format as follows.

【0016】[0016]

【数5】If x is Q1,then y is R1, else if x is Q2,then y is R2, else if x is Q3,then y is R3, …………… else if x is QH,then y is RH If x is Q 1 , then y is R 1 , else if x is Q 2 , then y is R 2 , else if x is Q 3 , then is is R 3 , …………… else if x is Q H , then is is RH

【0017】これにより、ニュ−ラルネットワ−ク1の
解釈を行なうことができる。また、上記の推論ル−ルQ
i(w;x)Ri(w;y|x)が与えられたときにファジィ
推論を構成するときと同様に、ニュ−ラルネットワ−ク
1の構造を決定し、ニュ−ラルネットワ−ク1を設計す
ることができる。
Thus, the neural network 1 can be interpreted. Also, the above inference rule Q
i (w; x) R i (w; y | x) is given, the structure of the neural network 1 is determined and the neural network 1 is determined in the same manner as when the fuzzy reasoning is constructed. Can be designed.

【0018】いま例えば、ニュ−ラルネットワ−ク1が
数1で表わされるような関数近似型の確率密度P(w;
x,y)を用いる場合について考察する。関数近似型の
確率密度P(w;x,y)は多くの用途で有効であるこ
とが知られているが、前述したように、どのような推論
を行なっているかを知る事ができないため、調整や変更
が難しいという工学的な問題点があった。本実施例で
は、学習データを用いてニュ−ラルネットワ−ク1が学
習を完了したとき、このニュ−ラルネットワ−クの推論
ル−ルを次のように解釈することができる。すなわち、
ニュ−ラルネットワ−ク1は、先ず、学習デ−タを用い
て、数1における入力の確率密度R(x)を次式のよう
な形で推定する。すなわち、正規分布の線形和を利用し
て推定する。
Now, for example, the probability density P (w; of the function approximation type in which the neural network 1 is expressed by the equation 1 is used.
Consider the case of using x, y). It is known that the function approximation type probability density P (w; x, y) is effective in many applications, but as described above, it is not possible to know what kind of inference is being performed. There was an engineering problem that adjustment and change were difficult. In the present embodiment, when the neural network 1 has completed learning using the learning data, the inference rule of this neural network can be interpreted as follows. That is,
The neural network 1 first estimates the probability density R (x) of the input in Equation 1 using the learning data in the form of the following equation. That is, the linear sum of normal distribution is used for the estimation.

【0019】[0019]

【数6】 [Equation 6]

【0020】なお、ここで、パラメ−タw'={ch
h,ρ}は、最尤推定法により、次式によって求めるこ
とができる。
Here, the parameter w '= {c h ,
x h , ρ} can be obtained by the following equation by the maximum likelihood estimation method.

【0021】[0021]

【数7】 [Equation 7]

【0022】上記数6を数1に代入すると、確率密度P
(w;x,y)は次式のようになる。
Substituting Equation 6 into Equation 1, the probability density P
(w; x, y) is given by the following equation.

【0023】[0023]

【数8】 [Equation 8]

【0024】ところで、関数exp(−x2)は、xが大
きくなると急速に0に近付くので、yh=φ(w;xh)と
おくと、上式を次式で近似することができる。
By the way, the function exp (-x 2 ) rapidly approaches 0 when x becomes large. Therefore, by setting y h = φ (w; x h ), the above equation can be approximated by the following equation. .

【0025】[0025]

【数9】 [Equation 9]

【0026】上記数9は、数3の形をしているので、こ
のことから、数5に示されたようなif−then形式
の推論の解釈が可能である。すなわち、次式のような解
釈が可能となる。
Since the above equation 9 has the form of equation 3, it is possible to interpret the inference in the if-then format as shown in equation 5 from this. That is, the following equation can be interpreted.

【0027】[0027]

【数10】 If x is x1,then y is y1, else if x is x2,then y is y2, else if x is x3,then y is y3, …………… else if x is xH,then y is yH [Number 10] If x is x 1, then y is y 1, else if x is x 2, then y is y 2, else if x is x 3, then y is y 3, ............... else if x is x H , then y is y H

【0028】このようにして、従来では困難であったニ
ュ−ラルネットワ−クの解釈が可能となるため、学習後
のニュ−ラルネットワ−クの調整や変更が可能となる。
なお、上記の近似法では、数8において、yh=φ(w;
h)としたが、φ(w;x)を次式によって与える場合を
考える。
In this way, since it is possible to interpret the neural network, which has been difficult in the past, it is possible to adjust or change the neural network after learning.
In the above approximation method, y h = φ (w;
Although the x h), φ (w; consider the case to give x) by the following equation.

【0029】[0029]

【数11】 [Equation 11]

【0030】この場合には、数8をより精密に次式で近
似することができる。
In this case, the equation 8 can be more accurately approximated by the following equation.

【0031】[0031]

【数12】 [Equation 12]

【0032】この場合には、次式の推論解釈を行なうこ
とができる。
In this case, the following formula can be inferred and interpreted.

【0033】[0033]

【数13】 If x is x1,then y is A1x+y1, else if x is x2,then y is A2x+y2, else if x is x3,then y is A3x+y3, …………… else if x is xH,then y is AHx+yH If x is is x 1 , then y is A 1 x + y 1 , else if x x is x 2 , then y is A 2 x + y 2 , else if x is x 3 , then y is A 3 x + y 3 , .... ……… else if x is x H , then is is A H x + y H

【0034】これにより、ニュ−ラルネットワ−クの調
整や変更をより精密に行なうことが可能となる。なお、
上記例において、入力の確率密度を数6に示したように
正規分布の線形和を利用して推定し、その際に、数7に
示したように最尤推定法を用いたが、最尤推定法のかわ
りに学習デ−タのクラスタリングを利用することもでき
るし、あるいは、学習デ−タのクラスタリングを利用し
た後に最尤推定法を利用することもできる。また、入力
の生起確率を正規分布の線形和を利用して推定する際
に、その構造の最適化を情報量基準(仮定した確率分布
P(w;x,y)のモデルを評価する基準)としてのA
IC(著者「赤池」による文献「“情報量基準AICと
は何か”、数理科学,No.153,1976年,第5
〜11頁」参照)やMDL(モデルとデータの記述長を
最小にする基準)などを最小とすることにより行なうこ
ともできる。
As a result, it becomes possible to more precisely adjust and change the neural network. In addition,
In the above example, the input probability density is estimated by using the linear sum of normal distributions as shown in Equation 6, and at that time, the maximum likelihood estimation method is used as shown in Equation 7, The learning data clustering can be used instead of the estimation method, or the maximum likelihood estimation method can be used after using the learning data clustering. Also, when estimating the occurrence probability of the input using the linear sum of normal distributions, the optimization of the structure is based on the information amount (a standard for evaluating the model of the assumed probability distribution P (w; x, y)). A as
IC ("What is information standard AIC?" By author "Akaike", Mathematical Science, No. 153, 1976, 5th.
, Page 11)) and MDL (standard for minimizing the description length of the model and data).

【0035】また、ニュ−ラルネットワ−ク1が数2で
表わされるようなボルツマンマシン型の確率密度P
(w;x,y)を用いる場合にも、本実施例によれば、
以下のような解釈を行なうことができる。すなわち、い
ま例えば、入力と出力がそれぞれ連続値をとり、中間層
のユニットが“0”または“1”の値をとるようなボル
ツマンマシンを考える。このとき、仮定されている確率
密度P(w;x,y)は、次式で与えられる。
Further, a Boltzmann machine type probability density P such that the neural network 1 is represented by the equation 2
Even when (w; x, y) is used, according to the present embodiment,
The following interpretations can be made. That is, for example, consider a Boltzmann machine in which the input and the output each have a continuous value and the unit in the intermediate layer has a value of "0" or "1". At this time, the assumed probability density P (w; x, y) is given by the following equation.

【0036】[0036]

【数14】 [Equation 14]

【0037】次いで、上式を変形し、次式を得ることが
できる。
Then, the above equation can be modified to obtain the following equation.

【0038】[0038]

【数15】 [Equation 15]

【0039】数15は、数9あるいは数12と同様の形
式のものとなっており、これにより、ボルツマンマシン
型の確率密度に対しても、関数近似型の確率密度と同様
の推論解釈を行なうことができる。
The equation 15 has the same format as the equation 9 or the equation 12, so that the inference and interpretation similar to the function approximation type probability density can be performed for the Boltzmann machine type probability density. be able to.

【0040】このように、本実施例では、入出力の関
係,すなわちニュ−ラルネットワ−クを少なくとも1つ
以上の推論ル−ルの確率的統合によって構成するように
しているので、このニュ−ラルネットワ−クを種々の製
品に適用して推論動作を行なわせる場合に、このニュ−
ラルネットワ−クの解釈が容易になり、ニュ−ラルネッ
トワ−クの調整や変更を容易に行なうことができる。
As described above, in this embodiment, since the input / output relationship, that is, the neural network is constructed by the stochastic integration of at least one inference rule, this neural network is used. -If you want to apply inference operations to various products by applying this
The interpretation of the laural network becomes easy, and the neural network can be easily adjusted or changed.

【0041】また、このニュ−ラルネットワ−クが学習
の結果獲得した内容を人間が解釈することも可能にな
る。すなわち、多層パ−セプトロンの学習内容やボルツ
マンマシンの学習内容を解釈することも可能となる。そ
の結果、人間−神経回路網対話による学習などをも実現
することができる。
Further, it becomes possible for a human to interpret the contents acquired as a result of learning by this neural network. That is, it is possible to interpret the learning contents of the multilayer perceptron and the learning contents of the Boltzmann machine. As a result, it is possible to realize learning by human-neural network dialogue.

【0042】[0042]

【発明の効果】以上に説明したように、本発明によれ
ば、入出力の関係(ニュ−ラルネットワ−ク)を少なく
とも1つの推論ル−ルの確率的統合によって構成するよ
うにしているので、このニュ−ラルネットワ−クを種々
の製品に適用して推論動作を行なわせる場合に、このニ
ュ−ラルネットワ−クの解釈が容易になり、ニュ−ラル
ネットワ−クの調整や変更を容易に行なうことができ
る。
As described above, according to the present invention, the input / output relationship (neural network) is constructed by the stochastic integration of at least one inference rule. When this neural network is applied to various products to perform an inference operation, the interpretation of this neural network becomes easy, and the adjustment or change of the neural network can be easily performed. it can.

【0043】また、このニュ−ラルネットワ−クが学習
の結果獲得した内容を人間が解釈することも可能にな
り、その結果、人間−神経回路網対話による学習などを
も実現することができる。
Further, it becomes possible for a human to interpret the contents acquired as a result of learning by this neural network, and as a result, learning by human-neural network dialogue can also be realized.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の推論方法が適用されるニュ−ラルネッ
トワ−クの概念図である。
FIG. 1 is a conceptual diagram of a neural network to which the inference method of the present invention is applied.

【符号の説明】[Explanation of symbols]

1 ニュ−ラルネットワ−ク 1 neural network

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 入出力の関係に基づき確率推論を行なう
推論方法において、前記入出力の関係を少なくとも1つ
の推論ル−ルの確率的統合によって構成することを特徴
とする推論方法。
1. An inference method for performing probabilistic inference based on an input / output relationship, wherein the input / output relationship is formed by probabilistic integration of at least one inference rule.
【請求項2】 請求項1記載の推論方法において、前記
推論ル−ルを入力の生起確率と入力が与えられた時の出
力の条件付き確率とにより構成することを特徴とする推
論方法。
2. The inference method according to claim 1, wherein the inference rule comprises an occurrence probability of an input and a conditional probability of an output when an input is given.
【請求項3】 請求項1または請求項2記載の推論方法
において、前記推論ル−ルを学習によって獲得すること
を特徴とする推論方法。
3. The inference method according to claim 1, wherein the inference rule is acquired by learning.
【請求項4】 請求項3記載の推論方法において、前記
推論ル−ルを最尤推定法により獲得することを特徴とす
る推論方法。
4. The inference method according to claim 3, wherein the inference rule is obtained by a maximum likelihood estimation method.
【請求項5】 請求項3記載の推論方法において、入力
の生起確率を正規分布の線形和を利用して推定すること
を特徴とする推論方法。
5. The inference method according to claim 3, wherein the input occurrence probability is estimated by using a linear sum of normal distributions.
【請求項6】 入力と出力との例から入出力の関係を獲
得するニュ−ラルネットワ−クの構造決定方法におい
て、請求項1記載の推論方法を用いてニュ−ラルネット
ワ−クの構造を決定することを特徴とするニュ−ラルネ
ットワ−クの構造決定方法。
6. A method for determining the structure of a neural network, which obtains an input / output relationship from an example of an input and an output, wherein the structure of the neural network is determined by using the inference method according to claim 1. A method for determining the structure of a neural network, which is characterized in that
JP4330944A 1992-11-17 1992-11-17 Inference method and structure determining method for neural network using method thereof Pending JPH06162234A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4330944A JPH06162234A (en) 1992-11-17 1992-11-17 Inference method and structure determining method for neural network using method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4330944A JPH06162234A (en) 1992-11-17 1992-11-17 Inference method and structure determining method for neural network using method thereof

Publications (1)

Publication Number Publication Date
JPH06162234A true JPH06162234A (en) 1994-06-10

Family

ID=18238167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4330944A Pending JPH06162234A (en) 1992-11-17 1992-11-17 Inference method and structure determining method for neural network using method thereof

Country Status (1)

Country Link
JP (1) JPH06162234A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10755164B2 (en) 2014-09-30 2020-08-25 International Business Machines Corporation Apparatus and method for learning a model corresponding to time-series input data

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10755164B2 (en) 2014-09-30 2020-08-25 International Business Machines Corporation Apparatus and method for learning a model corresponding to time-series input data

Similar Documents

Publication Publication Date Title
Pal et al. Sequential competitive learning and the fuzzy c-means clustering algorithms
Baird Advantage updating
Kim et al. A new approach to fuzzy modeling
Lin et al. The design of neuro-fuzzy networks using particle swarm optimization and recursive singular value decomposition
Zhou et al. A functional-link-based fuzzy brain emotional learning network for breast tumor classification and chaotic system synchronization
JP7474446B2 (en) Projection Layer of Neural Network Suitable for Multi-Label Prediction
Guo et al. Robust echo state networks based on correntropy induced loss function
Singh Noise impact on time-series forecasting using an intelligent pattern matching technique
Dörfler Data-driven control: Part one of two: A special issue sampling from a vast and dynamic landscape
Castillo et al. An approach for optimization of intuitionistic and type-2 fuzzy systems in pattern recognition applications
Lin et al. An entropy-based quantum neuro-fuzzy inference system for classification applications
JPH06162234A (en) Inference method and structure determining method for neural network using method thereof
Adamy et al. Equilibria of continuous-time recurrent fuzzy systems
Maravall et al. Fusion of learning automata theory and granular inference systems: ANLAGIS. Applications to pattern recognition and machine learning
CN116795971A (en) Man-machine dialogue scene construction system based on generated language model
Emami et al. A self-organizing multi-model ensemble for identification of nonlinear time-varying dynamics of aerial vehicles
Yi et al. Global convergence of Lotka-Volterra recurrent neural networks with delays
Frauendorf et al. Artificial Intelligence (AI) and Machine Learning (ML)
Sachdeva et al. Gapformer: Fast autoregressive transformers meet rnns for personalized adaptive cruise control
Anuar et al. Advancing Fuzzy Logic: A Hierarchical Fuzzy System Approach
Valdettaro et al. Towards Offline Reinforcement Learning with Pessimistic Value Priors
JPH0535710A (en) Learning method/device for neural network
Ab Malek et al. Evolutionary tuning method for PID controller parameters of a cruise control system using metamodeling
Maciel et al. Adaptive fuzzy C-regression modeling for time series forecasting
Feng et al. Construction and application of learning petri net