JPH0395666A - パターン学習装置 - Google Patents

パターン学習装置

Info

Publication number
JPH0395666A
JPH0395666A JP1233792A JP23379289A JPH0395666A JP H0395666 A JPH0395666 A JP H0395666A JP 1233792 A JP1233792 A JP 1233792A JP 23379289 A JP23379289 A JP 23379289A JP H0395666 A JPH0395666 A JP H0395666A
Authority
JP
Japan
Prior art keywords
learning
rule
input
pattern
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1233792A
Other languages
English (en)
Inventor
Hiroaki Harada
裕明 原田
Katsuhiko Nishikawa
克彦 西川
Yasukazu Ito
伊藤 能一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP1233792A priority Critical patent/JPH0395666A/ja
Publication of JPH0395666A publication Critical patent/JPH0395666A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔概要〕 ニューラルネットワークのパターン学讐を行うパターン
学習方式に関し、 望ましい学習の仕方の知識をルール化し、これをもとに
学習を行い、効率的かつ柔軟な学背を可能にすることを
目的とし、 学習対象のニューラルネットワークと、学習させる入力
パターン(入力信号および教師信号)を格納する入力パ
ターンデータベースと、望ましい学習の仕方をルール化
して予め格納する学習則ルールベースと、この学習則ル
ールベースカラルールを取り出し、解釈・実行するルー
ルインクプリ夕とを備え、上記入力パターンデータベー
スから取り出した入力パターンを上記ニューラルネット
ワークに提示し、上記ルールインタプリタが上記学習則
ルールベースから取り出したルールを解釈し、このとき
のニューラルネットワークの入力信号、教師信号、出力
信号、および内部状態を参照して内部変数の変更、提示
する入力パターンの選択などを行い、ルールに対応した
学習を行うように構戒する。
〔産業上の利用分野〕
本発明は、ニューラルネットワークのパターン学習を行
うパターン学習方式に関するものである。
パターン認識や制御などに向いた多様なニューラル不ノ
トワークを学習させる際に、ルールを用いて動的に学習
パラメータなどを変更し、効率的な学習を行うことが望
まれている。
〔従来の技術と発明が解決しようとする課題〕従来、ニ
ューラルネフトワークは、例えば第8図(口)に示すよ
うに、人力信号の総和に応じたある大きさの出力信号を
出力するユニット(細胞)を複数、3層構造に配置して
相互を第8図(ハ)に示すように接続してネソトワーク
を形戒する。このネントワークについていわゆるバンク
プロバゲーション法によって人力信号および教師信号を
図示のように提示してその誤差をフィードバノク学習す
ることを繰り返し行い、層間の重みWを調整するように
している。この際、入力パターン(入力信号および教師
信号)の提示順序や、パターン数が固定であり、効率の
良い学習を必ずしも実現し得ないと共に、柔軟性に欠け
、例えば特定のパターンだけについて学習が進まない場
合にこれを集中的に学習させたくてもこれを行い得ない
などの問題があった。
尚、第8図構戒を簡単に説明する。
第8図(イ)において、ニューラルネットワーク5lは
第8図(ハ〉に示すように3層構造にしたネットワーク
であり、リーダ52ぱ入力パターンデータベース53か
ら人力パターン(入力信号および教師信号)を読み出し
てニューラルネットワーク51に提示するものである。
この際、ニューラルネットワーク51に固定的な内部初
期値および学習パラメータで初期化するようにしている
本発明は、望ましい学習の仕方の知識をルール化し、こ
れをもとに学背を行い、効率的かつ柔軟な学習を可能に
することを目的としている。
〔課題を解決する手段〕
第l図は、本発明の原理構成図を示す。
第1図において、ニューラルネットワーク1は、学習対
象のニューラルネットワークである。
人力パターンデータベース3は、学習させる入力パター
ン(人力信号および教師信号)を格納するデータベース
である。
学習則ルールベース4は、望ましい学習の仕方(知識)
をルール化して予め格納するルールベースである。
ルールインタプリタ5は、学習則ルールヘ− ス4から
ルールを取り出し、解釈・実行するものである。
〔作用〕
本発明は、第1図に示すように、人力パターンデータベ
ース3から取り出した入力パターン(入力信号および教
師信号)をニューラルネノトヮーク1に提示し、ルール
インタプリタ5が学習則ルールベース4から取り出した
ルールを解釈し、このときのニューラルネットワーク1
の人力信号、教師信号、出力信号、および内部状態を参
照して内部変数の変更、提示する学習バクーンの選択な
どを行い、ルールに対応した学習を行うようにしている
従って、望ましい学習の仕方の知識をルール化し、これ
をもとに学習を行うことにより、ニューラルネットワー
クlの効率的かつ柔軟な学習を行うことが可能となる。
〔実施例〕
次に、第l図から第7図を用いて本発明の1実施例の構
或および動作を順次詳細に説明する。
第1図において、ニューラル不ソトヮーク1は、学習対
象のニューラルネソトヮークであって、第INの入力層
、第2層の中間層、および第3層の出力層からなる3N
型のニューラルネットワークである。
パターンリーダ2は、人力パターンデータベース3から
人力パターンを読み出して人力信号と教師信号とに分割
し、ニューラルネソトヮークlの入力層に人力信号、出
力およびルールインクブリータ5に教師信号を提示する
ようにしている.入力パターンデータベース3は、学習
させる入力パターン(入力信号および教師信号)を格納
するデータベースである。
学習刑ルールベース4ば、望ましい学習の仕方(知識)
をルール化して予め格納するルールベースである(第4
図参照)。
ルールインタプリタ5は、学=UUルー/lzヘ−7!
.4からルールを取り出して解釈し、このときのニュー
ラルネットワーク1の入力信号、教師信号、出力信号、
および内部状態を参照して、内部変数の変更、提示する
学習バクーンの選択などを行うものである(第2図、第
3図参照)。
会話処理機構6は、オペレータがルールを入力したり、
会話しつつ学習を行ったりなどする入出力機構である。
次に、第2図に示す順序に従い、第1図構戒の動作を説
明する. 第2図において、■は、ルールベース(学習則ルールベ
ース4)からルールを1個読みだす。例えば第4図Ru
le#lを読み出す。ルールは、会話処理機構6を用い
て予め学習に関する知識をルールの形式で第4図に示す
ように記述し、学習則ルールベース4に格納しておく。
向、1回の学習を行う毎に、■以降の処理を行う。
■は、条件節解釈・実行する。これは、■で読みだした
ルールを解釈・実行する。例えば第4図Ru I e#
1のif文〔条件節)を解釈・実行し、ニューラルネッ
トワークを構戒する全てのユニノトの重みの変化ΔWが
閾値T1よりも小さいか否かを判別する。真の場合(例
えば全てのユニソトの重みの変化ΔWが閾値T1よりも
小さい場合)、■ないし[相]を実行する.偽の場合(
例えばユニソトの重みの変化ΔWが閾値Tlよりも小さ
いものがあった場合)、■ですべてのルールが偽か?否
かを判別し、YESのときに終了し、NOのときに0を
操り返し、他のルールを解釈・実行する。
■は、実行節解釈・実行する。例えば第4図Ru I 
e # 10then文(実行節)を解釈・実行し、全
てのパラメータηをη+Δη、αをα+Δαに変更する
(後述する)。
■は、内部変数を変更、および学習パターンの指示を行
う。
■は、入力パターン(学習パターン)の読み込みを行う
[相]は、ネノトワーク学習、即ちニューラルネットワ
ークlの各層間の重みWなどを調整し、学習を行う。
次に、第3図から第7図を用いて本発明の1実施例の構
或および動作を具体的に説明する。
第3図において、NNメモリ1−1は、ニューラルネッ
トワークlの内部状態を記憶するメモリであって、L1
、L2、L3、WLW2のメモリ領域から構威されてい
る。L1、L2、L3は、入力層、中間層、出力層のユ
ニソトの内部状態をまとめて記憶するメモリ領域である
.WLW2は、層間の結合情報をまとめて記憶するメモ
リ領域である。これらLl,L2、L3、W1、W2は
、バスラインを介して外部から自由に読み書きできる。
L+  (i=1、2・・・)、およびW,(i=1、
2・・・)の詳細を第6図(イ)、(ロ)にそれぞれ示
す。
ルールインタプリタ5ば、データをリードするデークリ
ーダ6−1、データをライトするデータライタ6−2、
学習則ルールベース4から取り出した条件節を解釈する
条件節解釈部7、学習則ルールベース4から取り出した
実行節を解釈する実行節解釈部8、条件節の内容を格納
する解釈部レジスタ9、変数を格納する変数指示レジス
タ10、解釈部レジスタ9に格納した内容の真偽を判定
する真偽判定部1l、データリーダ6−1によって読み
取った変数を格納する変数続出レジスタ12、実行節の
内容を格納する実行部レジスタ■3から構威されている
結合重み更tr機構14、学習パラメータ更新機構15
、バクーン選択機構16は、結合重みWを更新する機構
、学習パラメータη、αを更新する機構、学習パターン
を選択する機構である。
パターン情報メモリ37は、入力パターンデータベース
3内の全ての人力パターンに対応づけて人力不可フラグ
の○N/○FF情報を格納するメモリである。すべての
人力パターンの入力不可フラグがONになった状態で学
習動作を停止(終了)する。
乱数発生機構38は、乱数を発生する機構である。
信号伝達機構40は、各層間の信号伝達量などを計算す
る機構である。
次に、第3図構戒の動作を第4図ないし第7図を参照し
て詳細に説明する。ここで、第5図ニューラルネットワ
ーク(入力層Ll  (uL u2、u3)、第2層L
2(u4、u5)、出力層L3(u5、u7))を用い
て以下説明する。
(1)乱数発生機構38によってNNメモリ1)内のW
1、W2の全ての結合重みWjiにランダムな値を格納
する. (2)パターンリーダ2が入力パターンデータベース3
から例えば入力パターンNO.1の入力信号(1、1、
l)および教師信号(1、1)を読み出し、入力信号(
1、1、1)をNNメモリ1一l内の01、08、○,
に1、1、1として格納すると共に、教師信号(1、1
)を図示外のレジスタT内のtl、tzに1、1として
格納する。
+31W1の結合重みw4.ないしW。, W5,ない
しWHを使って入力層から第2Nへの信号を計算する。
具体的には下記式(1)、(2)に従って、第2層のユ
ニソトu 4 、IJ 5への入力信号Σ4、Σ,を求
める。
Σ4 ”” W41 Q 1  + Wa!O z +
 W4ゴo3−=(1)ΣS =W5101  +W5
202 +W5303  ・・・(2)そして、ユニン
トlla % t!sへの出力信号は、それぞれ変換関
数f.、f,によって、下式(3)、(4)を求める。
o,=f.(Σ4)・・・・・・・・・・・(3)o5
=f5(Σ,)・・・・・・・・・・・(4)同様に、
第2層から出力層への信号伝播も求める。以上の計算は
、信号伝播機構40が行う。
(4)  出力層の出力Oa 、Osが得られた後、ル
ールインタプリタ5が動作を開始し、以下の処理を行う
条件節解釈部7が学習則ルールベース4の最初のルール
から順番にサーチし、条件節に記述されている命令を実
行する。例えば第4図Ru I e9lの条件節 all−of一Δ一≦T1  ・・・・・・・・・・・
(5)という文字列を条件節解釈部7が取り出し、解釈
部レジスタ9に格納する。解釈部レジスタ9ぱ、x,c
,yという3つの部分からなり、Cは判定、XとYは対
象を表す。この場合は、X=“全てのΔW ; i  
、C−”≦9、Y=’T1”となる。変数指示レジスタ
10は、受け取った変数X(全でのΔW j i )に
ついてNNメモリ1−1から読み出すようにデータリー
ダ6−1に指示し、データリーダ6−1がNNメモリ1
−1からWl、W2のΔW.の内容をバスラインを介し
て読み出し、変数続出レジスタ12に格納する。この格
納したΔWiiの内容を解釈部レジスタ9に戻し、真偽
判定部l1がx,c,yの関係が戒立するか否かを判定
する。判定結果は、実行節解釈部8に伝達し、それに従
って学習則ルールベース4から実行節を読み出し、実行
部レジスタl3に格納する。実行部レジスタ13は、D
,XSYの3つの部分からなり、Dは命令、XとYは処
理対象を表す。第4図Ru ] ej$lでは、D=“
学習パラメータの更新゛、X一“全てのηとα゛、Y一
 ηJ.+Δη、αj,+Δα′が格納される。これら
の値は、変数指示レジスタlO、変数続出レジスタ12
を用いて読み出す。実行部レジスタ13の内容は、学習
パラメータ更新機構15に対して、ηjiとα、.のデ
ータと共に渡し、これらのデータ更新を行う。
学習パラメータ更新機構l5は、第7図(口)に?すよ
うに、η1,レジスタ31、α,,レジスタ32、Δη
レジスタ33、Δαレジスタ34から構威され、それぞ
れ加算した結果をNNメモリ1−1のηの2亥当箇所に
データライト6−2、バスラインを介して書き込み、更
新する。例えば結合重みの更新量Δw4,、ΔW51な
どの全てが闇値T1以下であれば、η。一η。+Δη、
α■−α41+Δα・・・と更新する。
以上の一連の動作が終了すると、条件節解釈部7が次の
ルールを読み出し、同様に処理をj〒う。
第4図の第2のRule#2も同様に、条件が威立した
場合、パターン選IRa構■6に処理が渡る。このとき
、実行部レジスタ13の状態は、D=“パターン選沢”
、X一“パターン番号゛、Y一“処理フラグ0″となっ
ている。パターン選択機構I6は、学習した入力バクー
ンの番号と処理フラグ(処理フラグO”は入力しない、
“l”は再入力するを表す)を対にしてパターン情報メ
モリ37に格納する。
第4図の第3のRu l e#3の条件節は“常に?”
なので、そのまま結合重み更新機構l4に処理が渡る。
結合重み更新機構l4ば、バ・7クブロパゲーション法
による結合重みの更新を第7図(イ)18ないし30の
機構で実行する。この学習は、2つのユニットjとユニ
ソトiとの間の結合重みWjiをΔWjiだけ変更する
ものである。第n回目の学習における更新量ΔWj■(
n)は下式(6)で求める。
ΔWji (n)=’7=iδJ O.+α.ΔWjt
(n−1)  ・・・・・・・・・・・・・・・・・・
f6)ただし、δ五=Oj  (1−Oj)(t、−0
j):L=3のとき δi =Oj  (L−OJ)Σk δkw,J=それ
以外のとき ここで、δji、α.、Oi、η1ば、ユニノトU,に
関する2つのパラメータ、出力信号、誤差伝播量を示す
。Δw.(n−1〕は前回の重み更新量である。δk 
、Wkjはユニノトujに結合した後の層のユニソ}u
mの誤差伝F@量と結合重みである. ここで、第7図(イ)において、レジスタ18は、処理
中の層の番号L、レジスタ19、20、21はそれぞれ
ユニットの通し番号を保持する。
レジスタl8の内容は13”から順番に減少していき、
“1”となった時点で結合重み更新機構14の全体の処
理を終わる。レジスタl9は注目しているユニソトuj
% レジスタ20はユニットU1に結合したt1層のユ
ニットu8、レジスタ2lはユニソトU、に結合した後
の層のユニットukを格納する。レジスタ18は、L層
に属するユニノト番号をjレジスタ19に与える。また
、セレクタ29に作用する。jレジスタ19ばiレジス
タ20と共にηj,レジスタ22、αiLレジスタ23
、ΔWjiレジスタ24、Oj レジスタ25、t、レ
ジスタ26、δ、レジスタ30の内容の読み書きを制御
する。kレジスタ2lはjレジスタl9と共にWkJレ
ジスタ27、δ5レジスタ28の内容の読み書きを制?
Hする。ユニ,ト番号L  i、kの徂み合せは複数あ
るので、L→j→iskの順番で内容が変化し、全ての
組み合せで計算を進める.たとえばL=3のときにはj
=6〜7、1−4〜5、k=なし、1=2のときにはj
=4〜5、i==1〜3、k=5〜7と変化する。レジ
スタ22〜28には、それぞれユニノトU,とU.間の
学習パラメータη、.とα1い重み更新量ΔWjj、ユ
ニソトu4の出力Oj%ユニットu++間の結合重み@
 W k j、ユニッ}u(の誤差伝播量δ,を格納す
る.セレクタ29は層番号Lが3の場合とそれ以外の場
合とで計算対象を切り換える働きをもつ。以上の機構で
計算された結果、レジスタ20にはユニ’7 トujに
ついての誤差伝播量δ1が格納され、学習パラメータと
の積和計算によって、レジスタ24内の重み更新量ΔW
jiを変更し、NNメモリ1−1に戻す。
ルールインタプリタ5は、ルールベース6内の最後のル
ールを解釈処理しても停止しない場合には、ルールベー
スの最初のルールから再度解釈を開梧する.学習が進行
するにつれて出力信号と教師信号との誤差が減少してい
くと、第2のルールによって入力されないパターンが増
えていく。最後に全てのパターンについて第2のルール
が或立すると、それ以上の入力パターンが入力されなく
なる。以上で全ての学習動作は停止する。本例の場合に
は、3つの入力パターンの誤差量がともに閾値T2以下
になった時点で学習が停止することになる。
以上の機構および処理手順により、ルールに従った柔軟
なニューラルネットワーク学習が可能となる。
第4図は、本発明に係る学習則ルールベース例を示す。
これは、i f − t h e n形式で3つのルー
ル、Rule#1、Ru I e#2、Rule#3を
記述したものである。
第1のRule#lは、“学習時の結合重みの更新量Δ
WがあるITIよりも全て小さければ、学習パラメータ
η、αをΔη、Δαだけそれぞれ増加させよ”というル
ールである。
第2のRu I e#2は、“学習時の誤差1iがある
lT2よりも小さければ、フラグをOにセントし、その
学習パターンを学習しなくてもよい”というルールであ
る。
第3のRu I e#3は、“真ならば、通常の学習を
せよ”というルールである。
第5図は、ニューラルネットワークと入力パターン例を
示す.ここで、ニューラルネットワークは、第1層の入
力層、第2N、および第3層の出力層から構威されてい
る。第l層の入力層はu1、u2、u3の3つであって
、これらユニットの各種値は第3図L1に格納される。
第2層はu4、u5の2つであって、これらユニソトの
各種値は第3図L2に格納される。第3Nの出力層はu
6、u7の2つであって、これらユニノトの各種値は第
3図L3に格納される。第1層の人力層から第2層への
結合重みWは、図示のようにW41ないしWa3、W1
ないしW%3であって、第3図W1にそれぞれ格納され
る。第2層から第3層の出力層への結合重みWは、図示
のようにw64、W6%zWク4、W,%であって、第
3図W2にそれぞれ格納される。
また、入力パターンデータベース3から取り出した入力
パターン番号Nol、No2、No3などに対応づけて
、入力層L1のユニットu1、u2、u3に人力する入
力信号、および出力層に対する教師信号とを模式的に示
す。例えばN01は、人力信号(1、i,l)が入力層
L1のユニットu1、u2、u3に入力され、出力層L
3の教師信号として(1、1)が提示され、既述したよ
うにバンクブロパゲーション法による学習を行いつつ、
このときの内部状態、入力パターン(人力信号、教師信
号)、出力信号などに対応して第4図学習則ルールベー
ス4かラ取り出したルールによってパラメータ、結合重
みWなどの更新、入力パターンの学習の停止処理などが
行われる。
第6図は、NNメモリ内の構造例を示す。
第6図(イ)は、第5図第INの入力層のユニソトuL
u2などに対応して、第3図NNメモリ1−1内のユニ
・ノトメモリL,に格納する情報例を示す。ここで、入
力値総和Σ,は当該ユニソトiに入力された入力信号の
総和を表し、変換関数f,は既述した式(4)、(5)
に示す変換関数を表し、出力値0,ば当咳ユニットiか
らの出力信号の値を表し、誤差伝ti量δ1は当該ユニ
ットiの誤差伝taltを表す。同様に、ユニソトu2
などについても情報が格納される。
第6図(ロ)は、結合情報メモリW.を示す。
これは、第5図入力層から第2層、第2Nから出力層へ
の図示のような結合情報を格納したものである。
第7図は、本発明に係る更新/選沢機構例を示す。
第7図(イ)は、結合重み更新機構14を示す。
これは、既述したように、層間の結合重みWを更新する
機構である。
第7図(ロ)は、学習パラメータ更新機構l5を示す。
これは、既述したように、学習パラメータを更新する機
構である。
第7図(ハ)は、パターン選択機構16を示す。
これは、既述したように、学習した人力パターンについ
て、例えば第4図Ru 1 e#2で真となったときに
、もやは学習を行う必要がない入力パターンとし、処理
フラグをセットしてパターン情報メモリ37に格納し、
学習を停止させるものである。
〔発明の効果〕
以上説明したように、本発明によれば、望ましい学習の
仕方の知識をルール化し、これをもとにニューラルネッ
トワークの学習を行う構戒を採用しているため、ニュー
ラルネットワークの効率的かつ柔軟な学習を行うことが
できる。また、学習の仕方をルール化しているため、(
1)経験的な学習の仕方を容易にニューラルネットワー
クに反映させることができる、(2)ルールの変更や追
加を容易に行うことができる、(3冫ルールを人が見易
い形で記述しているために保守し易い、{4}学習時の
内部状態を常にモニタしているために暴走やローカルξ
ニマムの状態を検出し易い。
【図面の簡単な説明】
第1図は本発明の原理構戒図、第2図は本発明の処理手
順例、第3図は本発明の1実施例構或図、第4図は本発
明に係る学習則ルールベース例、第5図はニューラルネ
ットワークと入力パターン例、第6図はNNメモリ内の
構造例、第7図は本発明に係る更新/選択機構例、第8
図は従来技術の説明図を示す。 図中、1ばニューラルネットワーク、1−1ばNNメモ
リ、2はパターンリーグ、3は入力パターンデータベー
ス、4は学習則ルールベース、5はルールインクブリ夕
、6は会話処理機構、7は条件節解釈部、8は実行節解
釈部、l4は結合重み更新機構、15は学習パラメータ
更新機構、16はパターン選択機構、37はパターン情
報メモリ、38は乱数発生機構、40は信号伝播機構を
表す.

Claims (1)

  1. 【特許請求の範囲】 ニューラルネットワークのパターン学習を行うパターン
    学習方式において、 学習対象のニューラルネットワーク(1)と、学習させ
    る入力パターン(入力信号および教師信号)を格納する
    入力パターンデータベース(3)と、望ましい学習の仕
    方をルール化して予め格納する学習則ルールベース(4
    )と、 この学習則ルールベース(4)からルールを取り出し、
    解釈・実行するルールインタプリタ(5)とを備え、 上記入力パターンデータベース(3)から取り出した入
    力パターンを上記ニューラルネットワーク(1)に提示
    し、上記ルールインタプリタ(5)が上記学習則ルール
    ベース(4)から取り出したルールを解釈し、このとき
    のニューラルネットワーク(1)の入力信号、教師信号
    、出力信号、および内部状態を参照して内部変数の変更
    、提示する入力パターンの選択などを行い、ルールに対
    応した学習を行うように構成したことを特徴とするパタ
    ーン学習方式。
JP1233792A 1989-09-07 1989-09-07 パターン学習装置 Pending JPH0395666A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1233792A JPH0395666A (ja) 1989-09-07 1989-09-07 パターン学習装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1233792A JPH0395666A (ja) 1989-09-07 1989-09-07 パターン学習装置

Publications (1)

Publication Number Publication Date
JPH0395666A true JPH0395666A (ja) 1991-04-22

Family

ID=16960642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1233792A Pending JPH0395666A (ja) 1989-09-07 1989-09-07 パターン学習装置

Country Status (1)

Country Link
JP (1) JPH0395666A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05298277A (ja) * 1992-04-24 1993-11-12 Hitachi Ltd ニュ−ラルネット学習装置及び学習方法
JPH0683792A (ja) * 1991-06-12 1994-03-25 Hitachi Ltd ニューラルネットワークの学習装置およびニューラルネットワークの学習パターン呈示方法
JP2010514986A (ja) * 2007-01-02 2010-05-06 シーメンス アクチエンゲゼルシヤフト 技術システムの、とりわけガスタービンの、計算機支援による閉ループ制御および/または開ループ制御のための方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683792A (ja) * 1991-06-12 1994-03-25 Hitachi Ltd ニューラルネットワークの学習装置およびニューラルネットワークの学習パターン呈示方法
JPH05298277A (ja) * 1992-04-24 1993-11-12 Hitachi Ltd ニュ−ラルネット学習装置及び学習方法
JP2010514986A (ja) * 2007-01-02 2010-05-06 シーメンス アクチエンゲゼルシヤフト 技術システムの、とりわけガスタービンの、計算機支援による閉ループ制御および/または開ループ制御のための方法
US8099181B2 (en) 2007-01-02 2012-01-17 Siemens Aktiengesellschaft Method for the computer-aided regulation and/or control of a technical system, especially a gas turbine

Similar Documents

Publication Publication Date Title
Chiang et al. A self-learning fuzzy logic controller using genetic algorithms with reinforcements
Zadeh Outline of a new approach to the analysis of complex systems and decision processes
US5483620A (en) Learning machine synapse processor system apparatus
Ferreira et al. An approach to reservoir computing design and training
US11640505B2 (en) Systems and methods for explicit memory tracker with coarse-to-fine reasoning in conversational machine reading
JPH06509669A (ja) 改良ニューラル・ネットワーク
Koffman et al. Artificial intelligence and automatic programming in CAI
US5613044A (en) Learning machine synapse processor system apparatus
Rajasekaran et al. Neural networks, fuzzy systems and evolutionary algorithms: Synthesis and applications
CN107451230A (zh) 一种问答方法以及问答系统
Pruitt et al. Building Winning Trading Systems with Tradestation,+ Website
Tagliaferri et al. A real-time strategy-decision program for sailing yacht races
Krichen Deep reinforcement learning
Saint Donat et al. Optimizing neural net based predictive control
CN107292322A (zh) 一种图像分类方法、深度学习模型及计算机系统
JPH0395666A (ja) パターン学習装置
Khan et al. Fuzzy cognitive maps and intelligent decision support–a review
Renders et al. Genetic algorithms for process control: A survey
Hatano et al. GBDT modeling of deep reinforcement learning agents using distillation
Lindblom The rediscovery of the market
Su et al. Dependent bidirectional RNN with extended-long short-term memory
JPH04237388A (ja) ニューロプロセッサ
Jiang et al. Advancing SynergyAI: Enhancing Explainability and Decision Tree Optimization in Human-AI Pair Programming
Buchanan Introduction to the COMTEX Microfiche Edition of Memos from the Stanford University Artificial Intelligence Laboratory
Jyoti Baruah et al. Pfcmvo: Political fractional competitive multi-verse optimization enabled deep neuro fuzzy network for student performance estimation in spark environment