JPH0895941A - 神経回路網の構成方法 - Google Patents

神経回路網の構成方法

Info

Publication number
JPH0895941A
JPH0895941A JP6234779A JP23477994A JPH0895941A JP H0895941 A JPH0895941 A JP H0895941A JP 6234779 A JP6234779 A JP 6234779A JP 23477994 A JP23477994 A JP 23477994A JP H0895941 A JPH0895941 A JP H0895941A
Authority
JP
Japan
Prior art keywords
value
input
output
updated
output value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6234779A
Other languages
English (en)
Inventor
Akihito Sakurai
彰人 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP6234779A priority Critical patent/JPH0895941A/ja
Publication of JPH0895941A publication Critical patent/JPH0895941A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Logic Circuits (AREA)

Abstract

(57)【要約】 【目的】 実用規模の問題に対して有効な、神経回路
網、特に微分不可能な点や微分係数が零となる点を有す
る出力関数を持つ素子、特に線形閾値論理素子を用いた
神経回路網の学習方法を与えること。 【構成】 更新すべき結合荷重を、入力値に対するその
時点の回路の出力値と出力すべき値との差、各素子の入
力値及び出力値を参照し、乱数又は疑似乱数を用いて選
択する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、神経回路網の構成方法
に係わり、特に収束性の良い逐次的構成方法に関する。
【0002】
【従来の技術】与えられた動作条件を満たす神経回路網
を構成するには、学習と呼ばれる逐次的な構成方法が広
く用いられてきている。例えば、D.E.ラメルハート
・J.L.マクレランド・PDPリサーチグループ著
「PDPモデル」(産業図書)第8章(第321頁〜第
365頁)に示すような、デルタルールや最急降下法と
呼ばれる学習アルゴリズム及びその改良方法であり、結
合荷重のある初期値から始めてこれを漸次修正しながら
求める方法である。
【0003】この方法では、各結合荷重値の初期値を乱
数又は疑似乱数を用いて定め、以降の各結合荷重値の変
更は、確定的(deterministic)に行なわれる。こうした
方法には、線形閾値論理素子(入力ベクトル値の各成分
の加重和を取った後、その値が正であれば1を、そうで
なければ0を出力する素子)のように、殆んど全ての点
で微分係数が零となるような関数を出力関数とする素子
や、その他微分不可能な点を有する関数を出力関数とす
る素子を有する回路には適用できないという問題点があ
る。なお、回路構成時に近似関数(閾値論理関数に対し
て例えばシグモイド関数)を用いた場合には、一般にこ
れをもとの関数に置き換えることは、誤差が大きくな
り、所定の精度が達成できないため、実際上行なうこと
ができないという欠点がある。
【0004】これに対し、神経回路網内の結合荷重値の
変更に際し、乱数又は疑似乱数を多用する方法がある。
例えば、ストカスティック デルタ ルール(エス ジ
ェハンソン“メイオシス ネットワーク”アドヴァンシ
ーズ イン ニュートラルインフォメーション プロッ
セシング システムズ 2, 533-541)(stochastic del
ta rule (S.J. Hanson,“Meiosis Networks”, Advance
s in Neural Information Processing Systems 2, 533-
541)) がある。この方法においては、各結合荷重には
μとσと呼ばれる2変数が割り付けられ、回路への入力
値、出力値、及び出力すべき値に基づき、逐次的にμと
σとを変更していく。各結合荷重の値は、平均をμとし
分散をσとする正規分布よりランダムに逐次的に選ばれ
る。
【0005】この方法の欠点は、同文献に記されている
ように、入力次元3、隠れ素子数3の隠れ層数1の回路
を用いて3ビット・パリティ関数を学習する(該関数を
実現する)という極めて小規模な問題に対しても、平均
500回以上の入力値の提示が必要とされること、実用的
なより大規模な問題に対しては対処できないことであ
る。
【0006】また、文献ティ ケー リーン アンド
ジェ イー モディ“ウエイト スペース プロバビリ
ティ デンシティズ インストカスティック ラーニン
グ:I ダイナミックス アンド イクイリブラ”,ア
ドバンシーズ イン ニュートラル インフォメーショ
ン プロッセシング システムズ 5, 451-458(T.K.Le
en and J.E.Moody,“Weight space probability densit
ies instochastic learning: I. dynamics and equilib
ria”, Advances in NeuralInformation Processing Sy
stems 5, 451-458)に記されている方法、すなわち、入
力値と結合荷重をランダムに選び、誤差関数の該結合荷
重に関する微分係数の値に比例する値を該結合荷重に加
減する方法、及び、該微分係数の符合に従って、予め定
めた一定値を該結合荷重に加減する方法がある。
【0007】この方法の欠点は、同文献に記されている
ように、入力次元2、隠れ素子数2の隠れ層数1の回路
を用いて、2ビット・パリティ関数を学習するするとい
う小規模な問題に対して、半数以上の場合において500
回以上の入力値提示を必要とし、実用的なより大規模な
問題に対しては対処できないことである。
【0008】なお、実用的な規模の問題に対処できない
というのは、単に学習アルゴリズムが成功・停止するま
での時間が、非常に長くなるといった理由だけでなく、
収束性が悪くなる(与えられた入出力値対のうちの幾つ
かが実現できないため、学習アルゴリズムがいつまでた
っても停止しないことが多くなる)、といった理由にも
依っている。
【0009】以上の方法は、線形閾値論理素子を構成要
素とする回路にも適用できる利点があるが、実用規模の
問題に対しては、実行時間がかかり過ぎるあるいは学習
が収束しないという問題点がある。
【0010】なお、神経回路網内の素子の活性値を確率
的に変更する方法は多く考案されている。例えば、焼き
なまし法(シミュレーテッド アニーリング法(simulat
ed annealing法))と呼ばれる方法(エス ケー キルク
パトリック シー ディーギャレット アンド エム
ビーチ“オプティマイゼーション バイ シミュレーテ
ッド アニーリング サイエンス, ボリューム 220,
671-680 (1983)(S. Kirkpatrick, C.D. Gelatt and
M. Veechi “Optimization by simulated annealing'',
Science, vol. 220, 671-680 (1983)) は神経回路網の
みならず、一般のネットワークにおいて、各ノード上に
定まる値を確率的に変更していく方法である。
【0011】この方法は、神経回路網においては、各素
子の出力値を決定する方法に適用することはできるが、
結合荷重を決定する、即ち、回路を構成する方法には適
用できない。
【0012】
【発明が解決しようとする課題】本発明は、実用規模の
問題に対して有効な、神経回路網、特に微分不可能な点
や微分係数が零となる点を有する出力関数を持つ素子、
特に線形閾値論理素子を用いた神経回路網の学習方法を
与えることにある。
【0013】
【課題を解決するための手段】本発明は、結合荷重の値
を更新する場合に、更新する結合荷重、またはそれが接
続している素子を、与入力値に対する現在の回路の出力
値と出力すべき値との差、各素子の入力値及び出力値を
参照し、乱数又は疑似乱数を用いて選択する学習方法を
用いて、上記課題を解決しようとするものである。
【0014】
【作用】各時点毎にその時点で変更をするに適当として
選ばれる、一般には複数の結合荷重に割当てられる変更
の適当さの度合の大きいものの中に、実際に選ぶべき結
合荷重が入っている可能性が高いという性質があるた
め、本発明により、求める回路が構成される。
【0015】
【実施例】図1は、本発明の一実施例を示すPAD図であ
る。
【0016】図2(a)は、図1に示す実施例が対象と
する神経回路網全体の概略図である。図2(a)に示す
ように、複数の入力点を持つ入力層と、複数の出力点を
持つ出力層と、両者を結ぶ少なくとも一つの隠れ層とよ
りなる。実際上は、入力層は、図に示すように複数の隠
れ層を介して出力層に結合される。図2(b)は隠れ層
又は出力層における演算素子を示す。入力X1,X2,
・・・,Xnにはそれぞれ結合荷重値W1,W2,・・
・,Wnが掛け算された後、総和が取られる。総和が1
以上のとき出力y=1、1より小さいときy=0とされ
るものである。
【0017】以下、図1に示す実施例に関し詳細に説明
する。本説明に用いる式中の記号の意味は、次の通りで
ある。
【0018】n_hidden=隠れ層の素子数 n_input=入力次元数 w[i][j]=素子iの入力jからの結合荷重(配列) t[i]=素子iの閾値(配列) w_out[i]=出力素子の素子iからの入力に対する
結合荷重(配列) t_out=出力素子の閾値 hidden[i]=隠れ素子iの出力値(−1又は+
1)(配列) 図1中、105では、結合荷重値の初期化を行なう。通常
の誤差逆伝播法では、この初期値はランダムに選ばれ
る。しかし本発明においては、ランダムに選ぶ必要はな
い。本実施例では、 w[i][j]=0(全てのi,jについて) t[i]=0.5(全てのiについて) w_out[i]=0(全てのiについて) t_out=0.5 とする。図1中、手順110では、その時点で構成されて
いる回路が与えられた入出力値対の内の幾組を実現して
いるかを調べ、実現された組数が要求以上であれば終了
し、そうでなければ、構成のための逐次動作(図1中の
手順115、即ち手順120以下の手順)を繰り返すことにな
る。本実施例では、与入出力値対の全てが実現された時
に終了とする。なお、この目的のため図1中、手順130
にて「正しい」回路出力が観測された入出力値対を記憶
・蓄積し、図1中、手順110においては、単にこれを調
べることにより、判断を下している。この蓄積された記
録は、図1中、手順135以下を実行するときに全て抹消
される。
【0019】次に図1中、手順115の中身である手順120
以下の方法について詳述する。手順120においては、与
入出力値対の中からランダムに次の入出力値対を選び出
す。この対のうち入力値をx、出力値をyと表すことにす
る。手順125においては、現時点で持っている回路にxを
入力し、回路中の各素子の出力値及び回路の出力値を求
める。手順130においては、該出力値がyと等しいか否か
を調べ、等しければ、それを記録し手順120へ戻る(より
正確には、手順110の判定に移る。そして更に繰り返し
が必要とされる時のみ手順120へ戻る)。等しくなけれ
ば、現時点の回路を変更する必要がある故、手順135以
下の方法へ移る。
【0020】手順135においては、各素子に付した番号
順に手順145の処理が行なわれるような制御を行なう。
手順145においては、まず(数1)と等価な作用を行な
わせる。
【0021】
【数1】
【0022】なお、関数 sgn は(数2)のような関数
である。
【0023】
【数2】
【0024】この結果、error_outが1であれば、出力
素子の出力関数への入力値(出力素子への入力値に入力
結合荷重値を乗じ総和したもの)が増加するように回路
定数を変更すれば、回路出力が正しい値に近付くことに
なり、一方error_outが−1であれば、出力素子の出力
関数への入力値(出力素子への入力値に入力結合荷重値
を乗じ総和したもの)が減少するように回路定数を変更
すれば、回路出力が正しい値に近付くことになる。同様
に、error[i]が1であれば、隠れ層素子iの出力関数
への入力値(該素子への入力値に入力結合荷重値を乗じ
総和したもの)が増加するように回路定数を変更すれ
ば、回路出力が正しい値に近付くことになり、一方erro
r[i]が−1であれば、隠れ層素子iの出力関数への入
力値(該素子への入力値に入力結合荷重値を乗じ総和し
たもの)が減少するように回路定数を変更すれば、回路
出力が正しい値に近付くことになる。従って、 S_out=abs(error_out); S[i]=abs(error[i]);(全てのiに
ついて) とすればよい。なお、abs は引数の絶対値を値とする関
数である。ここで、S_outは出力素子に関するも
の、S[i]は隠れ素子iに関するものである。なお、
図1においては簡略化のため、出力素子を隠れ素子0
(ゼロ)として取扱、S_outをSoとする。また、
S[i]をSi(i≧1)で表す。
【0025】手順150においては、rnd() を呼ばれる毎
に半開区間 [0,1) 内の一様乱数(疑似乱数)を生成する
関数とする時、
【0026】
【数3】
【0027】を満たす t を求める。但し、数3中のS0
がS_outに、Siが S[i+1] に対応する。即ち、t=0
の時、出力素子への入力結合荷重を更新し、その他の
場合は隠れ素子 t-1 への入力結合荷重を更新すること
を意味する。
【0028】手順160においては、出力素子に対しては w_out[i]=w_out[i]+error_out*hidden[i];(全てのi
について) t_out=t_out−error_out; のように、隠れ素子に対しては、 w[t+1][j]=w[t+1][j]+error[t+1]*sample_input
[j];(全てのjについて) t[t+1]=t[t+1]−error[t+1]; のように、それぞれ更新を行なう。
【0029】図3は、図1に示す実施例を、特に隠れ層
が1層の線形閾値論理素子を用いた神経回路網(図4)
を対象とする実施例に特化し、言語Cを用いて記述した
ものである。
【0030】図5は、請求項2に対応する一実施例をPA
D図を用いて記述したものである。本実施例と図1に示
す実施例との違いは、図5中の手順540にある。この計
算は、線形閾値素子を用いる場合には、(数4)のように
行なわれる。
【0031】
【数4】
【0032】この結果、特に隠れ素子数が多い場合に、
収束速度が高まるという効果がある。
【0033】図6は、パラメータTを有する実施例であ
り、請求項3に対応する。本実施例と、図5に示す実施
例との違いは、図6中の手順618及び手順645にある。こ
の結果、特に手順618において定めるTの値を入力次元
n及び与入出力対数に応じて定めることにより、収束速
度を高める効果がある。
【0034】図7は、請求項1に対応する他の実施例で
ある。ここでは、素子を10個ずつのグループに分割
し、個々のグループ内で高々一つの素子に結合する荷重
を選択し、更新している。これにより、冗長性を有し、
対故障性が良い回路が構成できる。
【0035】図8は、請求項4に対応する一実施例であ
る。図1に示す実施例との違いは、回路定数の更新を全
入力値について同時に行なうことである。これにより、
安定した収束性が得られるという特徴がある。
【0036】図9は、請求項5に対応する一実施例であ
る。図5に示す実施例との違いは、回路定数の更新を全
入力値について同時に行なうことである。これにより、
安定した収束性が得られるという特徴がある。
【0037】図10は、請求項6に対応する一実施例で
ある。図6に示す実施例との違いは、回路定数の更新を
全入力値について同時に行なうことである。これによ
り、安定した収束性が得られるという特徴がある。
【0038】図11は、n-bit parity 問題を図6に示
す実施例に基づいて作成したプログラムを実行して得た
結果を示したものである。ここで n-bit parity 問題と
は、n-bit parity 関数を学習する(n-bit parity 関数
を実現する回路を構成する)問題である。n-bit parity
関数は、入力ベクトルは、次元nの0と1のみを要素
とするベクトルとし、各入力ベクトルに対応する出力
は、該入力ベクトル中の1の個数が偶数であれば0、奇
数であれば1、となるような関数である。従って、n-bit
parity 問題の入力次元はnであり、入出力値対の個数
は2のn乗である。
【0039】この関数は、隠れ層にn個(その他出力層
に1個)の線形閾値論理素子を用いれば実現できること
が知られている。そこで図11に示す例では、隠れ素子
数を入力次元と同一として実験を行なった。図11にお
いて、縦軸は学習が終了する迄の入力値の提示回数を表
す。神経回路網学習の時に言われる epoch 数は、この
値を入出力値対の個数で除したものである。図6の実施
例に基づくプログラムは、それぞれ疑似乱数の系列を変
えて50回実施し、その平均をとった。その値は、図中ou
r.methodと示された点列及びその近似直線で示される。
【0040】比較のため、通常行なわれている、シグモ
イド関数を出力関数とする素子を用いた場合の誤差逆伝
播学習法による結果を併せて示す。図中BPと記された点
列で表される。8以上のnについては、学習が収束せ
ず、データが得られなかった。この学習においては、誤
差が5%以内(出力値が0又は1の場合、出力値が1と
なるべき入力値に対して実際の回路の出力が0.975
以上となり、出力値が0となるべき入力値に対して実際
の回路の出力が0.025以下となれば良しとする)に
なったことを停止条件とした。
【0041】この収束条件は緩く、シグモイド関数素子
を線形閾値論理素子に置き換えることは、誤差を伴った
り、シグモイド関数にあって閾値論理関数にない特性を
利用していたりするため、場合によっては可能となる程
度である。また、誤差逆伝播学習法において重要なパラ
メータである学習係数・慣性係数は多くの実験で学習が
収束し、かつ学習データの提示回数が少なくなるよう選
んだ(同じビット数のパリティ問題に対しては同一であ
る)。2−,3−,4−,5−,6−,7−bit parity 問題
のそれぞれに対する逆伝播学習の学習成功率は、それぞ
れ、98%.100%,96%,100%,86%,7
6%であり、図中の平均提示回数は、成功した場合のみ
の平均値であり、特に、成功率が低い場合は実際よりか
なり低めの数値となている。なお、8−bit parity 問
題に対しては、50回中9回しか成功しなかったため、
図には表示していない。
【0042】これに対し、本発明による方法では、図に
示した全ての場合において100%の成功率であった。な
お、10,000,000回以上の提示を要するものを失敗と考え
た。
【0043】本図から明らかなように、本実施例の方が
データの提示回数が少なくてすむのみならず、学習の成
功率も良い。
【0044】
【発明の効果】本発明により、閾値論理素子のように微
分係数を用いるのが不適当な場合に有効な、出力関数の
微分係数を用いないですむ学習方法が得られ、近似関数
を用いる方法に比べ構成手順が高速になるという効果が
ある。また、出力値に誤りがある場合でも、収束条件を
緩めることにより、一般化能力の高い回路を高速に構成
するという効果もある。
【図面の簡単な説明】
【図1】本発明の一実施例を示すPAD図。
【図2】(a)は、図1に示す実施例が対象とする神経
回路網全体の構成を示す概略図。 (b)は(a)に示
す神経回路網の要素である隠れ層又は出力層における演
算素子を示す図。
【図3】図1に示す実施例を、隠れ層が1層の線形閾値
論理素子を用いた神経回路網を対象とする実施例に特化
して、言語Cを用いて記述したプログラムの概略を示す
図。
【図4】図1に示す実施例を、隠れ層が1層の線形閾値
論理素子を用いた神経回路網とした実施例の構成を示す
図。
【図5】本発明の他の実施例を示すPAD図。
【図6】本発明の他の実施例を示すPAD図。
【図7】本発明の他の実施例を示すPAD図。
【図8】本発明の他の実施例を示すPAD図。
【図9】本発明の他の実施例を示すPAD図。
【図10】本発明の他の実施例を示すPAD図。
【図11】図6に示す実施例に基づいて作成したプログ
ラムのn-bit parity問題の実行結果の例を示す図。

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】与えられた複数組の入出力値対の全て、あ
    るいはその一部を、正確にあるいは近似的に実現する神
    経回路網を逐次的に構成する方法であって、各素子間の
    結合荷重値の更新に際し、与入力値に対する現在の回路
    の出力値と出力すべき値との差、各素子の入力値及び出
    力値、及び乱数又は疑似乱数の値を用いて、更新すべき
    結合荷重を選択する、あるいは回路内の素子を選択しそ
    れに結合している結合荷重を更新すべき結合荷重として
    選択することを特徴とする神経回路網の構成方法。
  2. 【請求項2】更新すべき結合荷重あるいは素子の選択に
    あたって、各素子の入力荷重が定めるあるユークリッド
    空間内の超曲面と該入力値が与えられた時の該素子への
    入力値が表す該ユークリッド空間内の点との距離又は該
    超曲面の法線ベクトルと該入力ベクトルとがなす角度を
    用いることを特徴とする請求項1記載の神経回路網の構
    成方法。
  3. 【請求項3】更新すべき結合荷重あるいは素子の選択に
    あたって、パラメータTを用い、かつ該パラメータTを
    入力値の次元あるいは素子数あるいは結合荷重数あるい
    は与入出力値対数あるいは学習の進行状況に従って異な
    った値をとらせることを特徴とする請求項1あるいは請
    求項2記載の神経回路網の構成方法。
  4. 【請求項4】与えられた複数組の入出力値対の全てをあ
    るいはその一部を、正確にあるいは近似的に実現する神
    経回路網を逐次的に構成する方法であって、各素子間の
    結合荷重値の更新に際し、与入力値に対する現在の回路
    の出力値と出力すべき値との差、各素子の入力値及び出
    力値、及び乱数又は疑似乱数の値を用いて、更新すべき
    結合荷重を選択し、あるいは回路内の素子を選択しそれ
    に結合している結合荷重を更新すべき結合荷重として選
    択し、これらの更新量を決定し、この更新量を求める手
    順を与入出力値対の全てあるいは与入出力値対の所定割
    合以上に関して行ない、これに基づき結合荷重の更新量
    を決定することを特徴とする神経回路網の構成方法。
  5. 【請求項5】更新すべき結合荷重あるいは素子の選択に
    あたって、各素子の入力荷重が定めるあるユークリッド
    空間内の超曲面と該入力値が与えられた時の該素子への
    入力値が表す該ユークリッド空間内の点との距離又は該
    超曲面の法線ベクトルと該入力ベクトルとがなす角度を
    用いることを特徴とする請求項4記載の神経回路網の構
    成方法。
  6. 【請求項6】更新すべき結合荷重あるいは素子の選択に
    あたって、パラメータTを用い、かつ該パラメータTを
    入力値の次元あるいは素子数あるいは結合荷重数あるい
    は与入出力値対数あるいは学習の進行状況に従って異な
    った値をとらせることを特徴とする請求項4あるいは請
    求項5記載の神経回路網の構成方法。
JP6234779A 1994-09-29 1994-09-29 神経回路網の構成方法 Pending JPH0895941A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6234779A JPH0895941A (ja) 1994-09-29 1994-09-29 神経回路網の構成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6234779A JPH0895941A (ja) 1994-09-29 1994-09-29 神経回路網の構成方法

Publications (1)

Publication Number Publication Date
JPH0895941A true JPH0895941A (ja) 1996-04-12

Family

ID=16976247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6234779A Pending JPH0895941A (ja) 1994-09-29 1994-09-29 神経回路網の構成方法

Country Status (1)

Country Link
JP (1) JPH0895941A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009516246A (ja) * 2005-11-15 2009-04-16 ベルナデット ガーナー ニューラルネットワークのトレーニング方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009516246A (ja) * 2005-11-15 2009-04-16 ベルナデット ガーナー ニューラルネットワークのトレーニング方法
JP2013020638A (ja) * 2005-11-15 2013-01-31 Garner Bernadette 入力ベクトルがニューロンによって既知であるか未知であるかを決定する方法
US11263528B2 (en) 2005-11-15 2022-03-01 Bernadette Garner Neural network, computer readable medium, and methods including a method for training a neural network

Similar Documents

Publication Publication Date Title
He et al. Damage detection by an adaptive real-parameter simulated annealing genetic algorithm
US5519647A (en) Apparatus for and method of generating an approximation function
US6480832B2 (en) Method and apparatus to model the variables of a data set
CN110659678B (zh) 一种用户行为分类方法、系统及存储介质
CN106650022A (zh) 复杂电子设备故障预测的方法
KR20180096473A (ko) 정보의 질을 높이기 위한 정보 공유 기반 정보 이전 방법 및 그 장치
JP3323894B2 (ja) ニューラルネットワーク学習方法及び装置
CN111709535A (zh) 基于演化计算的联邦学习方法、装置、中心服务器及介质
Pirkul et al. New heuristic solution procedures for the uniform graph partitioning problem: extensions and evaluation
JPH09204310A (ja) 判断規則修正装置と判断規則修正方法
CN109697511B (zh) 数据推理方法、装置及计算机设备
JPH0895941A (ja) 神経回路網の構成方法
JPH05225163A (ja) ニューラルネットシステムおよびニューラルネットの学習方法
Abbas et al. Volterra system identification using adaptive genetic algorithms
JPH04353963A (ja) 神経回路網の構築装置および方法
JP3935425B2 (ja) 遺伝的アルゴリズムを用いた、ネットワーク型情報処理システムの学習装置
WO2022009433A1 (ja) 情報処理装置,情報処理方法および情報処理プログラム
JPH11306216A (ja) 自動配置方法及び自動配置システム
Imada et al. Random perturbations to Hebbian synapses of associative memory using a genetic algorithm
JP2877413B2 (ja) 余剰ニューロン決定処理方式
JPH05101209A (ja) 階層型ニユーラルネツトワークの学習方法
Jordanov Neural network training and stochastic global optimization
Xiao PG: Policy Gradient
JPH05189397A (ja) ニューラル・ネットワークの学習方法および情報処理システム
WO2023225552A1 (en) Decentralized federated learning using a random walk over a communication graph