JPH05204885A - ニューラルネットワークの学習高速化装置及び方法 - Google Patents

ニューラルネットワークの学習高速化装置及び方法

Info

Publication number
JPH05204885A
JPH05204885A JP4014998A JP1499892A JPH05204885A JP H05204885 A JPH05204885 A JP H05204885A JP 4014998 A JP4014998 A JP 4014998A JP 1499892 A JP1499892 A JP 1499892A JP H05204885 A JPH05204885 A JP H05204885A
Authority
JP
Japan
Prior art keywords
signal processing
neural network
unit
processing element
smoothing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP4014998A
Other languages
English (en)
Inventor
Takashi Kubota
孝 久保田
Hiroshi Kamata
洋 鎌田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP4014998A priority Critical patent/JPH05204885A/ja
Publication of JPH05204885A publication Critical patent/JPH05204885A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 多数の信号処理素子が結合され、各信号処理
素子に前段の信号処理素子との間の結合荷重が設定され
たニューラルネットワークを、指示に応じて構成し、ニ
ューラルネットワークに提示パターンを入力し、ニュー
ラルネットワークから出力された出力パターンと教師信
号との誤差を減少させるように結合荷重の変更を行うニ
ューラルネットワークの学習高速化装置及び方法に関
し、全体のバランスを壊すことなく、又、ハードウェア
全体を根本的に改造することなく、簡単な構成及び手順
で、容易、且つ確実に学習の高速化を達成することを目
的とする。 【構成】 誤差関数の減少速度、当該減少速度を決定す
る数値データ、又は他の因子に基づいて、数値データを
その許容数値範囲のうちの所定範囲内に限定する平滑化
を行う必要性の判定を行い、必要性がある場合に、所定
信号処理素子の追加または削減を行うように構成する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ニューラルネットワー
ク学習高速化装置及び方法に係り、特に、多数の信号処
理素子が結合され、各信号処理素子には前段の信号処理
素子との間の結合効率を表す適応的に変更し得る結合荷
重が設定されたニューラルネットワークの構成の指示が
あると、当該指示に応じてニューラルネットワークを構
成し、ニューラルネットワークに提示パターンを入力
し、ニューラルネットワークから出力された出力パター
ンと到達すべき目標となる教師信号との誤差を減少させ
るように結合荷重の変更を行うニューラルネットワーク
の学習高速化装置及び方法に関する。
【0002】ニューラルネットワークは、柔軟で高度な
情報処理能力を有するため、パターン認識、音声認識、
ロボットの制御、知識処理等の幅広い分野にわたって応
用されている。また、その並列計算能力及び学習能力の
ため、多方面にわたっての研究開発がさらに盛んに行わ
れている。実システムへの応用が進むにつれて、システ
ムが実行しながら学習すること(オンライン学習)が要
求されている。そのため、ニューラルネットの学習速度
を高速にする必要があり、学習高速化の役割は極めて大
きい。
【0003】
【従来の技術】従来、図9に示すようなニューラルネッ
トワークの学習高速化装置があった。本例にあっては、
同図に示すように、多数の非線型の信号処理素子である
ニューロンが結合され、各ニューロンには前段のニュー
ロンとの間の結合効率を表す適応的に変更し得る結合荷
重が設定されたニューラルネット部1と、ニューラルネ
ット部1から出力された出力パターンが到達すべき目標
となる教師信号を発生する教師信号発生部3と、前記出
力パターンと教師信号との誤差の検出を行う誤差検出部
4と、検出された誤差に基づいて当該誤差を減少させる
ように前記結合荷重の設定変更を行う学習部5と、提示
パターンの入力を行う提示パターン入力部2と、前記出
力パターンと前記教師信号とに基づいて定まる平均出力
誤差の減少速度を速めるように、当該速度の絶対値が所
定閾値以下であるか否かの判定を行う学習判定部89
と、当該学習判定部89の判定結果が閾値以下の場合に
前記ニューラルネット部1の中間層12にニューロンの
追加の指示を行うユニット追加部69とを設けたもので
ある。尚、前記ニューラルネット部1は同図に示すよう
に、入力層11と、中間層12と、出力層13とを有す
るものである。
【0004】従来例に係るニューラルネットワークの学
習高速化装置にあっては、提示パターン入力部2から学
習すべきパターン信号が入力層11に入力される。さら
に、中間層12を経て出力層13に信号伝送が行われ、
各ニューロンの状態変化を順次計算し、出力層13より
ニューラルネットワークの出力パターンが出力される。
誤差検出部4は、その出力パターンと教師信号発生部3
より発生した教師信号との誤差を検出し、学習部5に誤
差情報を伝達する。学習部5では、誤差が減少するよう
にニューラルネット部1の各ニューロンの結合荷重を更
新する。学習判定部89は、平均出力誤差を計算し、そ
の減少割合が閾値よりも小さくなった段階で、前記ユニ
ット追加部69にニューロン追加指令情報を伝達し、ユ
ニット追加部69は中間層12にニューロンを1つ追加
する。この一連の手続きは平均出力誤差が十分に“0”
に近づくまで繰り返される。このようにして、従来例に
あっては、階層型ネットワーク部1に対して、小さめの
ネットワーク構造から出発して、中間層12に対し、前
記ユニット追加部69により必要なユニットやリンクを
逐次追加して適切な大きさのネットワーク構造を生成す
ることにより学習の高速化処理が行われている。最初の
うち、ネットワークが小さいため、全体としての計算量
が少なくて済むことになる。
【0005】
【発明が解決しようとする課題】ところで、従来例に係
る中間層にニューロンを追加して学習の高速化を図ろう
とする学習高速化装置にあっては、膨大な学習パターン
を学習する際には巨大なネットワークを構成するまでニ
ューロンの追加を多数回繰り返すため、予め適切な大き
さのネットワークで学習を行う場合と同程度の計算量と
なり、学習の高速化の効果はあまり期待できないという
問題点を有していた。また、ニューロンを中間層に追加
して学習することにより、部分的最適化を繰り返すた
め、全体のバランスの結果、求まるような解が得られな
いことがあるという問題点を有していた。さらに、中間
層のニューロン数の変更を動的に行う場合は学習の収束
の保証が得られないという問題点を有していた。
【0006】そこで、本発明はニューラルネットワーク
の学習の高速化をハードウェアを変更することなく、既
存のネットワークシステム上で、かつ、全体のバランス
を考慮して、解が存在する場合には解が確実に得られ
て、学習の収束の保証が得られるように、信号処理素子
であるニューロンの追加または削除を行ってニューラル
ネットワークの学習の高速化を図ることを目的とするも
のである。
【0007】
【課題を解決するための手段】以上の技術的課題を解決
するため、請求項1に記載された第一の発明にあって
は、多数の信号処理素子が結合され、各信号処理素子に
は前段の信号処理素子等との間の結合効率を表す適応的
に変更し得る結合荷重が設定されたニューラルネット部
10を有し、ニューラルネット部10から出力された出
力パターンと当該出力パターンが到達すべき目標となる
教師信号との誤差を減少させるように結合荷重の設定変
更がされるニューラルネットワークの学習装置におい
て、出力パターンと教師信号とに基づいて定まる誤差関
数の減少速度、当該減少速度を決定する信号処理素子間
を伝達する信号の表す数値データ、または、当該数値デ
ータを決定する結合荷重等の因子に基づいて、前記数値
データが許容される数値範囲を所定数値範囲に限定する
平滑化の必要性の判定を行う平滑化必要性判定部80
と、平滑化の必要性があると判定された場合に、所定信
号処理素子の追加または削減の指示を行う所定信号処理
素子変更部60とを有するものである。
【0008】一方、第二の発明は図5に示すように、多
数の信号処理素子が結合され、各信号処理素子には前段
の信号処理素子等との間の結合効率を表す適応的に変更
し得る結合荷重が設定されたニューラルネットワークの
構成の指示があると(S1)、当該指示に応じてニュー
ラルネットワークを構成し、ニューラルネットワークに
提示パターンを入力し、ニューラルネットワークから出
力された出力パターンと到達すべき目標となる教師信号
との誤差を減少させるように結合荷重の変更を行うニュ
ーラルネットワークの学習方法において、出力パターン
と教師信号とに基づいて定まる誤差関数の減少速度、当
該減少速度を決定する信号処理素子間を伝達する信号の
表す数値データ、又は、当該数値データを決定する結合
荷重等の因子に基づいて、前記数値データが許容される
数値範囲を所定数値範囲に限定する平滑化の必要性の判
定を行い(S2)、平滑化の必要性があると判定された
場合に、所定信号処理素子の追加または削減を行う(S
3)ものである。
【0009】
【作用】続いて、本発明の動作について説明する。第一
の発明及び第二の発明にあっては、ステップS1で、使
用者により、各学習対象に応じて、ニューラルネットワ
ークの構成の指示がニューラルネット部10に対しなさ
れる。ここで、ニューラルネットワークの構成とは、そ
の学習対象に関する情報に基づいて、例えば、ニューラ
ルネット部10を3層に構成し、その各層の信号処理素
子であるニューロンの個数の決定を行うことである。そ
の後、構成指示に応じて、ニューラルネット部10が構
成される。尚、「前段の信号処理素子等」とは、例え
ば、信号処理素子が入力層にある場合には、前段には信
号処理素子以外のものがくることを考慮したものであ
る。
【0010】ステップS2で、前記平滑化必要性判定部
80は、その際、例えば、請求項2及び図2に示すよう
に、その構成指示の際で、学習前に、前記ニューラルネ
ット設定部70により設定された結合荷重の初期値及び
構成指示等の前記因子に基づいて、平滑化の必要性が判
断される。または、請求項3及び図3に記載されている
ように、前記出力パターンと教師信号との誤差関数の減
少速度に基づいて平滑化の必要性が判断される。さらに
は、請求項4及び図4に示すように、提示パターン入力
部20からの入力データである提示パターン、すなわ
ち、信号処理素子間を伝達する信号の表す数値データの
一種、に基づき、平滑化の必要性の判定がなされること
になる。
【0011】ステップS3で、前記平滑化必要性判定部
60により平滑化の必要があると判断された場合には、
前記所定信号処理素子変更部60により所定信号処理素
子の追加または削減が行われることになる。ここで、所
定信号処理素子とは、例えば、請求項2及び図2に記載
したように、ニューラルネット部10の中間層の全部又
は一部の信号処理素子に設定された結合荷重と同一の絶
対値で逆符号をもつ結合荷重が前段の同一の各信号処理
素子との間に各々設定された双信号処理素子である。ま
たは、請求項3及び図3に示されたように、入力層また
は出力層にある全部又は一部の信号処理素子に、当該各
信号処理素子の状態と補関係にある状態をもつ補信号処
理素子である。ここで、「補関係」とは、後述する例で
示すように、ある信号処理素子の状態を“p ”とした場
合には、“1-p ”の関係にある場合である。さらには、
請求項4及び図4に示されているように、入力層にある
各信号処理素子に対し、前記補関係にある補信号処理素
子である。また、請求項2、3及び4に記載されている
ように、「並列に」追加するとは、追加する信号処理素
子が結合されるべき前段の信号処理素子及び後段の信号
処理素子が、追加される被追加信号処理素子が結合され
ている前段の信号処理素子及び後段の信号処理素子と同
一であるように結合されることをいう。
【0012】以下、ニューラルネット部10を階層型ネ
ットを例にとり(他のタイプのネットに対しても同様に
考えられる)、数値データの平滑化が誤差関数の減少速
度の絶対値の増加、即ち、学習の高速化に導き、また、
この平滑化を行うのに、何故、双信号処理素子または、
補信号処理素子を追加させる必要があるかについて説明
する。いま、ニューラルネット部10のある信号処理素
子jは、他の信号処理素子iの出力yi (数値データの
1つ)を入力として受け結合荷重wijをかけて加えたも
のを入力の総和uj とする。 uj =Σwij・yi ………(1) 但し、閾値は結合荷重の1つとして含まれていると考え
る。そして、出力yj は入力の総和に単調増加関数を施
したもので表される。 yj =f(uj ) ………(2) ここで、fは次に示すロジスティック関数である。 f(x) =1/(1+exp(-x) ) ………(3) 出力層kの誤差をek 、教師信号をdk とすると、 ek =dk −yk ………(4) この誤差を誤差関数、例えば、 E=1/2 ・Σ(dk −yk 2 ………(5) で示した関数(狭義の誤差関数、またはエネルギー関
数)で評価する。ここでは、重み空間上で定義された誤
差関数Eを最小にするように重み付けの学習が行われ
る。最急降下法に基づき、次のデルタルールに従う。 dwij/dt=−ε・∂E/∂wij ………(6) (εは学習係数で、ε>0とする) これは誤差曲面上を最も急な傾斜方向に進んで行くこと
に相当する。この式を変形すると次のようになる。 dwij/dt=εδk ・wjk・f’(uj )yi ………(7) dwjk/dt=εδk ・yj ………(8) δk =(dk −yk )f’(uk ) ………(9) さて、ここで、誤差関数を時間に関して微分すると、 dE/dt=−Σk 〔δk Σj {(dwjk/dt)yj +wjk・f’(uj ) Σi (dwij/dt)yi }〕………(10) となる。これにデルタルールを適用すると次のようにな
る。 dE/dt=−εΣk δk 2 Σj {f(uj )2+f’(uj )2・wjk 2 ・Σi i 2 } ……………(11) 誤差関数は、提示するパターンによって変動するので、
学習の収束性はそのパターンに大きく依存する。パター
ンyk に着目すると、yk 2 という形でエネルギーの減
少速度に関係している。入力した提示パターンyi を0
<yi <1として規格化を考えると、yi の値が0から
1まで変化するとyi 2 も0から1まで大きく変化して
しまい、入力されるパターンによってかなりのむらが生
じることになる。これを平滑化するために、yi と同時
に1−yi を入力すると、 yi 2 +(1−yi 2 =2 (yi −0.5 )2 + 0.5 …………(12) の形で誤差関数の減少速度に寄与することになり、yi
が0から1まで変化しても、その影響は0.5 から1.0 に
なり(これが、前述した所定数値範囲に相当する)、パ
ターンの違いによるエネルギーの減少速度の偏りを是正
することができる。ここでは、信号処理素子pに対して
信号処理素子(1−p)が補信号処理素子と呼ばれるも
のである。出力層においても補信号処理素子は学習パタ
ーンの誤差関数に対するむらを平滑化する働きがある。
【0013】また、ニューラルネットワークの学習速度
は、信号処理素子同士を結び付けている結合荷重(シナ
プス荷重)の初期値に大きく依存する。2つの信号処理
素子をペアとし、一方の結合係数をwとすると他方の結
合荷重を−wとするように決定する。このような絶対値
が等しく逆符号の結合荷重が設定されている信号処理素
子が双信号処理素子とよばれるものである。このように
中間層を双信号処理素子の組合せで構成することによ
り、ニューラルネットワークの結合荷重に対し偏りを無
くすことができる。このように、中間層に双信号処理素
子を付加するか、または、入力層あるいは出力層に補信
号処理素子を付加することにより、誤差関数が収束し易
い形状になり、学習の高速化が可能となる。
【0014】
【実施例】続いて、本発明に係る実施例について説明す
る。図6に本実施例に係るニューラルネットワークによ
る高速化学習装置のブロック図を示す。同図に示すよう
に、ニューラルネットワークによる高速化学習装置にあ
っては、多数の非線型の信号処理素子であるニューロン
が結合され、各ニューロンには前段のニューロン等との
間の結合効率を表す適応的に変更し得る結合荷重が設定
されたニューラルネット部1と、ニューラルネット部1
から出力された出力パターンが到達すべき目標となる教
師信号を発生する教師信号発生部3と、前記出力パター
ンと教師信号との誤差の検出を行う誤差検出部4と、検
出された誤差に基づいて当該誤差を減少させるように前
記結合荷重の設定変更を行う学習部5と、ニューラルネ
ット部1に提示パターンを入力する提示パターン入力部
2と、学習対象に応じてニューラルネット部1に対する
構成の指示を行うニューラルネット構成部17と、前記
ニューラルネット部1に対する構成指示に従って結合荷
重の初期値の設定を行うニューラルネット設定部7と、
前記ニューラルネット部1から出力された出力パターン
と前記教師信号発生部3から発生した教師信号とに基づ
いて定められる狭義の誤差関数の値が、ある閾値以下で
あるか否かの判定を行う誤差関数判定部14とを有する
ものである。
【0015】さらに、本実施例にあっては、同図に示す
ように、前記ニューラルネット部1は、入力層11、中
間層12及び出力層13からなるように構成されてい
る。また、出力パターンと教師信号とに基づいて定まる
誤差関数の減少速度を速めるように、ニューロン間を伝
達する信号の表す数値データをその許容数値範囲のうち
の所定範囲内に限定する平滑化の必要性の判定を行う各
種の平滑化必要性判定部85,86,87と、平滑化の
必要があると判定された場合に、当該数値データ平滑化
を実現するために所定ニューロンの追加を行う所定ニュ
ーロン追加部6とを有するものである。
【0016】本実施例にあっては、平滑化必要性判定部
85は、前記ニューラルネット設定部7により設定され
た結合荷重の初期値及び前記構成指示の内容に基づい
て、平滑化の必要性の判定を行うものである。また、平
滑化必要性判定部であるデータ集中判定部86は前記提
示パターン入力部2から入力した提示パターンに基づい
て、前記ニューラルネット部1の入力層11にある各ニ
ューロンに各々入力する入力データの変化率が、所定閾
値以下であって、入力データが所定数値範囲内に集中し
ているか否かに基づいて、平滑化の必要性の判定を行う
ものである。さらに、平滑化必要性判定部である学習判
定部87は、前記出力パターンと前記教師信号とに基づ
いて定まる誤差関数の減少速度の絶対値が所定閾値以下
であるか否かに基づいて、平滑化の必要性の有無の判定
を行うものである。
【0017】一方、前記所定ニューロン追加部6は、同
図に示すように、双ニューロン追加部65と、補ニュー
ロン追加部66,67とを有し、双ニューロン追加部6
5は、前記平滑化必要性判定部85により平滑化の必要
性があると判定された場合に、前記ニューラルネット部
1の中間層12にある全部又は一部のニューロンに設定
された結合荷重と同一の絶対値で逆符号をもつ結合荷重
が前段の同一の各ニューロンとの間に各々設定された双
ニューロンを中間層12にある前記ニューロンの各々に
並列に追加する指示を行うものである。補ニューロン追
加部66は、前記データ集中判定部86により平滑化の
必要性があると判定された場合には、入力層11にある
全部又は一部のニューロンと補関係にある補ニューロン
を当該ニューロンに並列に各々追加する指示を行うもの
である。補ニューロン追加部67は、前記学習判定部8
2により平滑化の必要性があると判定された場合には、
前記ニューラルネット部1の出力層13にある全部また
は一部のニューロンに、当該各ニューロンの状態と補関
係にある補ニューロンを並列に各々追加する指示を行う
ものである。ここで、所定信号処理素子である補ニュー
ロンとは、あるニューロンの状態をX とした場合に、1-
X をその状態とするものである。
【0018】図7に、論理素子のExclusive NOR 素子
(排他的論理和素子)を構成するように、ニューラルネ
ット部1で入力層11、中間層12、及び出力層13に
各々2個、3個及び1個のニューロンが配置され、入力
層11にあるニューロン1a,cには補ニューロン11
b,dが各々並列に追加され、中間層12にあるニュー
ロン12a,c,dには双ニューロン12b,d,fが
並列に追加され、出力層13にあるニューロン13aに
は、補ニューロン13bが並列に追加されているものを
示す。
【0019】続いて、本実施例の動作について図8に基
づいて説明する。ステップSJ1で、ニューラルネット
ワークの構成の指示を行うために、前記ニューラルネッ
ト構成部17により前記ニューラルネット部1の入力層
11、中間層12及び出力層13の各層を形成する前記
信号処理素子であるニューロンの個数を決定し、ニュー
ラルネット設定部7及び平滑化必要性判定部85に送出
する。例えば、図7に示したように、学習対象が排他的
論理和素子の場合には、入力層11が最初は2個、中間
層12は最初は3個、出力層13は最初は1個である。
【0020】ステップSJ2で、前記ニューラルネット
設定部7は、ニューラルネット構成部17によりニュー
ラルネットの各層の個数が決定されると、各ニューロン
間の結合荷重の初期値の設定を行うことになる。初期値
の設定は、−1から1までの実数をランダムに割り当て
る。ステップSJ3で、学習の対象及び目的に合致する
ように前記ニューラルネット構成部17により指示され
た個数のニューロン及び、当該指示に基づいて設定され
た結合荷重の初期値に基づいて前記平滑化必要性判定部
85により平滑化の必要性があると判定された場合に
は、当該必要性判定部85の判定結果に基づいて前記双
ニューロン追加部61は、前記中間層12の各ニューロ
ン12a,12c,12dに対し、各々双ニューロン1
2b,12d,12fを並列に追加する指示を行うこと
になる。
【0021】また、ステップSJ4では、前記データ集
中判定部86は前記提示パターン入力部2から入力する
提示パターンに基づいて、前記入力データの変化率が、
所定閾値以下であって、入力データが所定数値範囲内に
集中しているか否かを判定する。当該判定結果が閾値以
下である場合には、前記補ニューロン追加部66は入力
層12にある全部また一部のニューロンと補関係にある
補ニューロンを当該ニューロンに並列に各々追加する指
示を行う。ステップSJ5で、前記学習判定部87は、
前記誤差関数判定部14の判定結果と出力パターン及び
教師信号に基づいて定まる誤差関数の減少速度を速める
ように、当該速度の絶対値が所定閾値以下であるか否か
の判定を行う。閾値以下の場合には、前記補ニューロン
追加部67は前記ニューラルネット部1の前記出力層1
3にある全部または一部のニューロンに、当該ニューロ
ンの状態と補関係にある補ニューロンを並列に各々追加
する指示を行う。
【0022】ステップSJ6で、ステップSJ1からS
J5の指示に従って、ニューラルネット部1の各層のネ
ットワークの構築が行われる。ニューラルネットワーク
の構築後に、ステップSJ7で学習が開始されることに
なる。学習は、前記提示パターン入力部2により学習の
対象となる提示パターンが前記提示パターン入力部2に
より前記ニューラルネット部1に入力することにより行
われる。入力した提示パターンである入力信号はニュー
ラルネット部1の入力層11、中間層12及び出力層1
3を通過伝達する間に、各ニューロンによりその信号が
変換され、出力パターンとして出力層13から出力され
る。すると、前記誤差検出部4は、当該出力パターンと
前記教師信号発生部3から発生した教師信号とに基づい
て誤差を検出し、前記学習部5は前記ニューラルネット
設定部7により設定された結合荷重を修正し、その変更
設定を行うことになる。その際、ステップSJ8で、前
記誤差関数判定部14は、誤差関数(エネルギ関数)の
値が、ある閾値以下であるか否かを判定する。エネルギ
関数の値が、ある閾値以下であると判定された場合に
は、ステップSJ10に進み、処理が終了することにな
る。さもなければ、ステップSJ9に進み、平滑化の必
要性の判定を行うことになる。ここで平滑化の必要性の
有無は、前記データ集中判定部86、及び前記学習判定
部87により判定が行われることになる。即ち、前述し
たように、データ集中判定部86が入力信号のチェック
を行い、入力データに偏りがあると判定されると、ステ
ップSJ4で、補ニューロン追加部66は入力層11に
あるニューロンに対し並列に補ニューロンの追加の指示
を行うことになる。また、前記学習判定部57は、出力
パターンのチェックを行い、学習の進まないニューロン
が出力層にあると判定されると、前記補ニューロン追加
部67はステップSJ5で、補ニューロンの追加の指示
が行われることになる。尚、以上の説明にあっては、所
定ニューロンの追加のみを説明したが、当該場合に限ら
れることなく、例えば、削除して追加することにより、
ニューロンの入替え等を行って平滑化することも可能で
ある。
【0023】以上説明したように、各実施例にあって
は、ニューラルネットワークの学習の高速化を図るた
め、ニューラルネット部の全部または一部のニューロン
に所定ニューロンとして双ニューロンまたは補ニューロ
ンを追加するようにしている。したがって、全体に悪影
響を与えることなく、確実に高速化を図ることができる
ことになる。
【0024】
【発明の効果】以上説明したように、本発明にあって
は、ニューラルネットワークの学習の高速化を図るた
め、ニューラルネットワークの学習の高速化をハードウ
ェアを変更することなく、ニューラルネット部の出力パ
ターンと前記教師信号とに基づいて定まる誤差関数の減
少速度を速めるように、信号処理素子間を伝達する信号
の表す数値データをその許容範囲のうちの所定範囲内に
限定する平滑化の必要性の判定を行い、平滑化の必要性
がある場合には、所定信号処理素子の変更を行うように
するものである。即ち、本発明にあっては、既存のネッ
トワークシステム上で、前記所定信号処理素子を追加ま
たは削除して平滑化を行うことにより前記誤差関数の減
少速度を速めるようにしている。したがって、本発明に
あっては、平滑化により高速学習を達成するようにして
いるため、ニューラルネットワーク全体のバランスを壊
すことなく、また、ハードウェア全体を根本的に改造す
ることなく、簡単な構成及び手順で、容易に且つ確実に
学習の高速化を達成することができることになる。
【図面の簡単な説明】
【図1】第一の発明の原理ブロック図
【図2】第一の発明の実施態様(1) を示すブロック図
【図3】第一の発明の実施態様(2) を示すブロック図
【図4】第一の発明の実施態様(3) を示すブロック図
【図5】第二の発明の原理流れ図
【図6】実施例に係るニューラルネットワークによる高
速化学習装置を示すブロック図
【図7】実施例に係るニューラルネット部の例を示す図
【図8】実施例に係る処理流れ図
【図9】従来例に係るブロック図
【符号の説明】
10,1 ニューラルネット部 60(61,63,66,67) 所定信号処理素子変
更部(双信号処理素子追加部、補信号処理素子追加部、
補ニューロン追加部) 80,81,85(86,82,87) 平滑化必要性
判定部(データ集中判定部、学習判定部) 20,2 提示パターン入力部 30,3 教師信号発生部 40,4 誤差検出部 50,5 学習部

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 多数の信号処理素子が結合され、各信号
    処理素子には前段の信号処理素子との間の結合効率を表
    す適応的に変更し得る結合荷重が設定されたニューラル
    ネット部(10)を有し、ニューラルネット部(10)
    から出力された出力パターンと当該出力パターンが到達
    すべき目標となる教師信号との誤差を減少させるように
    結合荷重の設定変更がされるニューラルネットワークの
    学習装置において、 出力パターンと教師信号とに基づいて定まる誤差関数の
    減少速度、当該減少速度を決定する信号処理素子間を伝
    達する信号の表す数値データ、または、当該数値データ
    を決定する結合荷重の因子に基づいて、数値データが許
    容される数値範囲を所定数値範囲に限定する平滑化の必
    要性の判定を行う平滑化必要性判定部(80)と、 平滑化の必要性があると判定された場合に、所定信号処
    理素子の追加または削減の指示を行う所定信号処理素子
    変更部(60)とを有することを特徴とするニューラル
    ネットワークの学習高速化装置。
  2. 【請求項2】 多数の非線型の信号処理素子が結合さ
    れ、各信号処理素子には前段の信号処理素子との間の結
    合効率を表す適応的に変更し得る結合荷重が設定された
    ニューラルネット部(10)と、学習対象に応じた構成
    指示に基づき学習前に結合荷重の初期値の設定を行うニ
    ューラルネット設定部(70)とを有し、ニューラルネ
    ット部(10)から出力された出力パターンと当該出力
    パターンが到達すべき目標となる教師信号との誤差を減
    少させるように結合荷重の設定変更がされるニューラル
    ネットワークの学習装置において、 前記数値データを決定する因子である結合荷重の初期値
    及び前記構成指示の内容に基づいて、平滑化の必要性の
    判定を行う平滑化必要性判定部(81)と、 平滑化の必要性があると判定された場合に、前記ニュー
    ラルネット部(10)の中間層にある全部又は一部の信
    号処理素子に設定された結合荷重と同一の絶対値で逆符
    号をもつ結合荷重が前段の同一の各信号処理素子との間
    に各々設定された双信号処理素子を中間層にある前記信
    号処理素子の各々に並列に追加する指示を行う双信号処
    理素子追加部(61)とを有することを特徴とするニュ
    ーラルネットワークの学習高速化装置。
  3. 【請求項3】 多数の非線型の信号処理素子が結合さ
    れ、各信号処理素子には前段の信号処理素子との間の結
    合効率を表す適応的に変更し得る結合荷重が設定された
    ニューラルネット部(10)と、ニューラルネット部
    (10)から出力された出力パターンが到達すべき目標
    となる教師信号を発生する教師信号発生部(30)と、
    前記出力パターンと教師信号との誤差の検出を行う誤差
    検出部(40)と、検出された誤差に基づいて当該誤差
    を減少させるように前記結合荷重の設定変更を行う学習
    部(50)とを有するニューラルネットワークの学習装
    置において、 誤差関数の減少速度の絶対値が所定閾値以下であるか否
    かに基づいて、平滑化の必要性の有無の判定を行う学習
    判定部(82)と、 平滑化の必要性があると判定された場合には、前記ニュ
    ーラルネット部(10)の入力層または出力層にある全
    部又は一部の信号処理素子に、当該各信号処理素子の状
    態と補関係にある補信号処理素子を並列に各々追加する
    指示を行う補信号処理素子追加部(62)とを有するこ
    とを特徴とするニューラルネットワークの学習高速化装
    置。
  4. 【請求項4】 多数の非線型の信号処理素子が結合さ
    れ、各信号処理素子には前段の信号処理素子との間の結
    合効率を表す適応的に変更し得る結合荷重が設定された
    ニューラルネット部(10)と、ニューラルネット部
    (10)に提示パターンを入力する提示パターン入力部
    (20)とを有し、ニューラルネット部(10)から出
    力された出力パターンと当該出力パターンが到達すべき
    目標となる教師信号との誤差を減少させるように結合荷
    重の設定変更がされるニューラルネットワークの学習装
    置において、 提示パターン入力部(20)から入力した提示パターン
    に基づいて、前記ニューラルネット部(10)の入力層
    にある各信号処理素子に各々入力する入力データの変化
    率が、所定閾値以下であって、入力データが所定数値範
    囲内に集中しているか否かに基づいて、平滑化の必要性
    の判定を行うデータ集中判定部(83)と、 平滑化の必要性があると判定された場合には、入力層に
    ある全部又は一部の信号処理素子と補関係にある補信号
    処理素子を当該信号処理素子に並列に各々追加する指示
    を行う補信号処理素子追加部(63)とを有することを
    特徴とするニューラルネットワークの学習高速化装置。
  5. 【請求項5】 多数の信号処理素子が結合され、各信号
    処理素子には前段の信号処理素子との間の結合効率を表
    す適応的に変更し得る結合荷重が設定されたニューラル
    ネットワークの構成の指示があると(S1)、当該指示
    に応じてニューラルネットワークを構成し、ニューラル
    ネットワークに提示パターンを入力し、ニューラルネッ
    トワークから出力された出力パターンと到達すべき目標
    となる教師信号との誤差を減少させるように結合荷重の
    変更を行うニューラルネットワークの学習方法におい
    て、 出力パターンと教師信号とに基づいて定まる誤差関数の
    減少速度、当該減少速度を決定する信号処理素子間を伝
    達する信号の表す数値データ、又は、当該数値データを
    決定する結合荷重の因子に基づいて、前記数値データが
    許容される数値範囲を所定数値範囲に限定する平滑化の
    必要性の判定を行い(S2)、 平滑化の必要性があると判定された場合に、所定信号処
    理素子の追加または削減を行う(S3)ことを特徴とす
    るニューラルネットワーク学習高速化方法。
JP4014998A 1992-01-30 1992-01-30 ニューラルネットワークの学習高速化装置及び方法 Withdrawn JPH05204885A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4014998A JPH05204885A (ja) 1992-01-30 1992-01-30 ニューラルネットワークの学習高速化装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4014998A JPH05204885A (ja) 1992-01-30 1992-01-30 ニューラルネットワークの学習高速化装置及び方法

Publications (1)

Publication Number Publication Date
JPH05204885A true JPH05204885A (ja) 1993-08-13

Family

ID=11876598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4014998A Withdrawn JPH05204885A (ja) 1992-01-30 1992-01-30 ニューラルネットワークの学習高速化装置及び方法

Country Status (1)

Country Link
JP (1) JPH05204885A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102830096A (zh) * 2012-08-29 2012-12-19 国电燃料有限公司 基于人工神经网络的元素浓度测量误差修正方法
CN111784159A (zh) * 2020-07-01 2020-10-16 深圳市检验检疫科学研究院 一种食品风险追溯信息分级方法和装置
US10891108B2 (en) 2018-07-19 2021-01-12 Kabushiki Kaisha Toshiba Calculation device
CN112630659A (zh) * 2020-06-01 2021-04-09 青岛大学 一种基于改进bp-ekf算法的锂电池soc估算方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102830096A (zh) * 2012-08-29 2012-12-19 国电燃料有限公司 基于人工神经网络的元素浓度测量误差修正方法
US10891108B2 (en) 2018-07-19 2021-01-12 Kabushiki Kaisha Toshiba Calculation device
CN112630659A (zh) * 2020-06-01 2021-04-09 青岛大学 一种基于改进bp-ekf算法的锂电池soc估算方法
CN111784159A (zh) * 2020-07-01 2020-10-16 深圳市检验检疫科学研究院 一种食品风险追溯信息分级方法和装置
CN111784159B (zh) * 2020-07-01 2024-02-02 深圳市检验检疫科学研究院 一种食品风险追溯信息分级方法和装置

Similar Documents

Publication Publication Date Title
de Jesús Rubio USNFIS: uniform stable neuro fuzzy inference system
US4912647A (en) Neural network training tool
JP3178884B2 (ja) ニューラルネットワーク装置
US20200311527A1 (en) Residual semi-recurrent neural networks
Chakroborty et al. Calibrating the membership functions of the fuzzy inference system: instantiated by car-following data
JPH05204885A (ja) ニューラルネットワークの学習高速化装置及び方法
JPH07282168A (ja) カオスリカレント神経回路網とその学習方法
JPH0451384A (ja) ニューラルネットワークの構築方法
KR20200108173A (ko) 스파이킹 뉴럴 네트워크에 대한 연산량을 감소시키는 stdp 기반의 뉴로모픽 연산처리장치
JPH08272759A (ja) 相関信号処理用ニューラルネットワークの実行スピードアップの方法
JPH02231670A (ja) ニューラル・ネットワークの学習装置
JP3262340B2 (ja) 情報処理装置
JPH04237388A (ja) ニューロプロセッサ
JP2699447B2 (ja) 信号処理装置
US6625588B1 (en) Associative neuron in an artificial neural network
JP2639028B2 (ja) 神経回路の学習装置および学習方法
US20220172058A1 (en) Weight-based local modulation of weight update in neural networks
Elsimary et al. Generalization ability of fault tolerant feedforward neural nets
JPH086916A (ja) リカレント型ニューラルネットワーク学習方法及びその装置
Tsoi et al. Building MLP networks by construction
JPH04264664A (ja) 神経回路網型パターン処理装置
JP2607351B2 (ja) 多層パーセプトロンの神経回路網の効率的な学習のための誤差信号の発生方法
JPH08310746A (ja) 待ち時間予測用ニューラルネットの学習方法
JPH11175494A (ja) ニューラルネットワーク
JPH05128086A (ja) ネツトワーク型情報処理システム

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19990408