JPH0744515A - ニューラルネットワーク回路 - Google Patents
ニューラルネットワーク回路Info
- Publication number
- JPH0744515A JPH0744515A JP5188121A JP18812193A JPH0744515A JP H0744515 A JPH0744515 A JP H0744515A JP 5188121 A JP5188121 A JP 5188121A JP 18812193 A JP18812193 A JP 18812193A JP H0744515 A JPH0744515 A JP H0744515A
- Authority
- JP
- Japan
- Prior art keywords
- synapse
- neural network
- linear processing
- network circuit
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Character Discrimination (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【目的】 更新されるシナプスの重み係数に非線形処理
を施して値が大きくなり過ぎないようにすることによっ
て、活字文字等の非常に似通った分散の少ないデータを
扱う場合に、未学習のデータに対する認識率を向上でき
るニューラルネットワーク回路を提供する。 【構成】 ニューラルネットワーク回路10の学習動作
において、重みメモリ12からシナプスの重み係数が読
み出され、演算器11が前記重み係数と前記シナプスへ
の入力信号とを用いて演算し、その演算結果が非線形処
理回路13に供給される。そして、非線形処理回路13
が前記演算結果に非線形処理を施し、その非線形処理結
果が前記シナプスの新たな重み係数として重みメモリ1
2に書き込まれる。
を施して値が大きくなり過ぎないようにすることによっ
て、活字文字等の非常に似通った分散の少ないデータを
扱う場合に、未学習のデータに対する認識率を向上でき
るニューラルネットワーク回路を提供する。 【構成】 ニューラルネットワーク回路10の学習動作
において、重みメモリ12からシナプスの重み係数が読
み出され、演算器11が前記重み係数と前記シナプスへ
の入力信号とを用いて演算し、その演算結果が非線形処
理回路13に供給される。そして、非線形処理回路13
が前記演算結果に非線形処理を施し、その非線形処理結
果が前記シナプスの新たな重み係数として重みメモリ1
2に書き込まれる。
Description
【0001】
【産業上の利用分野】本発明は、音声認識処理や画像認
識処理等を行うニューラルネットワーク回路に関する。
識処理等を行うニューラルネットワーク回路に関する。
【0002】
【従来の技術】最近、情報処理におけるニューラルネッ
トワークの分野に大きな関心が集まってきている。ニュ
ーラルネットワークは生物のニューロンの構造を模倣し
て電子回路で実現されている。
トワークの分野に大きな関心が集まってきている。ニュ
ーラルネットワークは生物のニューロンの構造を模倣し
て電子回路で実現されている。
【0003】以下、従来のニューラルネットワークにつ
いて図面を参照しながら説明する。
いて図面を参照しながら説明する。
【0004】色々なニューラルネットワークがあるが、
図8に示すニューラルネットワークは入力層と出力層と
により構成されており、入力層に画像や音声のデータが
入力され、出力層から認識結果が出力される。前記入力
層及び出力層は、図9に示すニューロンにより構成され
ている。前記ニューロンは、1つの出力と複数の入力と
を持っており、各入力に対応する重み係数を乗じ、得ら
れた結果同士を加算する。
図8に示すニューラルネットワークは入力層と出力層と
により構成されており、入力層に画像や音声のデータが
入力され、出力層から認識結果が出力される。前記入力
層及び出力層は、図9に示すニューロンにより構成され
ている。前記ニューロンは、1つの出力と複数の入力と
を持っており、各入力に対応する重み係数を乗じ、得ら
れた結果同士を加算する。
【0005】このようなニューラルネットワークの処理
は電子回路で実現されており、通常、ニューロンのシナ
プスの重み係数を保持するメモリと、重み係数と前層か
ら与えられる入力とを乗算し乗算結果を累積し閾値処理
を実行する演算器とからなっている。
は電子回路で実現されており、通常、ニューロンのシナ
プスの重み係数を保持するメモリと、重み係数と前層か
ら与えられる入力とを乗算し乗算結果を累積し閾値処理
を実行する演算器とからなっている。
【0006】ニューラルネットワークは学習が可能であ
り、例えば、ヘブ学習法では、ニューラルネットワーク
に学習したい入力データを与えておき、学習させたいニ
ューロンに対応するシナプスの重み係数の値を、当該ニ
ューロンの入力信号の大きさに比例して増大させる。ニ
ューロンのシナプスへの入力信号をXとすると、当該シ
ナプスの重み係数の値Wは次の(1)式に従い変更され
る。
り、例えば、ヘブ学習法では、ニューラルネットワーク
に学習したい入力データを与えておき、学習させたいニ
ューロンに対応するシナプスの重み係数の値を、当該ニ
ューロンの入力信号の大きさに比例して増大させる。ニ
ューロンのシナプスへの入力信号をXとすると、当該シ
ナプスの重み係数の値Wは次の(1)式に従い変更され
る。
【0007】 W(t+1)=a*X+W(t) …(1) ただし、tは時間を、aは適当な係数を示す。
【0008】ここで、例えば、従来のニューラルネット
ワークに、図11に示すタイプ0の0から9までの数字
とタイプ1の0から9までの数字をヘブ学習させる場合
について説明する。なお、図11に示すタイプ0,1,
2の各数字は図12に示すように多くの画素により構成
されており、各画素は多値の値で表されている。
ワークに、図11に示すタイプ0の0から9までの数字
とタイプ1の0から9までの数字をヘブ学習させる場合
について説明する。なお、図11に示すタイプ0,1,
2の各数字は図12に示すように多くの画素により構成
されており、各画素は多値の値で表されている。
【0009】図10は前記ヘブ学習の処理の流れを示す
フローチャート図であり、図10に示すように、まず、
ステップS1で初期化が行われ、ステップS2でニュー
ラルネットワークの入力層にタイプ0の数字0について
の画素の値が全て入力される。そして、ステップS3
で、0番の出力ニューロンに学習させるために、0番の
出力ニューロンのシナプスへの入力信号Xによって、当
該シナプスの重み係数の値Wが(1)式に従い計算され
変更される。その後、ステップS4で、タイプ0の0か
ら9までの全ての数字が学習されたか否かを判断する判
断処理が行われるが、数字0しか学習されていないので
判断はNOとなりステップ5に移り、ステップ5でタイ
プ0の数字1が次の学習の対象となりステップS2に戻
る。
フローチャート図であり、図10に示すように、まず、
ステップS1で初期化が行われ、ステップS2でニュー
ラルネットワークの入力層にタイプ0の数字0について
の画素の値が全て入力される。そして、ステップS3
で、0番の出力ニューロンに学習させるために、0番の
出力ニューロンのシナプスへの入力信号Xによって、当
該シナプスの重み係数の値Wが(1)式に従い計算され
変更される。その後、ステップS4で、タイプ0の0か
ら9までの全ての数字が学習されたか否かを判断する判
断処理が行われるが、数字0しか学習されていないので
判断はNOとなりステップ5に移り、ステップ5でタイ
プ0の数字1が次の学習の対象となりステップS2に戻
る。
【0010】同様にして、ステップS2〜S5が繰り返
されることによって、タイプ0の1から9までの数字が
順次学習され、各数字毎に当該数字に対応する出力ニュ
ートロンのシナプスの重み係数の値Wが(1)式に従い
変更される。
されることによって、タイプ0の1から9までの数字が
順次学習され、各数字毎に当該数字に対応する出力ニュ
ートロンのシナプスの重み係数の値Wが(1)式に従い
変更される。
【0011】タイプ0の数字9の学習が終了すると、ス
テップS4で判断がYESとなりステップS6に移り、
ステップS6で、タイプ0の0から9までの数字とタイ
プ1の0から9までの数字とが全て学習されたか否かを
判断する判断処理が行われるが、タイプ0の0から9ま
での数字しか学習されていないので判断はNOとなりス
テップS7に移り、ステップS7でタイプ1の数字0が
次の学習の対象となる。そして、タイプ0の場合と同様
に、ステップS2〜S5が繰り返されることによって、
タイプ1の0から9までの数字の学習が順次行われる。
テップS4で判断がYESとなりステップS6に移り、
ステップS6で、タイプ0の0から9までの数字とタイ
プ1の0から9までの数字とが全て学習されたか否かを
判断する判断処理が行われるが、タイプ0の0から9ま
での数字しか学習されていないので判断はNOとなりス
テップS7に移り、ステップS7でタイプ1の数字0が
次の学習の対象となる。そして、タイプ0の場合と同様
に、ステップS2〜S5が繰り返されることによって、
タイプ1の0から9までの数字の学習が順次行われる。
【0012】このようにして、タイプ0の0から9まで
の数字とタイプ1の0から9までの数字との学習が実行
されると、ステップS4、S6で判断が共にYESとな
り1回目の学習が完了する。
の数字とタイプ1の0から9までの数字との学習が実行
されると、ステップS4、S6で判断が共にYESとな
り1回目の学習が完了する。
【0013】次に、ステップS8で、タイプ0の0から
9までの数字とタイプ1の0から9までの数字との学習
が2回行われたか否かを判断する判断処理が行われる
が、1回しか行われていないので判断はNOとなりステ
ップS9に移り、ステップS9で2回目の学習のための
初期化が行われステップS2に戻り、1回目の学習と同
様にして2回目の学習が実行される。
9までの数字とタイプ1の0から9までの数字との学習
が2回行われたか否かを判断する判断処理が行われる
が、1回しか行われていないので判断はNOとなりステ
ップS9に移り、ステップS9で2回目の学習のための
初期化が行われステップS2に戻り、1回目の学習と同
様にして2回目の学習が実行される。
【0014】以上のようにして、学習に使われた数字が
認識のためのデータとして入力されたとき所望の出力ニ
ューロンが発火する即ち最大の値になるように学習され
る。
認識のためのデータとして入力されたとき所望の出力ニ
ューロンが発火する即ち最大の値になるように学習され
る。
【0015】未学習のタイプ2の0から9までの数字を
認識のためのデータとして入力した場合の認識率を未学
習認識率と言い、これが高いほうが学習性能が良い。
認識のためのデータとして入力した場合の認識率を未学
習認識率と言い、これが高いほうが学習性能が良い。
【0016】
【発明が解決しようとする課題】ところで、以上のよう
な従来のニューラルネットワークにおいては、活字文字
のようなフォントの形が互いに類似した入力データを学
習すると特定の入力信号だけが大きくなるため、例え
ば、ヘブ則等の学習では、特定のシナプスの重み係数の
値だけが大きくなり、出力ニューロンの発火に対して支
配的になってくる。重み係数の値が大きくなったシナプ
スは、大きな信号を持つ未学習の入力データを認識する
際に大きな影響を与え、誤った認識がなされてしまう。
その結果、学習回数を増加しても未学習のデータに対す
る認識率は向上しないという問題がある。
な従来のニューラルネットワークにおいては、活字文字
のようなフォントの形が互いに類似した入力データを学
習すると特定の入力信号だけが大きくなるため、例え
ば、ヘブ則等の学習では、特定のシナプスの重み係数の
値だけが大きくなり、出力ニューロンの発火に対して支
配的になってくる。重み係数の値が大きくなったシナプ
スは、大きな信号を持つ未学習の入力データを認識する
際に大きな影響を与え、誤った認識がなされてしまう。
その結果、学習回数を増加しても未学習のデータに対す
る認識率は向上しないという問題がある。
【0017】本発明は、前記に鑑みなされたものであっ
て、活字文字等の非常に似通った分散の少ないデータを
扱う場合において、未学習のデータに対する認識率を向
上できるニューラルネットワーク回路を提供することを
目的としている。
て、活字文字等の非常に似通った分散の少ないデータを
扱う場合において、未学習のデータに対する認識率を向
上できるニューラルネットワーク回路を提供することを
目的としている。
【0018】
【課題を解決するための手段】前記の目的を達成するた
め、本発明は、シナプスの重み係数に非線形処理を施す
ことによって、認識時における前記シナプスの重み係数
の影響力を抑制するものである。
め、本発明は、シナプスの重み係数に非線形処理を施す
ことによって、認識時における前記シナプスの重み係数
の影響力を抑制するものである。
【0019】具体的に請求項1の発明が講じた解決手段
は、シナプスを持つニューロンからなるニューラルネッ
トワークを実現するニューラルネットワーク回路を対象
とし、前記シナプスの重み係数を記憶する記憶手段と、
該記憶手段から読み出された前記シナプスの重み係数と
前記シナプスへの入力信号とを用いて演算し演算結果を
出力する演算手段と、該演算手段からの前記演算結果に
非線形処理を施し非線形処理結果を前記シナプスの新た
な重み係数として前記記憶手段に書き込む非線形処理手
段とを備えている構成とするものである。
は、シナプスを持つニューロンからなるニューラルネッ
トワークを実現するニューラルネットワーク回路を対象
とし、前記シナプスの重み係数を記憶する記憶手段と、
該記憶手段から読み出された前記シナプスの重み係数と
前記シナプスへの入力信号とを用いて演算し演算結果を
出力する演算手段と、該演算手段からの前記演算結果に
非線形処理を施し非線形処理結果を前記シナプスの新た
な重み係数として前記記憶手段に書き込む非線形処理手
段とを備えている構成とするものである。
【0020】また、請求項2の発明は、具体的には、シ
ナプスを持つニューロンからなるニューラルネットワー
クを実現するニューラルネットワーク回路を対象とし、
前記シナプスの重み係数を記憶する記憶手段と、該記憶
手段から読み出された前記シナプスの重み係数に非線形
処理を施し非線形処理結果を出力する非線形処理手段
と、該非線形処理手段からの前記非線形処理結果と前記
シナプスへの入力信号とを用いて演算し演算結果を前記
シナプスの新たな重み係数として前記記憶手段に書き込
む演算手段とを備えている構成とするものである。
ナプスを持つニューロンからなるニューラルネットワー
クを実現するニューラルネットワーク回路を対象とし、
前記シナプスの重み係数を記憶する記憶手段と、該記憶
手段から読み出された前記シナプスの重み係数に非線形
処理を施し非線形処理結果を出力する非線形処理手段
と、該非線形処理手段からの前記非線形処理結果と前記
シナプスへの入力信号とを用いて演算し演算結果を前記
シナプスの新たな重み係数として前記記憶手段に書き込
む演算手段とを備えている構成とするものである。
【0021】請求項3の発明は、具体的には、シナプス
を持つニューロンからなるニューラルネットワークを実
現するニューラルネットワーク回路を対象とし、前記シ
ナプスの重み係数を記憶する記憶手段と、該記憶手段か
ら読み出された前記シナプスの重み係数に非線形処理を
施し非線形処理結果を出力する非線形処理手段と、該非
線形処理手段からの前記非線形処理結果と前記シナプス
への入力信号とを用いて前記ニューロンの処理を実行し
処理結果を出力する演算手段とを備えている構成とする
ものである。
を持つニューロンからなるニューラルネットワークを実
現するニューラルネットワーク回路を対象とし、前記シ
ナプスの重み係数を記憶する記憶手段と、該記憶手段か
ら読み出された前記シナプスの重み係数に非線形処理を
施し非線形処理結果を出力する非線形処理手段と、該非
線形処理手段からの前記非線形処理結果と前記シナプス
への入力信号とを用いて前記ニューロンの処理を実行し
処理結果を出力する演算手段とを備えている構成とする
ものである。
【0022】請求項4の発明は、具体的には、シナプス
を持つニューロンからなるニューラルネットワークを実
現するニューラルネットワーク回路を対象とし、前記シ
ナプスの重み係数を記憶する記憶手段と、該記憶手段か
ら読み出された前記シナプスの重み係数と前記シナプス
への入力信号とを用いて演算し演算結果を前記記憶手段
に書き込む演算手段と、前記記憶手段から読み出された
前記演算結果に非線形処理を施し非線形処理結果を前記
シナプスの新たな重み係数として前記記憶手段に書き込
む非線形処理手段とを備えている構成とするものであ
る。
を持つニューロンからなるニューラルネットワークを実
現するニューラルネットワーク回路を対象とし、前記シ
ナプスの重み係数を記憶する記憶手段と、該記憶手段か
ら読み出された前記シナプスの重み係数と前記シナプス
への入力信号とを用いて演算し演算結果を前記記憶手段
に書き込む演算手段と、前記記憶手段から読み出された
前記演算結果に非線形処理を施し非線形処理結果を前記
シナプスの新たな重み係数として前記記憶手段に書き込
む非線形処理手段とを備えている構成とするものであ
る。
【0023】さらに、請求項5の発明は、学習されるデ
ータの種類により非線形処理を行うか否かを選択できる
ようにするものであり、具体的には、シナプスを持つニ
ューロンからなるニューラルネットワークを実現するニ
ューラルネットワーク回路を対象とし、前記シナプスの
重み係数を記憶する記憶手段と、該記憶手段から読み出
された前記シナプスの重み係数と前記シナプスへの入力
信号とを用いて演算し演算処理結果を出力する演算手段
と、該演算手段からの前記演算処理結果に非線形処理を
施し非線形処理結果を出力する非線形処理手段と、前記
演算手段からの前記演算処理結果及び前記非線形処理手
段からの前記非線形処理結果の中から前記シナプスの新
たな重み係数として前記記憶手段に書き込まれる何れか
一方の処理結果を選択する選択手段とを備えている構成
とするものである。
ータの種類により非線形処理を行うか否かを選択できる
ようにするものであり、具体的には、シナプスを持つニ
ューロンからなるニューラルネットワークを実現するニ
ューラルネットワーク回路を対象とし、前記シナプスの
重み係数を記憶する記憶手段と、該記憶手段から読み出
された前記シナプスの重み係数と前記シナプスへの入力
信号とを用いて演算し演算処理結果を出力する演算手段
と、該演算手段からの前記演算処理結果に非線形処理を
施し非線形処理結果を出力する非線形処理手段と、前記
演算手段からの前記演算処理結果及び前記非線形処理手
段からの前記非線形処理結果の中から前記シナプスの新
たな重み係数として前記記憶手段に書き込まれる何れか
一方の処理結果を選択する選択手段とを備えている構成
とするものである。
【0024】
【作用】請求項1の発明の構成により、学習の際に、記
憶手段からシナプスの重み係数が読み出され、演算手段
が前記重み係数と前記シナプスへの入力信号とを用いて
演算し、その演算結果が非線形処理手段に供給される。
そして、非線形処理手段が前記演算結果に非線形処理を
施し、その非線形処理が前記シナプスの新たな重み係数
として記憶手段に書き込まれる。このように、演算後の
重み係数に非線形処理を施すことによって、例えば、ヘ
ブ則等の学習において更新される重み係数が大きくなり
過ぎないようにすることができる。これにより、活字文
字等の非常に似通った分散の少ないデータを扱う場合に
おいても、学習時に特定のシナプスの重み係数のみが突
出した値になることを抑止できるため、認識時に未学習
のデータを誤って認識する確率を低減できる。
憶手段からシナプスの重み係数が読み出され、演算手段
が前記重み係数と前記シナプスへの入力信号とを用いて
演算し、その演算結果が非線形処理手段に供給される。
そして、非線形処理手段が前記演算結果に非線形処理を
施し、その非線形処理が前記シナプスの新たな重み係数
として記憶手段に書き込まれる。このように、演算後の
重み係数に非線形処理を施すことによって、例えば、ヘ
ブ則等の学習において更新される重み係数が大きくなり
過ぎないようにすることができる。これにより、活字文
字等の非常に似通った分散の少ないデータを扱う場合に
おいても、学習時に特定のシナプスの重み係数のみが突
出した値になることを抑止できるため、認識時に未学習
のデータを誤って認識する確率を低減できる。
【0025】また、請求項2の発明の構成により、学習
の際に、演算前のシナプスの重み係数に非線形処理を施
すことによって、更新されるシナプスの重み係数が大き
くなり過ぎないようにすることができる。
の際に、演算前のシナプスの重み係数に非線形処理を施
すことによって、更新されるシナプスの重み係数が大き
くなり過ぎないようにすることができる。
【0026】請求項3の発明の構成により、認識の際
に、ニューロンの処理に用いられるシナプスの重み係数
に非線形処理を施すことによって、大きな値のシナプス
の重み係数による影響力を抑制できる。
に、ニューロンの処理に用いられるシナプスの重み係数
に非線形処理を施すことによって、大きな値のシナプス
の重み係数による影響力を抑制できる。
【0027】請求項4の発明の構成により、学習の際
に、更新されたシナプスの重み係数に非線形処理を施す
ことによって、更新されて大きくなり過ぎたシナプスの
重み係数を小さくすることができる。
に、更新されたシナプスの重み係数に非線形処理を施す
ことによって、更新されて大きくなり過ぎたシナプスの
重み係数を小さくすることができる。
【0028】さらに、請求項5の発明の構成により、例
えば、手書き文字等の分散の多いデータを扱う場合には
非線形処理を行わないようにすることができる。
えば、手書き文字等の分散の多いデータを扱う場合には
非線形処理を行わないようにすることができる。
【0029】
【実施例】以下、本発明の第1の実施例に係るニューラ
ルネットワーク回路について図面を参照しながら説明す
る。
ルネットワーク回路について図面を参照しながら説明す
る。
【0030】まず、第1の実施例に係るニューラルネッ
トワーク回路の構成について説明する。図1は第1の実
施例に係るニューラルネットワーク回路10の構成を示
すブロック図であり、図1において、ニューラルネット
ワーク回路10は、ニューロンの処理を行う演算器11
と、シナプスの重み係数を保持する重みメモリ12と、
演算器11から重みメモリ12への書き込みデータを変
換する非線形処理回路13とを備えている。
トワーク回路の構成について説明する。図1は第1の実
施例に係るニューラルネットワーク回路10の構成を示
すブロック図であり、図1において、ニューラルネット
ワーク回路10は、ニューロンの処理を行う演算器11
と、シナプスの重み係数を保持する重みメモリ12と、
演算器11から重みメモリ12への書き込みデータを変
換する非線形処理回路13とを備えている。
【0031】ニューラルネットワーク回路10では、デ
ータ入力に認識又は学習のためのデータが与えられ、そ
の結果が出力から得られる。
ータ入力に認識又は学習のためのデータが与えられ、そ
の結果が出力から得られる。
【0032】次に、以上のように構成されたニューラル
ネットワーク回路10の動作について説明する。ニュー
ラルネットワーク回路10の認識動作においては、認識
されるデータがデータ入力に与えられ、ニューロンの各
シナプスの重み係数に相当するデータが重みメモリ12
から読み出され、演算器11でニューロンの処理が実行
される。
ネットワーク回路10の動作について説明する。ニュー
ラルネットワーク回路10の認識動作においては、認識
されるデータがデータ入力に与えられ、ニューロンの各
シナプスの重み係数に相当するデータが重みメモリ12
から読み出され、演算器11でニューロンの処理が実行
される。
【0033】また、ニューラルネットワーク回路10の
学習動作、即ち、シナプスの重み係数の変更動作におい
ては、学習されるデータがデータ入力に与えられ、ニュ
ーロンの各シナプスの重み係数に相当するデータが重み
メモリ12から読み出され、演算器11でヘブ学習則の
(1)式に従い、学習する出力ニューロンのシナプスの
重み係数が算出され、非線形処理回路13により非線形
処理され、重みメモリ12のデータが更新される。非線
形処理回路13では例えば図5に示すような非線形処理
が施される。
学習動作、即ち、シナプスの重み係数の変更動作におい
ては、学習されるデータがデータ入力に与えられ、ニュ
ーロンの各シナプスの重み係数に相当するデータが重み
メモリ12から読み出され、演算器11でヘブ学習則の
(1)式に従い、学習する出力ニューロンのシナプスの
重み係数が算出され、非線形処理回路13により非線形
処理され、重みメモリ12のデータが更新される。非線
形処理回路13では例えば図5に示すような非線形処理
が施される。
【0034】図6は第1の実施例に係るニューラルネッ
トワーク回路10と従来のニューラルネットワークとの
認識率の違いを示しており、図6において、横軸は学習
回数を、縦軸は未学習データの認識率を表わし、実線は
ニューラルネットワーク回路10のグラフ、一点鎖線は
従来のニューラルネットワークのグラフである。ここで
は、データとして活字文字を用いた場合、詳しくは、6
2種類の英数字からなる文字群を23タイプ揃え、前記
23タイプの文字群のうち13タイプを学習に使い、残
りの10タイプの文字群の英数字を未学習データとして
認識テストに使った場合における認識率の変化を示して
いる。
トワーク回路10と従来のニューラルネットワークとの
認識率の違いを示しており、図6において、横軸は学習
回数を、縦軸は未学習データの認識率を表わし、実線は
ニューラルネットワーク回路10のグラフ、一点鎖線は
従来のニューラルネットワークのグラフである。ここで
は、データとして活字文字を用いた場合、詳しくは、6
2種類の英数字からなる文字群を23タイプ揃え、前記
23タイプの文字群のうち13タイプを学習に使い、残
りの10タイプの文字群の英数字を未学習データとして
認識テストに使った場合における認識率の変化を示して
いる。
【0035】図6に示すように、非線形処理を行わない
従来のニューラルネットワークにおいては学習回数を増
やしても未学習データの認識率は変化しない。これに比
べて、非線形処理を行うニューラルネットワーク回路1
0においては、学習の際にシナプスの重み係数が急激に
大きくなることが制限されるため、認識の際に相対的に
他のシナプスの重み係数の影響力が増大するので、学習
回数を増やすことにより未学習のデータの認識率を向上
させることができる。
従来のニューラルネットワークにおいては学習回数を増
やしても未学習データの認識率は変化しない。これに比
べて、非線形処理を行うニューラルネットワーク回路1
0においては、学習の際にシナプスの重み係数が急激に
大きくなることが制限されるため、認識の際に相対的に
他のシナプスの重み係数の影響力が増大するので、学習
回数を増やすことにより未学習のデータの認識率を向上
させることができる。
【0036】第1の実施例では、非線形処理として図5
に示す関数が使われているがこれに限られる訳ではな
い。
に示す関数が使われているがこれに限られる訳ではな
い。
【0037】以下、本発明の第2の実施例に係るニュー
ラルネットワーク回路について図面を参照しながら説明
する。
ラルネットワーク回路について図面を参照しながら説明
する。
【0038】まず、第2の実施例に係るニューラルネッ
トワーク回路の構成について説明する。図2は第2の実
施例に係るニューラルネットワーク回路20の構成を示
すブロック図であり、図2において、ニューラルネット
ワーク回路20は、ニューロンの処理を行う演算器21
と、シナプスの重み係数を保持する重みメモリ22と、
重みメモリ22から演算器21への読み出しデータを変
換する非線形処理回路23とを備えている。
トワーク回路の構成について説明する。図2は第2の実
施例に係るニューラルネットワーク回路20の構成を示
すブロック図であり、図2において、ニューラルネット
ワーク回路20は、ニューロンの処理を行う演算器21
と、シナプスの重み係数を保持する重みメモリ22と、
重みメモリ22から演算器21への読み出しデータを変
換する非線形処理回路23とを備えている。
【0039】ニューラルネットワーク回路20では、デ
ータ入力に認識又は学習のためのデータが与えられ、そ
の結果が出力から得られる。
ータ入力に認識又は学習のためのデータが与えられ、そ
の結果が出力から得られる。
【0040】次に、以上のように構成されたニューラル
ネットワーク回路20の動作について説明する。ニュー
ラルネットワーク回路20の認識動作においては、認識
されるデータがデータ入力に与えられ、ニューロンの各
シナプスの重み係数に相当するデータが重みメモリ22
から読み出され、非線形処理回路23で非線形処理さ
れ、演算器21でニューロンの処理が実行される。この
ように、ニューロンの処理に用いられるシナプスの重み
係数に非線形処理を施すことによって、大きな値のシナ
プスの重み係数による影響を抑制できる。
ネットワーク回路20の動作について説明する。ニュー
ラルネットワーク回路20の認識動作においては、認識
されるデータがデータ入力に与えられ、ニューロンの各
シナプスの重み係数に相当するデータが重みメモリ22
から読み出され、非線形処理回路23で非線形処理さ
れ、演算器21でニューロンの処理が実行される。この
ように、ニューロンの処理に用いられるシナプスの重み
係数に非線形処理を施すことによって、大きな値のシナ
プスの重み係数による影響を抑制できる。
【0041】また、ニューラルネットワーク回路20の
学習動作においては、学習されるデータがデータ入力に
与えられ、ニューロンの各シナプスの重み係数に相当す
るデータが重みメモリ22から読み出され、非線形処理
回路23で非線形処理され、演算器21でヘブ学習則の
(1)式に従い、学習する出力ニューロンのシナプスの
重み係数が算出され、重みメモリ22のデータが更新さ
れる。このように、演算前のシナプスの重み係数に非線
形処理を施すことによって、更新されるシナプスの重み
係数が大きくなり過ぎないようにすることができる。
学習動作においては、学習されるデータがデータ入力に
与えられ、ニューロンの各シナプスの重み係数に相当す
るデータが重みメモリ22から読み出され、非線形処理
回路23で非線形処理され、演算器21でヘブ学習則の
(1)式に従い、学習する出力ニューロンのシナプスの
重み係数が算出され、重みメモリ22のデータが更新さ
れる。このように、演算前のシナプスの重み係数に非線
形処理を施すことによって、更新されるシナプスの重み
係数が大きくなり過ぎないようにすることができる。
【0042】以下、本発明の第3の実施例に係るニュー
ラルネットワーク回路について図面を参照しながら説明
する。
ラルネットワーク回路について図面を参照しながら説明
する。
【0043】まず、第3の実施例に係るニューラルネッ
トワーク回路の構成について説明する。図3は第3の実
施例に係るニューラルネットワーク回路30の構成を示
すブロック図であり、図3において、ニューラルネット
ワーク回路30は、ニューロンの処理を行う演算器31
と、シナプスの重み係数を保持する重みメモリ32と、
重みメモリ32の更新データを変換する非線形処理回路
33とを備えている。
トワーク回路の構成について説明する。図3は第3の実
施例に係るニューラルネットワーク回路30の構成を示
すブロック図であり、図3において、ニューラルネット
ワーク回路30は、ニューロンの処理を行う演算器31
と、シナプスの重み係数を保持する重みメモリ32と、
重みメモリ32の更新データを変換する非線形処理回路
33とを備えている。
【0044】ニューラルネットワーク回路30では、デ
ータ入力に認識又は学習のためのデータが与えられ、そ
の結果が出力から得られる。
ータ入力に認識又は学習のためのデータが与えられ、そ
の結果が出力から得られる。
【0045】次に、以上のように構成されたニューラル
ネットワーク回路30の動作について説明する。ニュー
ラルネットワーク回路30の認識動作においては、認識
されるデータがデータ入力に与えられ、ニューロンの各
シナプスの重み係数に相当するデータが重みメモリ32
から読み出され、演算器31でニューロンの処理が実行
される。
ネットワーク回路30の動作について説明する。ニュー
ラルネットワーク回路30の認識動作においては、認識
されるデータがデータ入力に与えられ、ニューロンの各
シナプスの重み係数に相当するデータが重みメモリ32
から読み出され、演算器31でニューロンの処理が実行
される。
【0046】また、ニューラルネットワーク回路30の
学習動作、即ち、シナプスの重み係数の変更動作におい
ては、学習されるデータがデータ入力に与えられ、ニュ
ーロンの各シナプスの重み係数に相当するデータが重み
メモリ32から読み出され、演算器31でヘブ学習則の
(1)式に従い、学習する出力ニューロンのシナプスの
重み係数が算出され、重みメモリ32のデータが更新さ
れる。例えば、2タイプの文字の学習を実行する場合に
は、図7に示すように、ステップS3で一方のタイプの
最終文字に対応する出力ニューロンのシナプスの重み係
数の変更が終了すると、ステップS4で判断がYESと
なりステップS10に移り、ステップS10で重みメモ
リ32の全てのデータに対して非線形処理回路33によ
り非線形処理が行われる。同様に、他方のタイプの最終
文字に対応する出力ニューロンのシナプスの重み係数の
変更が実行された後、重みメモリ32の全てのデータに
対して非線形処理回路33により非線形処理が行われ
る。これにより、更新されて大きくなり過ぎたシナプス
の重み係数を小さくすることができる。従って、第1の
実施例に係るニューラルネットワーク回路10と同様
に、活字文字等の分散の少ないデータを扱う場合におい
ても未学習のデータの認識率を向上させることができ
る。なお、図7におけるステップS1〜S9の処理は、
それぞれ図10に示すステップS1〜S9の処理と同様
の処理である。
学習動作、即ち、シナプスの重み係数の変更動作におい
ては、学習されるデータがデータ入力に与えられ、ニュ
ーロンの各シナプスの重み係数に相当するデータが重み
メモリ32から読み出され、演算器31でヘブ学習則の
(1)式に従い、学習する出力ニューロンのシナプスの
重み係数が算出され、重みメモリ32のデータが更新さ
れる。例えば、2タイプの文字の学習を実行する場合に
は、図7に示すように、ステップS3で一方のタイプの
最終文字に対応する出力ニューロンのシナプスの重み係
数の変更が終了すると、ステップS4で判断がYESと
なりステップS10に移り、ステップS10で重みメモ
リ32の全てのデータに対して非線形処理回路33によ
り非線形処理が行われる。同様に、他方のタイプの最終
文字に対応する出力ニューロンのシナプスの重み係数の
変更が実行された後、重みメモリ32の全てのデータに
対して非線形処理回路33により非線形処理が行われ
る。これにより、更新されて大きくなり過ぎたシナプス
の重み係数を小さくすることができる。従って、第1の
実施例に係るニューラルネットワーク回路10と同様
に、活字文字等の分散の少ないデータを扱う場合におい
ても未学習のデータの認識率を向上させることができ
る。なお、図7におけるステップS1〜S9の処理は、
それぞれ図10に示すステップS1〜S9の処理と同様
の処理である。
【0047】以下、本発明の第4の実施例に係るニュー
ラルネットワーク回路について図面を参照しながら説明
する。
ラルネットワーク回路について図面を参照しながら説明
する。
【0048】まず、第4の実施例に係るニューラルネッ
トワーク回路の構成について説明する。図4は第4の実
施例に係るニューラルネットワーク回路40の構成を示
すブロック図であり、図4において、ニューラルネット
ワーク回路40は、ニューロンの処理を行う演算器41
と、シナプスの重み係数を保持する重みメモリ42と、
演算器41から重みメモリ42への書き込みデータを変
換する非線形処理回路43と、重みメモリ42への書き
込みデータを選択する選択回路44とを備えている。
トワーク回路の構成について説明する。図4は第4の実
施例に係るニューラルネットワーク回路40の構成を示
すブロック図であり、図4において、ニューラルネット
ワーク回路40は、ニューロンの処理を行う演算器41
と、シナプスの重み係数を保持する重みメモリ42と、
演算器41から重みメモリ42への書き込みデータを変
換する非線形処理回路43と、重みメモリ42への書き
込みデータを選択する選択回路44とを備えている。
【0049】ニューラルネットワーク回路40では、デ
ータ入力に認識又は学習のためのデータが与えられ、そ
の結果が出力から得られる。
ータ入力に認識又は学習のためのデータが与えられ、そ
の結果が出力から得られる。
【0050】次に、以上のように構成されたニューラル
ネットワーク回路40の動作について説明する。選択回
路44が非線形処理回路43の信号を選択した場合に
は、第1の実施例に係るニューラルネットワーク回路1
0と全く同様になり、活字文字等の非常に似通った分散
の少ないデータを扱う際に、未学習のデータに対する認
識率を向上させるような学習が可能となる。
ネットワーク回路40の動作について説明する。選択回
路44が非線形処理回路43の信号を選択した場合に
は、第1の実施例に係るニューラルネットワーク回路1
0と全く同様になり、活字文字等の非常に似通った分散
の少ないデータを扱う際に、未学習のデータに対する認
識率を向上させるような学習が可能となる。
【0051】一方、選択回路44が演算器41の信号を
選択した場合には、手書き文字等の分散の多いデータを
扱う際の対応が可能となる。
選択した場合には、手書き文字等の分散の多いデータを
扱う際の対応が可能となる。
【0052】なお、本実施例においては、学習する出力
ニューロンのシナプスの重み係数を算出するためにヘブ
の学習則を用いたがこれに限られる訳ではない。
ニューロンのシナプスの重み係数を算出するためにヘブ
の学習則を用いたがこれに限られる訳ではない。
【0053】
【発明の効果】以上説明したように、請求項1の発明に
係るニューラルネットワーク回路によると、学習の際
に、演算後のシナプスの重み係数に非線形処理を施すこ
とによって、例えば、更新されるシナプスの重み係数が
大きくなり過ぎないようにすることができる。これによ
り、活字文字等の非常に似通った分散の少ないデータを
扱う場合においても、特定のシナプスの重み係数のみが
突出した値になることを抑止できるため、未学習のデー
タを誤って認識する確率を低減できる。
係るニューラルネットワーク回路によると、学習の際
に、演算後のシナプスの重み係数に非線形処理を施すこ
とによって、例えば、更新されるシナプスの重み係数が
大きくなり過ぎないようにすることができる。これによ
り、活字文字等の非常に似通った分散の少ないデータを
扱う場合においても、特定のシナプスの重み係数のみが
突出した値になることを抑止できるため、未学習のデー
タを誤って認識する確率を低減できる。
【0054】また、請求項2の発明に係るニューラルネ
ットワーク回路によると、学習の際に、演算前のシナプ
スの重み係数に非線形処理を施すことによって、更新さ
れるシナプスの重み係数が大きくなり過ぎないようにす
ることができる。
ットワーク回路によると、学習の際に、演算前のシナプ
スの重み係数に非線形処理を施すことによって、更新さ
れるシナプスの重み係数が大きくなり過ぎないようにす
ることができる。
【0055】請求項3の発明に係るニューラルネットワ
ーク回路によると、認識の際に、ニューロンの処理に用
いられるシナプスの重み係数に非線形処理を施すことに
よって、大きな値のシナプスの重み係数による影響力を
抑制できる。
ーク回路によると、認識の際に、ニューロンの処理に用
いられるシナプスの重み係数に非線形処理を施すことに
よって、大きな値のシナプスの重み係数による影響力を
抑制できる。
【0056】請求項4の発明に係るニューラルネットワ
ーク回路によると、学習の際に、更新されたシナプスの
重み係数に非線形処理を施すことによって、更新されて
大きくなり過ぎたシナプスの重み係数を小さくすること
ができる。
ーク回路によると、学習の際に、更新されたシナプスの
重み係数に非線形処理を施すことによって、更新されて
大きくなり過ぎたシナプスの重み係数を小さくすること
ができる。
【0057】さらに、請求項5の発明に係るニューラル
ネットワーク回路によると、学習されるデータの種類に
より非線形処理を行うか否かを選択できる。
ネットワーク回路によると、学習されるデータの種類に
より非線形処理を行うか否かを選択できる。
【0058】従って、本発明によると、活字文字等の非
常に似通った分散の少ないデータを扱う場合に未学習の
データに対する認識率を向上できるニューラルネットワ
ーク回路を簡単なハードウェアで容易に構築することが
可能となる。
常に似通った分散の少ないデータを扱う場合に未学習の
データに対する認識率を向上できるニューラルネットワ
ーク回路を簡単なハードウェアで容易に構築することが
可能となる。
【図1】本発明の第1の実施例に係るニューラルネット
ワーク回路を示すブロック図である。
ワーク回路を示すブロック図である。
【図2】本発明の第2の実施例に係るニューラルネット
ワーク回路を示すブロック図である。
ワーク回路を示すブロック図である。
【図3】本発明の第3の実施例に係るニューラルネット
ワーク回路を示すブロック図である。
ワーク回路を示すブロック図である。
【図4】本発明の第4の実施例に係るニューラルネット
ワーク回路を示すブロック図である。
ワーク回路を示すブロック図である。
【図5】前記第1の実施例に係るニューラルネットワー
ク回路の非線形処理回路の動作を示す図である。
ク回路の非線形処理回路の動作を示す図である。
【図6】前記第1の実施例に係るニューラルネットワー
ク回路と従来のニューラルネットワークとの認識率の違
いを示す図である。
ク回路と従来のニューラルネットワークとの認識率の違
いを示す図である。
【図7】前記第3の実施例に係るニューラルネットワー
ク回路の学習動作を示すフローチャート図である。
ク回路の学習動作を示すフローチャート図である。
【図8】従来のニューラルネットワークを示す模式図で
ある。
ある。
【図9】前記従来のニューラルネットワークのニューロ
ンを示す模式図である。
ンを示す模式図である。
【図10】前記従来のニューラルネットワークの学習動
作を示すフローチャート図である。
作を示すフローチャート図である。
【図11】文字データを示す図である。
【図12】前記文字データの画素を示す図である。
10,20,30,40 ニューラルネットワーク回路 11,21,31,41 演算器(演算手段) 12,22,32,42 重みメモリ(記憶手段) 13,23,33,43 非線形処理回路(非線形処理
手段) 44 選択回路(選択手段)
手段) 44 選択回路(選択手段)
───────────────────────────────────────────────────── フロントページの続き (72)発明者 丸野 進 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 香田 敏行 大阪府門真市大字門真1006番地 松下電器 産業株式会社内
Claims (5)
- 【請求項1】 シナプスを持つニューロンからなるニュ
ーラルネットワークを実現するニューラルネットワーク
回路であって、 前記シナプスの重み係数を記憶する記憶手段と、該記憶
手段から読み出された前記シナプスの重み係数と前記シ
ナプスへの入力信号とを用いて演算し演算結果を出力す
る演算手段と、該演算手段からの前記演算結果に非線形
処理を施し非線形処理結果を前記シナプスの新たな重み
係数として前記記憶手段に書き込む非線形処理手段とを
備えていることを特徴とするニューラルネットワーク回
路。 - 【請求項2】 シナプスを持つニューロンからなるニュ
ーラルネットワークを実現するニューラルネットワーク
回路であって、 前記シナプスの重み係数を記憶する記憶手段と、該記憶
手段から読み出された前記シナプスの重み係数に非線形
処理を施し非線形処理結果を出力する非線形処理手段
と、該非線形処理手段からの前記非線形処理結果と前記
シナプスへの入力信号とを用いて演算し演算結果を前記
シナプスの新たな重み係数として前記記憶手段に書き込
む演算手段とを備えていることを特徴とするニューラル
ネットワーク回路。 - 【請求項3】 シナプスを持つニューロンからなるニュ
ーラルネットワークを実現するニューラルネットワーク
回路であって、 前記シナプスの重み係数を記憶する記憶手段と、該記憶
手段から読み出された前記シナプスの重み係数に非線形
処理を施し非線形処理結果を出力する非線形処理手段
と、該非線形処理手段からの前記非線形処理結果と前記
シナプスへの入力信号とを用いて前記ニューロンの処理
を実行し処理結果を出力する演算手段とを備えているこ
とを特徴とするニューラルネットワーク回路。 - 【請求項4】 シナプスを持つニューロンからなるニュ
ーラルネットワークを実現するニューラルネットワーク
回路であって、 前記シナプスの重み係数を記憶する記憶手段と、該記憶
手段から読み出された前記シナプスの重み係数と前記シ
ナプスへの入力信号とを用いて演算し演算結果を前記記
憶手段に書き込む演算手段と、前記記憶手段から読み出
された前記演算結果に非線形処理を施し非線形処理結果
を前記シナプスの新たな重み係数として前記記憶手段に
書き込む非線形処理手段とを備えていることを特徴とす
るニューラルネットワーク回路。 - 【請求項5】 シナプスを持つニューロンからなるニュ
ーラルネットワークを実現するニューラルネットワーク
回路であって、 前記シナプスの重み係数を記憶する記憶手段と、該記憶
手段から読み出された前記シナプスの重み係数と前記シ
ナプスへの入力信号とを用いて演算し演算処理結果を出
力する演算手段と、該演算手段からの前記演算処理結果
に非線形処理を施し非線形処理結果を出力する非線形処
理手段と、前記演算手段からの前記演算処理結果及び前
記非線形処理手段からの前記非線形処理結果の中から前
記シナプスの新たな重み係数として前記記憶手段に書き
込まれる何れか一方の処理結果を選択する選択手段とを
備えていることを特徴とするニューラルネットワーク回
路。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5188121A JPH0744515A (ja) | 1993-07-29 | 1993-07-29 | ニューラルネットワーク回路 |
US08/281,683 US5621862A (en) | 1993-07-29 | 1994-07-28 | Information processing apparatus for implementing neural network |
EP94111798A EP0636991A3 (en) | 1993-07-29 | 1994-07-28 | Information processing device for implementing a neural network. |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5188121A JPH0744515A (ja) | 1993-07-29 | 1993-07-29 | ニューラルネットワーク回路 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0744515A true JPH0744515A (ja) | 1995-02-14 |
Family
ID=16218082
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5188121A Pending JPH0744515A (ja) | 1993-07-29 | 1993-07-29 | ニューラルネットワーク回路 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0744515A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8428539B2 (en) | 2004-06-03 | 2013-04-23 | Silicon Laboratories Inc. | Spread spectrum isolator |
WO2017038104A1 (ja) * | 2015-09-03 | 2017-03-09 | 株式会社Preferred Networks | 実装装置および実装方法 |
CN109683024A (zh) * | 2018-12-29 | 2019-04-26 | 中国人民解放军陆军工程大学 | 神经元仿生电路和电容检测系统 |
US11521070B2 (en) | 2015-10-29 | 2022-12-06 | Preferred Networks, Inc. | Information processing device and information processing method |
-
1993
- 1993-07-29 JP JP5188121A patent/JPH0744515A/ja active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8428539B2 (en) | 2004-06-03 | 2013-04-23 | Silicon Laboratories Inc. | Spread spectrum isolator |
WO2017038104A1 (ja) * | 2015-09-03 | 2017-03-09 | 株式会社Preferred Networks | 実装装置および実装方法 |
US11521070B2 (en) | 2015-10-29 | 2022-12-06 | Preferred Networks, Inc. | Information processing device and information processing method |
US11915146B2 (en) | 2015-10-29 | 2024-02-27 | Preferred Networks, Inc. | Information processing device and information processing method |
US12026620B2 (en) | 2015-10-29 | 2024-07-02 | Preferred Networks, Inc. | Information processing device and information processing method |
US12079729B2 (en) | 2015-10-29 | 2024-09-03 | Preferred Networks, Inc. | Information processing device and information processing method |
CN109683024A (zh) * | 2018-12-29 | 2019-04-26 | 中国人民解放军陆军工程大学 | 神经元仿生电路和电容检测系统 |
CN109683024B (zh) * | 2018-12-29 | 2024-02-27 | 中国人民解放军陆军工程大学 | 神经元仿生电路和电容检测系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9619749B2 (en) | Neural network and method of neural network training | |
JP4620943B2 (ja) | 積和演算回路及びその方法 | |
US11373092B2 (en) | Training of artificial neural networks | |
US5063521A (en) | Neuram: neural network with ram | |
US6067536A (en) | Neural network for voice and pattern recognition | |
JPH08297716A (ja) | ニューラル・ネットワーク用の適応型重み調整回路 | |
CN112926655B (zh) | 一种图像内容理解与视觉问答vqa方法、存储介质和终端 | |
CN114817568B (zh) | 联合注意力机制与卷积神经网络的知识超图链接预测方法 | |
CN113361685B (zh) | 一种基于学习者知识状态演化表示的知识追踪方法及系统 | |
JP2673871B2 (ja) | ニューラル・ネットワークによるパターン認識方法及び装置 | |
CN111311324B (zh) | 基于稳定神经协同过滤的用户-商品偏好预测系统和方法 | |
US5613042A (en) | Chaotic recurrent neural network and learning method therefor | |
JPH0744515A (ja) | ニューラルネットワーク回路 | |
CN113935496A (zh) | 一种面向集成模型的鲁棒性提升防御方法 | |
CN117632181A (zh) | 基于注意力约束的目标检测对抗攻击补丁生成方法及系统 | |
JPH0683792A (ja) | ニューラルネットワークの学習装置およびニューラルネットワークの学習パターン呈示方法 | |
JP3177996B2 (ja) | ニューロプロセッサ | |
CN115862015A (zh) | 文字识别系统的训练方法及装置、文字识别方法及装置 | |
JPH1055346A (ja) | ニューラルネットワーク回路 | |
CN111582462A (zh) | 权值原位更新方法、装置、终端设备和可读存储介质 | |
US20210133556A1 (en) | Feature-separated neural network processing of tabular data | |
JPH07113917B2 (ja) | ニューラル・ネットワーク及びその制御方法及びニューラル・ネットワーク用演算装置 | |
JP3303253B2 (ja) | パターンマッチング方法および装置 | |
JPH09138786A (ja) | ニューラルネットワークの学習装置 | |
JP2734374B2 (ja) | 神経回路網模擬装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 19990119 |