JP3561096B2 - 関数学習装置 - Google Patents
関数学習装置 Download PDFInfo
- Publication number
- JP3561096B2 JP3561096B2 JP23915296A JP23915296A JP3561096B2 JP 3561096 B2 JP3561096 B2 JP 3561096B2 JP 23915296 A JP23915296 A JP 23915296A JP 23915296 A JP23915296 A JP 23915296A JP 3561096 B2 JP3561096 B2 JP 3561096B2
- Authority
- JP
- Japan
- Prior art keywords
- value
- storage unit
- input
- learning
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Feedback Control In General (AREA)
Description
【発明の属する技術分野】
本発明は、神経回路網を用いた関数学習装置に関する。
【0002】
【従来の技術】
現在、パターン認識、制御システム、時系列予測等で必要とされる一般に非線形な入出力関係を、訓練データとして提示された入出力データの複数のセットから学習によって推定する手法として神経回路網を用いた手法が注目されている。
【0003】
ここで学習とは、神経回路網が所望の入出力関係を実現するようにシナプス値と呼ばれる回路網の可変パラメータを最適化して行くことであり、従来一般的な手法としては、入出力値のセットからなる訓練データの入力値に対する回路網の出力値と訓練データの出力値との誤差の二乗が減少するように、全ての神経細胞素子間の結合重み係数、即ちシナプス値を変更して行くBP(Back Propagation)学習が行われている。
【0004】
この学習を繰り返すことによって、神経回路網の入出力関係は所望の入出力関係に近いものとなって行き、訓練データとして提示されていない入力値に対する出力に対しても妥当な推定出力が得られるとされ、数多くの工学的応用の検討がなされてきている。
【0005】
しかしながら神経回路網のアルゴリズムの実行には、特に学習の過程において膨大な計算量が必要となって実時間のソフトウェア処理が困難であるため、応用分野を拡大するためにも専用LSIの開発が望まれている。
【0006】
【発明が解決しようとする課題】
神経回路網をアナログLSIで実現するためのポイントの1つに、シナプス値を保持するための記憶手段の実現法がある。神経回路網アルゴリズムを忠実に実行するためにはシナプス値を連続値として保持する必要があるが、高精度で長期間の信頼性を持ったアナログメモリーが現状では無いため、一般にはディジタルメモリーを疑似アナログ的に用いて代用させている。しかしながらこの場合は、離散階調数の増加と共にハードウェア規模が大きくなってしまうという問題が生じる。
【0007】
これを避けるため、精度を落してディジタルメモリーの階調数を減らす試みもなされている。しかしこの場合、特に学習過程において、シナプスベクトル空間上でのアナログ探索というニューロコンピューテイングの特徴を維持するために必要なだけ多くのシナプスベクトルの状態数が保持されないため、学習不能となってしまう。
【0008】
本発明は、上記事情を考慮してなされたものであり、シナプス値記憶部全体としてのハードウェア規模を大きくせずに、学習時に望まれるシナプス値の連続性を保持した上で、学習後のシナプス値の長期使用に耐えられるようにした神経回路網を用いた関数学習装置を提供することを目的とする。
【0009】
【課題を解決するための手段】
本発明は、複数の可変パラメータを有し、所定数の入力値と該可変パラメータの値によって所定数の出力値が決定される入出力装置と、入出力値のセットからなる訓練データが与えられた場合、該訓練データの出力値と前記入出力装置に該訓練データの入力値を入力したときの出力値との距離が減少するように前記可変パラメータの値を変更するパラメータ変更装置とを有し、前記訓練データの提示に伴って前記可変パラメータの値を変更する学習モード及び前記入出力装置に任意の入力値を入力したときの出力値を利用する使用モードの2つの動作モードを持つ関数学習装置において、前記学習モードにおいてアナログメモリーで構成された第1の記憶手段に保持された値と該第1の記憶手段とは異なる第2の記憶手段に保持された値の和または差の形で前記可変パラメータの値を学習可能な精度で保持することができ、前記使用モードにおいて前記第2の記憶手段によって前記可変パラメータの値を、前記入出力装置の入出力関係を許容誤差範囲で維持可能な精度で保持することができるような、第1の記憶手段及び第2の記憶手段を備え、前記学習モードにおいては前記可変パラメータの値の保持のために前記第1の記憶手段及び前記第2の記憶手段を使用し、前記使用モードにおいては前記可変パラメータの値の保持のために前記第2の記憶手段を使用することを特徴とする。
【0012】
本発明によれば、学習時にはアナログメモリーを用いることで連続値をシナプス値として扱え、階調数の少いディジタルメモリーのみでは不可能であったアナログ探索的な学習が行えると同時に、学習後に神経回路網を入出力装置として使用する時点では、学習成果であるシナプス値をディジタルメモリー等を用いて安定に保持することが可能となる。
【0013】
さらに、学習時はアナログメモリーを用いるため、学習後にディジタルメモリーを使用した場合にそこで必要とされる階調数は、神経回路網の入出力関係を所望の許容誤差範囲で維持可能なだけあれば良い。
【0014】
従って、その階調数はシナプス値記憶部全体をディジタルメモリーのみで構成した場合に比べ少なくて済み、また一般にアナログメモリーはディジタルメモリーよりはるかに小さなハードウェア規模で作成可能なので、シナプス値記憶部全体のハードウェア規模が、同等の機能をディジタルメモリーのみで構成した場合に比べて削減可能となる。
【0015】
【発明の実施の形態】
以下、図面を参照しながら発明の実施の形態を説明する。
(第1の実施形態)
本発明の第1の実施形態について説明する。
【0016】
図1に、本実施形態に係る関数学習装置の構成を示す。
階層型神経回路網10およびシナプス更新装置40はアナログ回路であるとし、入力値xと出力値y,y*は連続値であるとする。
【0017】
この関数学習装置は、学習モードと使用モードを持つ。
まず、この関数学習装置の学習モードについて説明する。
入力値x(x1 ,…,xN )と出力値y*(y* 1 ,…,y* M )のセットからなる訓練データが与えられると、入力値xと、第1の記憶部20に保持されているシナプス値とに基づいて階層型神経回路網10が出力値y(y1 ,…,yM )を計算して出力する。なお、シナプス値の初期値としては、例えばランダム値を用いるものとする。
【0018】
ここで、第1の記憶部20は、アナログメモリーで構成され、階層型神経回路網10は例えば図2に示すように、入力値x(x1 ,…,xN )に対してシナプスと呼ばれる重み係数による重み付け和を計算し、その値を、一般に単調増加で有界な非線形入出力特性を有したニューロンと呼ばれる素子(図2中の9)に入力し出力させ、これを図2に示すような並列階層的なハードウェア構成によって一回以上繰り返し実行した計算結果を最終的な出力値y(y1 ,…,yM )として出力するものである。
【0019】
シナプス更新装置40は、階層型神経回路網10の出力値y(y1 ,…,yM )が訓練データの出力値y*(y* 1 ,…,y* M )と等しくなるように、両者の距離例えば自乗誤差を減少させるようなシナプス更新量を、階層型神経回路網10内で行われる計算過程の値(例えば各ニューロンの出力値など)および第1の記憶部20に保持されているシナプス値等を用いて計算し、その値を第1の記憶部20に保持されているシナプス値に加える。あるいは、更新前のシナプス値にシナプス更新量を加えた値を第1の記憶部20に記憶させる。
【0020】
ここで、第1の記憶部20はアナログメモリーで構成されているためにシナプス値として連続値が扱え、ディジタルメモリーで離散値として保持した場合に比べはるかに円滑に学習が進行すると考えられる。
【0021】
ここで述べた学習手法は一般に誤差逆伝搬学習法(error back−propagation learning method)と呼ばれており、繰り返し提示された各訓練データ毎にこれを実行することによって、階層型神経回路網10は訓練データとして提示された全ての入出力関係を近似するようになって行く。
【0022】
以上の手続きを階層型神経回路網10の入出力関係が所望の近似精度になるまで、例えば、全ての訓練データに対する出力誤差の自乗和または絶対値等が所定の値以下になるまで繰り返した時点で学習モードは終了である。
【0023】
上記第1の記憶部20として例えばキャパシタによるアナログメモリーを採用した場合、電荷リークによって一般に長期安定性を有さないので、記憶保持能力が著しく劣化する以前に上記学習モードを終了させる。
【0024】
学習モードが終了したら、直ちに、各シナプス値を保持した第1の記憶部20の各々の値を例えばA/D変換器から構成されたデータ変換部50によって離散階調値に変換し、その各々の結果の値を例えばディジタルメモリーで構成された第2の記憶部30に格納する。
【0025】
これ以後、階層型神経回路網10を入出力装置として用いる使用モードにおいては、シナプス値としては第2の記憶部30に保持されている値を、例えばD/A変換器から構成されたデータ逆変換部51によって連続値に変換した上で使用する。
【0026】
ここで、第2の記憶部30を構成するディジタルメモリーの階調数は、入出力関係の要求精度によって決定される。すなわち、学習終了時の誤差にシナプス値の離散化によって生じた誤差が上乗せされた最終的な誤差が要求水準を満たせるように決定される。
【0027】
なお、この要求水準が満たせるのであれば、長期安定性を有するが高精度を求めるのは難しいとされるアナログメモリーであるフローティングゲート素子等で第2の記憶部30を構成しても良い。この場合には、データ変換部50およびデータ逆変換部51は不要となる。
【0028】
図1は、本実施形態における関数学習装置のハードウエア構成の論理的な概念図であり、実際のハードウェア構成においては、ハード的に実現された階層型神経回路網10の各ニューロン素子間を結ぶ各シナプス乗算回路の近傍に、それに対応した第1の記憶部20、第2の記憶部30、シナプス更新装置40及びデータ変換部50などが配置されていても良い。
【0029】
シナプス値の記憶部としてディジタルメモリーを用いた場合、所望の入出力関係を学習させる過程において必要とされる階調数より、学習後に入出力関係を要求された精度で表現するのに必要な階調数は少なくて済む。従って、学習時にアナログメモリーを、学習後にはシナプス値を長期安定保持可能なディジタルメモリーまたはアナログメモリーを用いる本発明によって、学習時に必要なシナプス値のアナログ性が小規模なハードウェアで実現可能となるので、シナプス記憶部をディジタルメモリーのみで構成した場合に比べてハードウェア規模を削減出来ると同時に、キャパシタ等を用いたアナログメモリーでは実現不能な学習結果の長期安定保持も可能となる。
【0030】
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
本発明の第2の実施形態は、先の第1の実施形態における学習モード及び第1の記憶部20から第2の記憶部30へのシナプス値の変換及び転送が一旦終了した後に、新たに学習が必要となった入出力値のセットからなる訓練データが追加された場合に容易に再学習可能とするものである。
【0031】
図3に、本実施形態における関数学習装置の構成を示す。本実施形態の構成は、データ逆変換部60が追加されている点以外は、基本的には第1の実施形態と同様である。
【0032】
さて、一旦学習を終了した後に、新たに追加学習が必要な訓練データが提示された時点で、例えばディジタルメモリーである第2の記憶部30にシナプス値として保持されている各々の値を例えばD/A変換器であるデータ逆変換部60によってアナログ値に変換し、その結果の各々の値をアナログメモリーである第1の記憶部20に転送する。
【0033】
この後直ちに、以前学習した訓練データのセットに新たに学習が必要となった訓練データを追加したものを新たな訓練データセットとして繰り返し提示し第1の実施形態同様に学習を実行する。それ以降は第1の実施形態で説明したものと同様の過程を経る。
【0034】
誤差逆伝搬学習法(error back−propagation learning method)は、シナプス値の関数である誤差の自乗を全訓練データに対して和を取ったものをコスト関数とした最適化(厳密にはそのコスト関数に対する確率的降下法)であるので、訓練データの追加はコスト関数の変化をもたらす。従って、最適シナプス値もそれに伴って変化するが、追加した訓練データの数が少なかったり、その入出力関係が学習済の訓練データの入出力関係を補間したものからあまり逸脱していないような場合は、最適シナプス値の変化量は少なくて済む。よって、このような場合、学習再開時に第1の記憶部20に与える初期シナプス値としては、既学習訓練データに対する最適シナプス値の近似値として第2の記憶部30に保持されている値を採用する方が、例えばランダムシナプス値を初期値とするより、学習終了までの学習回数が少なくて済むと考えられる。
【0035】
従って、本発明によって、学習すべき訓練データが追加された場合にも、学習時に必要なシナプス値のアナログ性を小規模なハードウェアで実現出来ると同時に、シナプス記憶部をディジタルメモリーのみで構成した場合に比べてハードウェア規模を削減した上、キャパシタ等を用いたアナログメモリーでは実現不能な学習結果の長期安定保持も可能となり、更に追加学習時の学習終了までの学習回数が少なくて済む初期シナプス値を提供することが可能となる。
【0036】
なお、フローティングゲート素子等のアナログメモリーで第2の記憶部30を構成した場合には、データ変換部50、データ変換部51およびデータ変換部60は不要となる。
【0037】
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。
第1および第2の実施形態では、学習モードにおけるシナプス値をアナログメモリーで構成された第1の記憶部に保持させたが、本実施形態は、学習モードにおけるシナプス値を、アナログメモリーで構成された第1の記憶部に保持された値と長期安定保持能力を有する記憶デバイスで構成された第2の記憶部に保持された値の両者の和または差の形で保持するようにしたものである。
【0038】
図4に、アナログメモリーで構成された第1の記憶部に保持された値と長期安定保持能力を有する記憶デバイスで構成された第2の記憶部に保持された値との和の形でシナプス値を保持する場合の本実施形態における関数学習装置の構成を示す。
【0039】
階層型神経回路網10、シナプス更新装置40および加算器70(あるいは後述する減算器)はアナログ回路であるとし、入力値xと出力値y,y*は連続値であるとする。
【0040】
第1の記憶部20はアナログメモリーで構成され、第2の記憶部30は例えばディジタルメモリーで構成され、階層型神経回路網10は第1の実施形態で図2を用いて説明したものと同様とする。
【0041】
まず、この関数学習装置の学習モードについて説明する。
入力値x(x1 ,…,xN )と出力値y*(y* 1 ,…,y* M )のセットからなる訓練データが与えられると、入力値x、および加算器70によって算出された第1の記憶部20に保持されている値とこれに対応する第2の記憶部30に保持されている値との和からなるシナプス値に基づいて階層型神経回路網10が出力値y(y1 ,…,yM )を計算して出力する。なお、第2の記憶部30に保持されている値は、例えばD/A変換器から構成されたデータ逆変換部52によって加算器70に入力される前に連続値に変換される。
【0042】
シナプス更新装置40は、階層型神経回路網10の出力値y(y1 ,…,yM )が訓練データの出力値y*(y* 1 ,…,y* M )と等しくなるように、両者の距離例えば自乗誤差を減少させるように、第1の記憶部20及び第2の記憶部30に保持された値の更新量を階層型神経回路網10内で行われる計算過程の値(例えば各ニューロンの出力値など)及び第1の記憶部20及び第2の記憶部30に保持されている値等を用いて計算し、その値を第1の記憶部20及び第2の記憶部30に保持されている値に加える。あるいは、更新前のシナプス値にシナプス更新量を加えた値を第1の記憶部20及び第2の記憶部30に記憶させる。
【0043】
シナプス更新装置40は、第1の記憶部20に保持された値の更新量及び第2の記憶部30に保持された値の更新量を、それぞれ独立に求めても良い。あるいは、第1の記憶部20及び第2の記憶部30に保持された値の和の更新後の値を求め、その後、第1の記憶部20に保持する更新後の値と第2の記憶部30に保持する更新後の値に振り分けるようにしても良い。
【0044】
なお、ここでは第2の記憶部30に保持された値を入力する際にその値をD/A変換するデータ変換部と、第2の記憶部30に対して値を出力する際にその値をA/D変換するデータ変換部を、第2の記憶部30とシナプス更新装置40との間に設け、あるいはシナプス更新装置40に内蔵するものとする。
【0045】
ここで、第1の記憶部20はアナログメモリーで構成されているため、第2の記憶部30がデイジタルメモリーで構成されていても、シナプス値として連続値が扱え、デイジタルメモリーのみで離散値として保持した場合に比べはるかに円滑に学習が進行すると考えられる。
【0046】
なお、シナプス値を第1の記憶部20と第2の記憶部30に保持されている値の差の形で保持する場合は、図4の加算器70を減算器に替えれば良い。第1の記憶部20または第2の記憶部30のいずれかに保持されている値の符号を逆にしたものがその記憶部で保持されていると考えれば、論理的には和で保持されている場合と全く同じである。従って、以下の議論も両者に共通である。
【0047】
さて、前述の手続きを階層型神経回路網10の入出力関係が所望の近似精度になるまで、例えば、全ての訓練データに対する出力誤差の自乗和または絶対値等が所定の値以下になるまで繰り返した時点で学習モードは終了である。
【0048】
本実施形態においては、学習の終段階において、所望の入出力関係を実現する最終的に望ましいシナプス値の大まかな値が第2の記憶部30に保持され、その時点では絶対値が小さくなっていると考えられる各訓練データ毎に算出される前記更新量に対応した値が第1の記憶部20に保持されることが期待出来る。
【0049】
従って、第2の記憶部30に保持された値をそのままシナプス値とした場合の階層型神経回路網10の入出力関係による所望の入出力関係に対する近似誤差が要求水準を満たせるように第2の記憶部30を構成するディジタルメモリーの階調数が選ばれているのであれば、第1の実施形態のように第1の記憶部20の記憶保持能力が劣化する以前に学習モードを終了させる必要は無く、常に第1の記憶部20をアナログコンピューテーション実行のための補助メモリーとして用いた円滑な学習が期待出来る。
【0050】
この後、階層型神経回路網10を入出力装置として用いる使用モードにおいては、シナプス値としては第2の記憶部30に保持されている値を、例えばD/A変換器から構成されたデータ逆変換部53によって連続値に変換した上で使用する。
【0051】
さらに、学習が一旦終了した後に、新たに学習が必要となった入出力値のセットからなる訓練データが追加された場合、その時点でのシナプス値を初期値として再学習することができる。
【0052】
また、上に述べた近似誤差に対する要求水準が満たせるのであれば、第1の実施形態と同様に、長期安定性を有するが高精度を求めるのは難しいとされるアナログメモリーであるフローティングゲート素子等で第2の記憶部30を構成しても良い。
【0053】
なお、シナプス更新装置40は、第2の記憶部30に保持された値を入力する際にその値をD/A変換するデータ逆変換部と、第2の記憶部30に対して値を出力する際にその値をA/D変換するデータ変換部を内蔵するものとしていたが、第2の記憶部30もアナログメモリーで構成する場合には、データ逆変換部52、データ逆変換部53、及びシナプス更新装置40に内蔵などすると説明したデータ変換部およびデータ逆変換部は不要となる。
【0054】
図4は、本実施形態における関数学習装置のハードウェア構成の論理的な概念図であり、実際のハードウェア構成においては、ハード的に実現された階層型神経回路網10の各ニューロン素子間を結ぶ各シナプス乗算回路の近傍にそれに対応した、第1の記憶部20、第2の記憶部30、シナプス更新装置40及び加算器70などが配置されていても良い。
【0055】
以上述べたように、学習時にアナログメモリーを補助メモリとして用い、学習後にはシナプス値を長期安定保持可能なディジタルメモリーまたはアナログメモリーを用いる本発明によって、学習時に必要なシナプス値のアナログ性が小規模なハードウェアで実現可能となるので、シナプス記憶部をディジタルメモリーのみで構成した場合に比べてハードウェア規模を削減出来ると同時に、キャパシタ等を用いたアナログメモリーでは実現不能な学習結果の長期安定保持も可能となる。
【0056】
以上説明してきた各実施形態は、容易にLSIとして実現することが可能である。
本発明は、上述した実施の形態に限定されるものではなく、その技術的範囲において種々変形して実施することができる。
【0057】
【発明の効果】
本発明によれば、学習時に必要なシナプス値のアナログ性が小規模なハードウェアで実現可能となるので、シナプス記憶部をディジタルメモリーのみで構成した場合に比べてハードウェア規模を削減出来ると同時に、キャパシタ等を用いたアナログメモリーでは実現不能な学習結果の長期安定保持も可能となる。
また、学習すべき訓練データが追加された場合にも、追加学習時の学習終了までの学習回数が少なくて済む初期シナプス値を提供することが可能となる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る関数学習装置の構成を示す図
【図2】階層型神経回路網の一構成例を示す図
【図3】本発明の第2の実施形態に係る関数学習装置の構成を示す図
【図4】本発明の第3の実施形態に係る関数学習装置の構成を示す図
【符号の説明】
10…階層型神経回路網
20…第1の記憶部
30…第2の記憶部
40…シナプス更新装置
50…データ変換部
51,52,53,60…データ逆変換部
70…加算器
Claims (1)
- 複数の可変パラメータを有し、所定数の入力値と該可変パラメータの値によって所定数の出力値が決定される入出力装置と、入出力値のセットからなる訓練データが与えられた場合、該訓練データの出力値と前記入出力装置に該訓練データの入力値を入力したときの出力値との距離が減少するように前記可変パラメータの値を変更するパラメータ変更装置とを有し、前記訓練データの提示に伴って前記可変パラメータの値を変更する学習モード及び前記入出力装置に任意の入力値を入力したときの出力値を利用する使用モードの2つの動作モードを持つ関数学習装置において、
前記学習モードにおいてアナログメモリーで構成された第1の記憶手段に保持された値と該第1の記憶手段とは異なる第2の記憶手段に保持された値の和または差の形で前記可変パラメータの値を学習可能な精度で保持することができ、前記使用モードにおいて前記第2の記憶手段によって前記可変パラメータの値を、前記入出力装置の入出力関係を許容誤差範囲で維持可能な精度で保持することができるような、第1の記憶手段及び第2の記憶手段を備え、
前記学習モードにおいては前記可変パラメータの値の保持のために前記第1の記憶手段及び前記第2の記憶手段を使用し、前記使用モードにおいては前記可変パラメータの値の保持のために前記第2の記憶手段を使用することを特徴とする関数学習装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23915296A JP3561096B2 (ja) | 1996-09-10 | 1996-09-10 | 関数学習装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23915296A JP3561096B2 (ja) | 1996-09-10 | 1996-09-10 | 関数学習装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH1091604A JPH1091604A (ja) | 1998-04-10 |
JP3561096B2 true JP3561096B2 (ja) | 2004-09-02 |
Family
ID=17040532
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP23915296A Expired - Fee Related JP3561096B2 (ja) | 1996-09-10 | 1996-09-10 | 関数学習装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3561096B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3946562B2 (ja) | 2002-04-08 | 2007-07-18 | 本田技研工業株式会社 | 行動制御装置及び方法 |
CN109033021B (zh) * | 2018-07-20 | 2021-07-20 | 华南理工大学 | 一种基于变参收敛神经网络的线性方程求解器设计方法 |
WO2020044407A1 (ja) * | 2018-08-27 | 2020-03-05 | 日本電気株式会社 | 学習装置、学習方法および学習プログラム |
US11507642B2 (en) * | 2019-05-02 | 2022-11-22 | Silicon Storage Technology, Inc. | Configurable input blocks and output blocks and physical layout for analog neural memory in deep learning artificial neural network |
-
1996
- 1996-09-10 JP JP23915296A patent/JP3561096B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH1091604A (ja) | 1998-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kamarthi et al. | Accelerating neural network training using weight extrapolations | |
CN112818588B (zh) | 一种电力系统的最优潮流计算方法、装置及存储介质 | |
CN112558470A (zh) | 一种执行器饱和多智能体系统最优一致性控制方法和装置 | |
CN111340203B (zh) | 使用误差反向传播执行监督学习的神经形态系统 | |
EP0722587A1 (en) | Learning neural network and methods thereof | |
JP3561096B2 (ja) | 関数学習装置 | |
CN110429921B (zh) | 一种变步长lms自适应滤波方法及其存储介质 | |
JP3461525B2 (ja) | データを正規化する手段を含むニューラル・プロセッサ | |
CN111630530B (zh) | 数据处理系统、数据处理方法和计算机可读存储介质 | |
Chen | A comparative study of learning methods in tuning parameters of fuzzy membership functions | |
US6332136B1 (en) | Fuzzy filtering method and associated fuzzy filter | |
CN109861666B (zh) | 基于反馈神经网络的frm滤波器设计方法及系统 | |
JPH05197701A (ja) | ニューラルネットワークを用いた情報処理装置 | |
JP2003044830A (ja) | ニューラルネットワーク、ニューラルネットワークシステム、プログラムおよび記録媒体 | |
Szabó et al. | Improving the generalization capability of the binary CMAC | |
JPH0713768A (ja) | 連続論理計算システムおよびその使用方法 | |
Sadegh | A multilayer nodal link perceptron network with least squares training algorithm | |
Dolmas | Time-additive representations of preferences when consumption grows without bound | |
Nastac et al. | Fast retraining of artificial neural networks | |
US5590243A (en) | Neural network system with sampling data | |
Xu et al. | Fractional-order iterative learning control for fractional-order systems with initialization non-repeatability | |
Demian et al. | Parallel implementation of RBF neural networks | |
Klesk | Construction of a Neurofuzzy Network Capable of Extrapolating (and Interpolating) With Respect to the Convex Hull of a Set of Input Samples in ${{\bb R}}^ n$ | |
Fang et al. | Nonlinear dynamical systems control using a new RNN temporal learning strategy | |
You et al. | A new cascaded projection pursuit network for nonlinear regression |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040309 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040407 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040525 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040527 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090604 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090604 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100604 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |