JPH0383158A - ニューラルネット - Google Patents

ニューラルネット

Info

Publication number
JPH0383158A
JPH0383158A JP1221211A JP22121189A JPH0383158A JP H0383158 A JPH0383158 A JP H0383158A JP 1221211 A JP1221211 A JP 1221211A JP 22121189 A JP22121189 A JP 22121189A JP H0383158 A JPH0383158 A JP H0383158A
Authority
JP
Japan
Prior art keywords
layer
identity mapping
function
layers
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1221211A
Other languages
English (en)
Inventor
Toshiaki Tanaka
俊明 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP1221211A priority Critical patent/JPH0383158A/ja
Publication of JPH0383158A publication Critical patent/JPH0383158A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔発明の目的〕 (産業上の利用分野) 本発明は、最適化組合せ問題、パターン認識、制御シス
テム等、秘法い応用に向けて、大規模ニューラルネット
の構築を現実のものとするニューラルネットに関する。
(従来の技術) ニューラルネットを用いた情報処理の研究力!lIFは
非常に広いと考えられている。素子(アナログ、ディジ
タル、LSI)からアーキテクチャ、理論、応用と様々
なレベルでの研究がさかんである。
ニューラルネットの構成は、第7図(a)に示すような
全結合タイプのもの(いわゆるHopfield型ネッ
ト)、同図(b)に示すような3層ネット、同図(C)
に示すようなランダム結合ネット等が主に利用されてい
る。各ニューロン素子の間の結合には結合係数が定義さ
れ、各ニューロン素子は、例えば第8図(a)に示した
方程式(入出力関数、しきい値を含む)に従って演算処
理を行うもので、同図(b)に示すような入出力特性を
有する。そして、これらニューロン素子は入力11を与
えて得られる出力Ojで最適組合せ問題の鯉を表現した
り、パターンの識別などを行ったりする。このような処
理を行わせるべく、ニューロコンピュータには学習機能
があり、この学習機能とは、所定の入力を与えて得られ
出力と望ましい出力との差を基にニューロン素の入出力
関数、しきい値ならびに結合係数を変。
て望ましい出力が得られるようにするものであ例えば、
ある図形を人力して、「この形の文:はrAJと読む」
、「この形ならrBJと読む。
というように出力文字を学習させ、その学習結!は、複
数のニューロン素子ならびにそれらを結くするシナプス
に分散されて記憶される。学習を垂えたニューラルネッ
トワークに、例えば、汚い=でrAJと書いた図形を見
せると、全てのニューロン素子が並列的に働き、学習し
た文字の中か番一番、その図形の出力結果としてふされ
しい文=を選び出すようになる。この状態は、汚い字を
ノ間が見て、「この文字はrAJであろう」と判目する
のに似ている。
このようなニューラルネットワークを使うこ2により、
従来のノイマン型コンピュータでは不71意としていた
、上記した文字認識や音声認識、a像処理といった、あ
いまいなデータを判定して4の結果を出力する事例への
幅広い応用が期待されてくる。
ところで、これまでのニューラルネットの多くの研究は
、1つの機能、例えば「数字を認識する」とか「ノイズ
を含んだ入力画像の復元」に限られてその性能、学習可
能性等が研究されてきた。例えば、音声認識を例にとれ
ば、低レベルの音韻の識別から単語の切出し、認識、文
の理解、意図の抽出と、低レベルから高レベルまでいく
つもの機能が階層的にしかも相互に影響を与えながら働
いていると言える。現在は、低レベルの処理のみが対象
となっている。ネットワーク構造も3層〜5層ぐらいが
使われている。
また、連想記憶モデルとしてのニューラルネットもいく
つかのモデルが提案されている。第7図(a)はいわゆ
るホップフィールドモデルで1層のフィードバック結合
のあるネットである。この他、BAM(Bidirec
tionalAssociative  Memory
)のように2層のフィードバック結合のあるネットもあ
る。
このようなモデルのメモリ容量やデータ復元の性能が議
論されているが、いずれにせよ未だ大規模なネットワー
クを構築し、複雑な処理を実現するレベルには至ってい
ない。ただし、単一機能でもデータ数が莫大になるため
に大規模なニューラルネットが必要になることから、こ
の方面の研究が最近提案されてきている。
このように、今後の課題としては、低レベルの信号処理
から高次の記号処理へとニューラルネットを発展させる
ことであるが、大規模ネットワークの構築方法、学習に
よる実現可能性の問題があり、実現は極めて困難な状況
にある。
すなわち、上記したように高レベルの処理を行わせたり
、莫大なデータ数に対応するには、それだけ大規模なネ
ットワークを構築することになるが、このようにネット
ワークの規模が拡大される程、学習に、より多くの時間
が費やされることになる。その学習の結果が良好であれ
ばまだ良いが、階層数が足りないというような問題があ
ると、層を増やして、最初から学習させなければならず
、学習時間がかかりすぎて、現段階では非現実的な問題
として扱われている場合もある。
(発明が解決しようとする課題) 以上述べたように、単一機能を実現するニューラルネッ
トは多く提案されているにもかかわらず、従来の技術で
は、多機能化までには至ることができない。
本発明は、このような従来技術の有する問題点に鑑みて
なされたもので、その目的とするところは、単一機能ニ
ューラルネットを多機能化へ向けて統合させることがで
きるようにし、大規模化を実現することができるように
したニューラルネットを提供することにある。
〔発明の構成〕
(課題を解決するための手段) 本発明のニューラルネットは、一部のニューロン素子に
ついての入出力関数ならびにこの入出力関数による演算
値に対するしきい値と、このニューロン素子に結合され
る他のニューロン素子との結合係数とを、両ニューロン
素子間で恒等写像を実現するように定める恒等写像機能
実現手段を備えていることを特徴とする。
(作 用) 本発明によれば、ニューラルネットの中に部分的に恒等
写像を実現することで、この恒等写像の前後の機能を結
合するインタフェースを提供することができる。
よって、各種単一機能ネットワークを階層的に結合する
ことができるので、各種単一機能のネットワークをその
ネットワーク別に学習させ、その完了後、それらを適当
に結び合せることができるため、ニューラルネットの機
能拡大や規模拡大を容易に行うことができるようになる
また、最初から多層のネットワークで学習を行うと、時
間が多くかかる以外にも、中間層でデータの特徴抽出が
十分に行なえないという問題がある。
本発明によれば、多層の亨ットワークを組むにしても、
初めはその中の一部を恒等写像で結合し、あたかもその
分だけ層の数が少ないような状態にして学習し、これが
熟したところで、恒等写・像での結合部にランダムな結
合係数を与え、より多層の状態での学習へと移行させる
ようにすることができるから、中間層においてデータの
特徴抽出が十分になされないという障害を除くことがで
きる。
さらに、階層数が招入なり並列的に動作する2系列以上
の階層があり、それらの最終層出力を同じ層に入力する
ようなニューラルネットをハードウェアで構成する場合
、従来にあっては、層数の多い方のデータ出力が層数の
少ない方のデータ出力に遅れるため、総数の少ない方の
出力データを一時保持するためのメモリを設け、そのタ
イミングtIs整を行うようにすることから、その分、
構造的に複雑になる。
本発明によれば、層数の少ない方の系列に恒等写像を実
現する何等演算機能の無い層を挿入するだけで、層数を
一致させ、タイミングを合せることができ、構造的にl
li純なネットワークを構築することができる。
さらにまた、いずれの層が入力層(または出力層)にな
るか確定しない多層のネットワークをハードウェアで構
築する場合、従来にあっては、人力層となりうる層全て
に人力セレクタからの接続が必要になり、構造が複雑化
する。
本発明によれば、人力層となりうる層の中で、現時点で
は入力層とならない層を恒等写像で結合し、ダミーの中
間層として位置付けることができるので、ハードウェア
としての構造は極めて単純になる。
(実施例) 以下に本発明の実施例について図面を参照しつつ説明す
る。
第1図は本発明の第1実施例に係るニューラルネットの
結t9[図、第2図はその恒等写像ll能の実現法を表
す原理説明図である。
第1図において、1.2は夫々単一機能のニューラルネ
ットである。つまり、例えば、ニューラルネット1は手
書き等による変形文字を標準文字に変換して出力するネ
ットワーク、ニューラルネット2は標準文字を認識する
ネットワークとなる。
ニューラルネット1は人力層3と中間層4と出力層5と
からなり、ニューラルネット2は人力層6と中間層7と
出力層8とからなる。9は各層3〜8を構成するニュー
ロン素子、10はニューロン素子9同士を所定の係数を
持って結ぶ結合部であり、その結合係数は学習の対象と
なり、学習により変更される。
11は恒等写像機能実現のための結合部であり、この結
合部11によりニューラルネット1の出力層5とニュー
ラルネット2の入力層6とが結合されており、ニューラ
ルネット1,2の機能が統合されている。
これにより、上記の文字認識の例によれば、変形文字を
標準文字として変換し認識するというネットワークを構
築することができたことになる。
12は恒等写像実現手段であり、上記の結合はこの恒等
写像実現手段12により達成されるものであり、その態
様を第2図に示している。
同図(a)に示すように、2つのニューロン素子a、b
があるとする。素子aは例えば第1図に示すニューラル
ネット1の出力層5のニューロン素子9、素子すはニュ
ーラルネット2の入力層6のニューロン素子9に夫々当
はめられる。
xi、x2.・・・、xnはニューロン索子aへの人力
信号、wl 、w2、−、wn 、uは結合係数、fa
、fbは各素子a、bの入出力関数、θa。
θbはしきい値であり、恒等写像機能実現手段12は入
出力関数fa  (又はfb)、Lきい値θa (又は
θb)及びニューロン素子aとニューロン素子すの結合
係数Uを例えば下記の1)、2)いずれかの仕方で定め
ることにより恒等写像を実現する。
1)   fa=1、θa−0、umI  (但し、■
は第2図(c)に示すような恒等関数である。)。
2)  fb−1、θb−o、u−Ioまた、ハードウ
ェアで実現する場合のように設定可能な値が制限される
場合、3)のような設定方法がある。
3)   fa  (S)=3S、θa−0、u−1/
3゜ このようにしても、ニューロン索子すへの大きさが変化
しないから恒等写像を実現できる。
なお、通常は、ニューロン索子aの入出力関数fa、L
きい値θaは学習に関与していて任意に操作できないこ
とが多い。他方、ニューロンbの側(つまり入力端)は
逆にfb−1,θb−oにとることが多いので、このよ
うな場合は2)を採用することとなる。
また、1)〜3)のいずれも不可能である場合には、新
たな二ニーロン素子を素子a、b間に挿入して上記のよ
うに設定すれば良い。
以上のように、ニューラルネット1.2の出入力間で恒
等写像を実現することにより、これらニューラルネット
1,2の機能を結合するインタフェースを提供すること
ができる。
よって、各種単一機能ネットワークを階層的に結合する
ことができるので、各種単一機能のネットワークをその
ネットワーク別に学習させ、その完了後、それらを適当
に結び合せることができるため、ニューラルネットの機
能拡大やMI模拡大を容易に行うことができるようにな
る。
第3図は第1図のニューラルネットを更に規模拡大した
第2実施例の結線図である。
この図において、13は単一機能のニューラルネット、
14はその入力層、15は出力層、16はフィードバッ
ク結合部である。ニューラルネット13は、ニューラル
ネット2と同様、ニューラルネット1の出力層5の出力
を入力とし、ニューラルネット2とは別の機能を果たす
ものである。
上記文字認識の例であれば、ニューラルネット1の出力
は標準文字のパターンであり、このパターンデータに対
しニューラルネット2とは別の処理を施すものがニュー
ラルネット3となる。その人力層14にはニューラルネ
ット1の出力層5の数と同じ数のニューロン索子9を含
んでいる。このように要は2つの接続したいネットワー
クは、接続する層のニューロン素子の数が同じであれば
、あとは恒等写像実現手段12によって容易に接続可能
となる。
第4図は本発明の第3実施例に係るニューラルネットの
結線図である。
この図に示すニューラルネットは上記より階層の深いフ
ィードフォワード型ネットワークであり、17は入力層
、18〜21は中間層、22は出力層である。
通常、ニューラルネットの学習は第7図(b)に示した
ようなネットワークモデルを設定し、二ニーロン素子間
の結合係数の初期値をランダムな値または問題に依存し
て定められる値に設定してから行われる。単一機能のネ
ットワークの中に恒等写像を実現するニューロン素子や
結合は存在しないのが普通である。
が、例えば第4図のようなネットワークを考えると、第
4層20から第5層21へは1対1対応の結合で恒等写
像が実現されているものとする。
すなわち例えば、第4層20から第5層への結合係数の
値は全て1、第5層21の入出力関数を恒等関数、しき
い値をOとするものである。こうすると本質的に第5層
21を除いて出力層22と第4層20とを直接接続した
ものと同じである。
そして、まずはこの状態で第47120から第51鱒2
1への結合係数を全く変化させないようにして学習する
。つまり、5層の学習を行う。この学習が熟したところ
で、途中で第4層20から第5層21への結合係数とし
てランダムなものを与えこれを可変として学習するとこ
とにすると、5層ニューラルネットから6層ニューラル
ネットへの学習に移行したことになる。
従来、層の中のニューロン素子の数を変化させる学習は
存在したが、層が増える学習はなかった。
本実施例によれば、恒等写像機能を用いることで層を増
やす学習が可能になる。
これにより、学習をより能率的に行うことができる。
つまり、I!kv′Jから多層のネットワークで学習を
行うと、時間が多くかかりすぎるとともに、中間層でデ
ータのLvt@抽出が十分に行なえないという問題があ
る。
本実施例によれば、6層のネットワークを組むにしても
、初めはその中の第4層20と第5層21とを恒等写像
で結合し、あたかもその分だけ層の数が少ないような状
態にして学習し、これが熟したところで、その結合部1
1にランダムな結合係数を与え、より6層状態での学習
へと移行させるようにすることができるから、中間層1
8〜21においてデータの特徴抽出が十分になされない
という障害を除くことができることとなる。
第5図は本発明の第5実施例に係るニューラルネットを
従来のネットと対比して示す結線図である。
まず、同図(b)において、23.25は人力層、24
は中間層、26は出力層である。このネットワークは人
力層23.25にデータを同時に入力し、人力層23の
出力を受ける中間層24の出力と、人力層25の出力と
を出力層26に同時に人力して処理するものとする。
このようなネットワークをハードウェアで構築する場合
、このままだと中間層24からの入力が入力層25から
の入力に遅れるため、出力層26において同時に両者を
加算する場合、タイミングを取る必要がある。そのため
には例えば、入力層25からのデータを一時保持するた
めの手段を設け、中間824の出力にタイミングを合せ
てその保持しておいたデータを出力するようにすること
となる。
しかし、これではハード構造は複雑になる。
そこで、第5図(a)のものは、人力層25と出力層2
6との間に、人力層25と恒等写像で結合する中間層2
7を設けたものである。
これにより、入ツノ層25から出力層26に至るまでの
計算時間を遅らせることができるので、データを一時保
持するためのメモリを設けるようなことは必要とするこ
となしに、両入力層23゜25から出力層26へのデー
タ入力タイミングを一致させることができ、構造的に単
純なネットワークを構築することができる。
第6図は本発明の第5実施例に係るニューラルネットを
従来のものと対比して示す結線図である。
まず、同図(b)において、28 (1)、28(2)
、・・・、28 (n−1)、28 (n)はネットワ
ークを構成する層、29は人力セレクタである。
これら層28 (1)〜28 (n)は、それら全てを
使用せずに、いずれか一つを人力層として設定し、層の
総数以下の階層のネットワークとして使用されるもので
ある。例えば、層28 (1)〜28 (n)が10層
であり、そのうち最後の3層を使ってネットワークを定
義する場合、人力セレクタ2つを第8層28(n−2)
に設定することとなる。
したがって、入力層とない得る層全てに対し入力セレク
タ29からの接続が必要になり、構造が複雑化する。
そこで、入力層となりうる層(図示の例では全ての層)
の中で、現時点では人力層とならない層を恒等写像で結
合し、ダミーの中間層として位置付けることができるの
で、ハードウェアとしての構造は極めて単純になる。
つまり、第1層28 (1)を固定的に入力層とし、第
10層28 (n)を固定的に出力層とし、第2層28
(2)〜第9JW28(n−1)は必要数だけ第2層2
8 (2)から順に用いて、残りの層から第10層28
 (n)までを恒等写像で接続できるようにすれば、人
力セレクタ29は不要になる。
例えば、上記の最後の3層を使っての場合を考えると、
第2層28 (2)のみを中間層として用い、第3層2
8 (3)〜第10層(n)を恒等写像で接続するよう
にすれば良いこととなる。
よって、人力セレクタ29は不要であり、構造は極めて
簡litになる。
〔発明の効果〕
以上説明したように本発明によれば、ニューラルネット
の中に部分的に恒等写像を実現することで、この恒等写
像の前後の機能を結合するインタフェースを提供するこ
とができるので、各種単一機能ネットワークを階層的に
結合することができるので、各種単一機能のネットワー
クをそのネットワーク別に学習させ、その完了後、それ
らを適当に結び合せることができるため、ニューラルネ
ットの機能拡大や規模拡大を容易に行うことができるよ
うになる。
また、最初から多層のネットワークで学習を行うと、時
間が多くかかる以外にも、中間層でデータの特徴抽出が
十分に行なえないという問題があるが、本発明によれば
、多層のネットワークを組むにしても、初めはその中の
一部を恒等写像で結合し、あたかもその分だけ層の数が
少ないような状態にして学習し、これが熟したところで
、恒等写像での結合部にランダムな結合係数を与え、よ
り多層の状態での学習へと移行させるようにすることが
できるから、中間層においてデータの特徴抽出が十分に
なされないという障害を除くことができる。
さらに、階層数が相異なり並列的に動作する2系列以上
の階層があり、それらの最終層出力を同じ層に入力する
ようなニューラルネットをハードウェアで構成する場合
、従来にあっては、層数の多い方のデータ出力が層数の
少ない方のデータ出力に遅れるため、総数の少ない方の
出力データを一時保持するためのメモリを設け、そのタ
イミング調整を行うようにすることから、その分、構造
的に複雑になる。この点に関し、本発明によれば、層数
の少ない方の系列に恒等写像を実現する何等演算機能の
無い層を挿入するだけで、H1数を一致させ、タイミン
グを合せることができ、構造的に単純なネットワークを
構築することができる。
さらにまた、いずれの層が入力層(または出力層)にな
るか確定しない多層のネットワークをハードウェアで構
築する場合、従来にあっては、入力層となりうる唐金て
に人力セレクタからの接続が必要になり、構造が複雑化
するが、本発明によれば、人力層となりうる層の中で、
現時点では人力層とならない層を恒等写像で結合し、ダ
ミーの中間層として位置付けることができるので、ハー
ドウェアとしての構造は極めて小細になる。
【図面の簡単な説明】
第1図は本発明の第1実施例に係るニューラルネットの
結線図、第2図はその恒等写像機能実現法の原理説明図
、第3図は本発明の第2実施例に係るニューラルの結線
図、第4図は本発明の第3実施例に係る二二一うルネッ
トの結線図、第5図は本発明の第4実施例に係るニュー
ラルネットの結線図、第6図は本発明の第5実施例に係
るニューラルネットの結線図、第7図は従来の各種型式
のニューラルネットの結線図、第8図はニューロン素子
同士の結合法の原理説明図である。 1.2・・・ニューラルネット、3・・・ニューラルネ
ット1の入力層、4・・・同中間層、5・・・同出力層
、6・・・二二一うルネット2の入力層、7・・・同中
間層、8・・・同出力層、9 (a) 、  9 (b
)・・・恒等写像結合されるニューロン素子、11・・
・恒等写像機能実現のための結合部、12・・・恒等写
像機能実現手段、fa、fb・・・入出力関数、θa、
θb・・・しきい値、W1〜wn、u・・・結合係数、
!・・・恒等関数。

Claims (1)

    【特許請求の範囲】
  1. 一部のニューロン素子についての入出力関数ならびに該
    入出力関数による演算値に対するしきい値と、該ニュー
    ロン素子に結合された他のニューロン素子との結合係数
    とを、前記一部のニューロン素子と前記他のニューロン
    素子との間で恒等写像を実現するように定める恒等写像
    機能実現手段を備えているニューラルネット。
JP1221211A 1989-08-28 1989-08-28 ニューラルネット Pending JPH0383158A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1221211A JPH0383158A (ja) 1989-08-28 1989-08-28 ニューラルネット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1221211A JPH0383158A (ja) 1989-08-28 1989-08-28 ニューラルネット

Publications (1)

Publication Number Publication Date
JPH0383158A true JPH0383158A (ja) 1991-04-09

Family

ID=16763207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1221211A Pending JPH0383158A (ja) 1989-08-28 1989-08-28 ニューラルネット

Country Status (1)

Country Link
JP (1) JPH0383158A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016132468A1 (ja) * 2015-02-18 2016-08-25 株式会社日立製作所 データ評価方法および装置、故障診断方法および装置
JP2020052813A (ja) * 2018-09-27 2020-04-02 Kddi株式会社 ニューラルネットワーク、情報付加装置、学習方法、情報付加方法、およびプログラム
JP2020052814A (ja) * 2018-09-27 2020-04-02 Kddi株式会社 ニューラルネットワーク、学習装置、学習方法、およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016132468A1 (ja) * 2015-02-18 2016-08-25 株式会社日立製作所 データ評価方法および装置、故障診断方法および装置
JP2020052813A (ja) * 2018-09-27 2020-04-02 Kddi株式会社 ニューラルネットワーク、情報付加装置、学習方法、情報付加方法、およびプログラム
JP2020052814A (ja) * 2018-09-27 2020-04-02 Kddi株式会社 ニューラルネットワーク、学習装置、学習方法、およびプログラム

Similar Documents

Publication Publication Date Title
Rahman et al. A new benchmark on american sign language recognition using convolutional neural network
Das et al. Learning context-free grammars: Capabilities and limitations of a recurrent neural network with an external stack memory
AU2009202547B2 (en) Neural networks with learning and expression capability
CN111275007B (zh) 基于多尺度信息融合的轴承故障诊断方法及系统
CN107516096A (zh) 一种字符识别方法及装置
CN110580519B (zh) 一种卷积运算装置及其方法
CN112507947A (zh) 基于多模态融合的手势识别方法、装置、设备及介质
Yamada et al. Representation learning of logic words by an RNN: from word sequences to robot actions
Agranat et al. A CCD based neural network integrated circuit with 64K analog programmable synapses
US5621862A (en) Information processing apparatus for implementing neural network
JPH0383158A (ja) ニューラルネット
JPH08123913A (ja) 情報処理方法
CN108108652A (zh) 一种基于字典学习的跨视角人体行为识别方法及装置
CN116665300A (zh) 基于时空自适应特征融合图卷积网络的骨架动作识别方法
CN110221839A (zh) 一种硬件加速器VerilogHDL代码自动生成方法
KR20210048281A (ko) 배경 제거 영상 생성 방법 및 장치
JPH06203005A (ja) 高速区分化ニューラルネットワーク及びその構築方法
JPH04237388A (ja) ニューロプロセッサ
KR102215824B1 (ko) 시각 및 텍스트 정보를 포함하는 다이어그램의 분석 방법 및 장치
CN113239678A (zh) 一种面向答案选择的多角度注意力特征匹配方法及系统
TWI730452B (zh) 立體類神經網路系統
CN116958783B (zh) 基于深度残差二维随机配置网络的轻量型图像识别方法
Rolon-Mérette et al. Learning and recalling arbitrary lists of overlapping exemplars in a recurrent artificial neural network
JPH056356A (ja) 信号処理方法及びその装置
JPH01232464A (ja) ニューラルネット構成方法