JP3758982B2 - Hierarchical neural network system - Google Patents
Hierarchical neural network system Download PDFInfo
- Publication number
- JP3758982B2 JP3758982B2 JP2001067837A JP2001067837A JP3758982B2 JP 3758982 B2 JP3758982 B2 JP 3758982B2 JP 2001067837 A JP2001067837 A JP 2001067837A JP 2001067837 A JP2001067837 A JP 2001067837A JP 3758982 B2 JP3758982 B2 JP 3758982B2
- Authority
- JP
- Japan
- Prior art keywords
- group
- signal
- layer
- fourier series
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Digital Transmission Methods That Use Modulated Carrier Waves (AREA)
- Complex Calculations (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、ニューラル・ネットワーク・システムに関し、特にフーリエ級数型学習しきい素子を用いたニューラル・ネットワーク・システムに関する。
【0002】
【技術的背景】
人間の大脳皮質は約140億の神経細胞で構成された大規模なネットワークであり、機械知能を人間の知能に近づける一つの道は大規模な人工ニューラル・ネットワークを実現することである。人工ニューラル・ネットワークは、神経細胞のモデル素子で構成されている。図1に神経細胞の離散時間学習しきい素子モデルを示す。可変結合の数はn+1個、wiは第i可変結合の結合荷重、xiはそれへの入力信号、zは出力信号、yは教師信号である。xn+1は特別な入力信号で、常時1である。τは離散時間で、0,1,2,…の整数値をとる。y(τ)とz(τ)は必ずしもτにおいてではなく、実際にはτとτ+1の間で発生してもよい。
図1に示される離散時間学習しきい素子モデルにおける入出力関係は、
【数1】
で示す入力荷重和s(τ)を用いて、以下のように表される。
【数2】
ここで、f(・)はsを独立変数、zを従属変数としたときの出力関数で、単位ステップ関数や以下のようなシグモイド関数などが用いられる。
【数3】
結合荷重wi (τ)(i=1,2,…,n)は、y(τ)またはz(τ)の発生後、すなわちτとτ+1の間に、以下の式(3)のように変更される。
【数4】
ここで、αは学習定数、rは学習信号である。学習信号は、一般Hebb学習法では以下の表1に示すように、学習法の種類によってそれぞれ異なった形の計算式で与えられる。
【表1】
【0003】
しかしながら、現在のニューラル・ネットワークLSIは、大規模化しようとすると配線が非常に複雑になると同時に、LSIの大部分の面積を配線が占めるという問題が生じる。そのため、素子数はせいぜい数千程度が限界である。この問題を解決するために、本出願の発明者は、ベクトルの成分をフーリエ係数として一つの周期信号に変換することを考え、これをフーリエ級数信号と名づけた。
フーリエ級数信号は、各フーリエ係数に情報を担わせることにより、複数個の情報あるいは多次元の情報を一つの信号で表現でき、かつ1本の信号線で伝送できるので、情報表現および情報伝送の上で大変便利である。さらに、情報処理の上でもいろいろな利点が考えられる。例えば、ベクトルの各成分をフーリエ係数にとれば、ベクトルの加算、減算、内積演算が簡単なアナログ回路で短時間に実行できる。これを、図2〜図4を用いて説明する。
図2は、ベクトルの各成分がどのようにフーリエ係数と対応するかを示している。図2において、ベクトルA=(a1,a2,a3,…)とベクトルB=(b1,b2,b3,…)の成分であるa1,a2,a3,…およびb1,b2,b3,…が、それぞれフーリエ級数信号である関数FA(t)とFB(t)におけるフーリエ係数となっていることを示している。
【0004】
図3および図4は、ベクトルの加減算と内積演算がフーリエ級数信号ではどのように実現するかを示している。図3(a)は、ベクトルの加減算を示している。これで理解できるように、ベクトルの各成分ごとに演算回路を設ける必要がある。これに対して、図3(b)に示されているように、フーリエ級数信号の場合は、1個のアナログ加減算回路でベクトルの加減算を行うことができる。また、図4(a)にはベクトルの内積演算を示している。これも各成分ごとの乗算回路と総和を計算する加算回路とが必要である。図4(b)に示されているように、フーリエ級数信号の場合は、1個のアナログ乗算回路と1個のアナログ積分回路とでベクトルの内積演算を行うことができる。
フーリエ級数信号を用いることで、これらの演算回路の構成等から、
▲1▼ベクトル演算が簡単なアナログ電子回路で実行することができる。
▲2▼演算回路の入力線が、常に2本でよい。
という利点があることが分かる。
【0005】
このように、本発明の発明者は、上述の利点を生かして、フーリエ級数信号を用いた学習しきい素子を構成すると共に、それを用いてニューラル・ネットワークを構成できるようにし、これをフーリエ級数型学習しきい素子(Fourier series-type learning threshold element:Folthret)と名づけた(電子情報通信学会論文誌 D−II Vol.J75-D-II No.1 pp.145-151 「フーリエ級数型学習しきい素子−Folthret−」1992年1月;電子情報通信学会論文誌 D−II Vol.J76-D-II No.3 pp.680-688 「ニューラルコンピュータのための基本素子GH−Folthret」1993年3月等を参照)。
【0006】
<GH−Folthret>
図5〜図7で、GH−Folthretの構成について説明する。このGH−Folthretは、上述の表1に示すような一般Hebb学習(General Hebbian learning)が可能なFolthretである。
まずn+1個の入力信号xi (τ)(i=1,2,…,n,n+1)とn+1個の結合荷重wi (τ)(i=1,2,…,n+1)を、それぞれ以下の式(4)と(5)に示すフーリエ級数信号Fx (τ)(t),Fw (τ)(t)で表現する。
【数5】
ここで、ωはフーリエ級数信号の基本角周波数、Tはフーリエ級数信号の周期で、2π/ωに等しい。[ ]はガウス記号である。
図5(a)は、上述の式(1)の入力の総和の計算を、式(4)、式(5)で定義したフーリエ級数信号で行う場合、図5(b)は、上述の式(3)の結合荷重の修正の計算を、同様にフーリエ級数信号で行う場合を示している。
図5で示すように、これらの式は以下の式(6)、式(7)で表される。
【数6】
なお、λ(τ)は入力時刻を連続時間で表したものである。GH−Folthretでは1単位時間は2Tとなり、はじめの1周期間すなわちλ(τ)からλ(τ)+Tにおいては、s(τ)等が求められる。λ(0)は0である。図6は、これらの演算をアナログ回路で行うことを示している。図6(a)はフーリエ級数信号を用いて入力の総和の計算を行うための回路で、乗算器312および積分器314で構成されている。図6(b)は、同じくフーリエ級数信号を用いて結合荷重の修正の計算を行う回路を示しており、乗算器324、増幅器(増幅率α)323、加算器322で構成されている。
【0007】
図7は、これらの回路を用いて構成したGH−Folthretのブロック図である。GH−Folthretは、入力総和計算部310、出力信号発生部360、結合荷重修正部320、結合荷重メモリ部330、教師信号計算部340で構成されている。結合荷重メモリ部330は、AD変換器、DA変換器、および、デジタル・メモリで構成してもよい。
この図7では、入力線は2本で、1本はFx (τ)(t)のため、もう1本は教師信号を含んだ信号y(τ)ξ(t)のためである。なお、ξ(t)は、振幅1の正弦波信号で、直流信号であるy(τ)を交流信号に変換している。
さて、時刻λ(τ)にFx (τ)(t)がまず入力される。Fx (τ)(t)は乗算器312により、結合荷重メモリ部330に記憶されているフーリエ級数信号Fw (τ)(t)と乗算され、さらに積分器314により1周期間積分されて、s(τ)が求められる。これから、出力信号発生部360の関数演算器362により、z(τ)=f(s(τ))を計算する。この信号はサンプル・ホールド364および366により遅延される。従って、時刻λ(τ)の時点では、時刻λ(τ−1)の出力信号z(τ−1)をp(τ)(t)として出力することになる。振幅1の正弦波であるζ(t)との掛け算を乗算器368により行い、P( τ)(t)として出力する。
Fw (τ)(t)の変更は、教師信号計算部340において、入力された信号y(τ)ξ(t)から教師信号y(τ)を計算し、次に、学習信号計算器326において、y(τ),s(τ),z(τ)等を用いて学習信号r(τ)を計算し、これとFx (τ)(t)により行う。この学習信号r(τ)は、表1に示した学習法により規定されている。変更によって得られるFw (τ+1)(t)は、結合荷重メモリ部330におけるFw (τ)(t)を保持しているメモリ334とは別のメモリ335に1周期分書き込まれる。これら二つのメモリ334,335は並列に接続され、学習期間中それぞれの役割は単位時間ごとに交互に切り換わる。すなわち、一方のメモリがFw (τ)(t)の読出し用であれば、他方はFw (τ+1)(t)の書込み用である。学習期間後に切換えは行われず、一つのメモリ内の信号が常に読み出される。
【0008】
<ネットワーク(回路網)>
ネットワークの基本構造としては、相互結合型、階層型、混合型の三種類がある。混合型は、階層型において層内部の素子を相互結合したものや、隣接した層だけでなく離れた層の間にも結合を設けたものなどさまざまな形態がある。階層型や混合型は、相互結合型において特定の素子間の結合荷重を0に固定したものとみなすことができ、そのような意味では相互結合型の特殊な場合である。従って、情報処理のみを考えるなら、相互結合型をGH−Folthretによって実現すれば、他のネットワークも同じ方法で実現できる。
しかし、学習まで考えると話は別である。相互結合型の場合には、GH−Folthretによってネットワークを実現すれば、そのまま学習も可能となる。それに対して、階層型や混合型の場合には、GH−Folthretによってネットワークを実現しても、各GH−Folthretが入力信号を選択するようにしなければネットワークの学習はできない。なぜなら、そのような選択をしないと、常に0でなければならない結合荷重が結合荷重の変更時に0でなくなってしまう可能性があるからである。従って、GH−Folthretでネットワークを実現する場合、相互結合型とその他のネットワークを別個に分けて考える必要がある。
【0009】
<階層型ネットワーク>
図8は階層型ネットワークの構成を図示したものである。各層の素子は、第1層(入力層)・・・第L層(中間層)・・・第M層(出力層)にn1個・・・nL個・・・nM個づつ配置されている。ただし、入力層の素子は、1個の入力信号をそのまま出力して、第2層に送るものである。第2層から出力層までの素子はすべて学習しきい素子である。入力層でもある第1層の各素子への入力信号
【数7】
をk個のグループに分け、それぞれのグループに含まれる入力信号を成分とするベクトルをx<1|1>,・・・,x<1|k>と表し、入力信号全体をベクトルx<1>として表している。第1層を構成するそれぞれの素子の出力信号を
【数8】
とし、この出力信号全体を、これらの出力信号を成分とするベクトルz<1>と表すと、これは、最初の中間層である第2層の入力ベクトルx<2>となっている。同様に第L層(中間層)の入力ベクトルx<L>は、第L−1層の出力ベクトルz<L−1>であり、第L層の出力ベクトルz<L>は、次の層の入力ベクトルとなっている。この階層型ネットワークの出力は、第M層からの出力ベクトルz<M>である。なお、第1層に限って、ベクトルx<1>とベクトルz<1>は等しい。
また、第2層以降には、それぞれの素子に、その素子への教師信号
【数9】
が入力されている。
【0010】
<GH−Folthretによる階層型ネットワーク>
図8に示した階層型ネットワークをGH−Folthretで構成したものを図9(a)に示す。ネットワークの各素子442,446,452,456,462.466に一つの周波数を割り当て、それぞれの素子の出力信号線からはその周波数の正弦波が出力されるようにして、すべての素子の入力用信号線と出力用信号線を1本の共通の信号線に接続している。図9(a)の場合、帯域フィルタ432,434.436を各層に1個ずつ配置し、結合荷重の変更時に別の層の入力信号が混入しないようにしている。周波数分割多重方式により、図9(b)に示すように、各層に入力されるフーリエ級数信号Fx<L>(t)(L=2,3,…,M)の占有する周波数帯域は互いに重ならないようにとってあり、各フィルタの通過帯域はこれらの周波数帯域の一つを内部に含む。周波数は後の層ほど高くなる。この階層型ネットワークの場合、各帯域フィルタでの待ち時間を1周期とすると、信号が第1層に入力されてから第M層より出力されるまでの時間は3(M−1)Tとなる。
図9(a)に示すように、第2層の入力Fx<2>(t)は第2層の帯域フィルタBPF<2>432を通過して第2層の各GH−Folthretに供給される。なお、図9(b)から理解できるように、第2層から第M層までの全素子数をvとすると、入力信号線に伝送される信号の周波数範囲は、ωから[(n1+v−nM+M−1)/2]・ω以上となる。
以上述べた方法のほかに、帯域フィルタを各GH−Folthretに内蔵させる方法も考えられる。この場合、ネットワークは図9の中の帯域フィルタを取り除いた形で実現される。
ただ、帯域フィルタを用いると、1単位時間を3周期から4周期ぐらいにしなければならず、スループットが低下する。従って、フーリエ級数信号の基本周波数および帯域フィルタの通過帯域をできるだけ高い方にもっていくことが必要になる。
大規模なネットワークを実現する場合には、以上述べたいずれの方法でも、使用する周波数は非常に低いところから高いところまで相当広範囲にわたる。そのため、ハードウェア化する上でさまざまな問題が出てくる。例えば、加算器や乗算器あるいは積分器の高域遮断周波数をかなり高くしなければならないし、入力信号線410や教師信号線420についても伝送帯域を低い方から高い方まで相当広くしなければならない。
しかし、実際的には、Folthretに用いられる回路部品の使用周波数帯域に制限があるため、Folthretネットワークが利用できる周波数帯域をどこまでも際限なく広げることはできない。このために、ネットワークの素子数の拡大には限界があり、大規模なニューラル・ネットワークLSIの実現は大きな課題である。
【0011】
【発明が解決しようとする課題】
本発明の目的は、Folthretネットワークの以上に述べた課題を解決して、ネットワークが利用できる周波数帯域幅を大幅に拡大し、大規模ニューラル・ネットワークLSIの実現を可能とすることである。
【課題を解決するための手段】
上記目的を達成するために、本発明は、フーリエ級数信号を用いて演算する学習しきい素子で構成された階層型ニューラル・ネットワーク・システムであって、第1層は、ネットワークへの入力信号を正弦波信号に変換し、さらにそれらを加算して複数のフーリエ級数信号を生成した後に、それらのフーリエ級数信号で群変調する群変調器と、群変調された信号で第2層への搬送波を変調する変調器とを有し、中間層は、それぞれの層に対応した搬送波に同調した入力信号用同調器および復調器と、群復調器を内蔵した複数の学習しきい素子と、前記複数の学習しきい素子の正弦波出力から複数のフーリエ級数信号を生成した後、それらのフーリエ級数信号で群変調する群変調器と、群変調された信号で次の層への搬送波を変調する変調器とを有するものである。
この階層型ニューラル・ネットワーク・システムは、ネットワークの各層への教師信号を正弦波信号に変換し、さらにそれらを加算して複数のフーリエ級数信号を生成した後、それらのフーリエ級数信号で各層ごとに群変調する群変調器と、前記変調器の出力で各層に対応した搬送波を変調する変調器と、各層ごとに対応する搬送波に同調した教師信号用同調器と復調器とを有し、第2層以降を構成する前記学習しきい素子は、群変調信号中から自己あての教師信号を含んだフーリエ級数信号を群復調する群復調器を有してもいる。
また、前記第2層以降を構成する学習しきい素子は、入力総和計算部と、出力信号発生部と、教師信号計算部と、結合荷重メモリ部と、結合荷重修正部とを有し、前記入力総和計算部、前記結合荷重メモリ部および前記結合荷重修正部は、内蔵された群復調器からの出力信号を処理できる。
前記群復調器は、スーパヘテロダイン方式を取り入れることが望ましい。
【0012】
【発明の実施の形態】
本発明の実施形態を、図面を参照して詳細に説明する。
本発明は、周波数範囲が制限された無数のフーリエ級数信号を用いて群変調を行うことにより、ネットワークが利用できる周波数帯域幅を大幅に拡大し、ニューラル・ネットワークを構成する多数のFolthretを使用できるようにした。
<群変調>
まず、群変調について説明する。群変調は、搬送式多重通信方式において、いくつかの音声通話路をまとめて変調して一つの通話路群(前群)を作り、この1束の通話路群を1群とし、他の通話路群と合わせて、また変調して通話路群(基礎群)を作成する等を繰り返すことで、多数の通話路をまとめて搬送することをいう。良く用いられる群変調の例を表2に示す。
【表2】
表2では、3つの音声チャネルをまとめて前群とし、4つの前群をまとめて基礎群(G)としている。また、5つの基礎群(G)をまとめて基礎超群(SG)とし、5つの基礎超群(SG)をまとめて基礎主群(MG)としている。3つの基礎主群(MG)で基礎超主群(SMG)を構成し、4つの基礎超主群をまとめて基礎巨群を構成している。基礎巨群では、最終的にチャネル数3600、周波数帯域42.6MHzから59.7MHz、帯域幅17.MHzである。
【0013】
<Folthretネットワークへの応用>
上述の群変調方式の、Folthretネットワークへの応用について説明する。フーリエ級数信号で搬送波を変調した信号を集めてまず前群を作る。次に、このようにして作られた前群を一つの信号として扱い、複数個の前群で周波数のさらに高い搬送波を変調して基礎群を作る。さらに基礎群を一つの信号として、同様の多重化を行い、基礎超群を作る。これを繰り返し適用することにより、基礎主群、基礎超主群、基礎巨群等を作ることができる。このような群変調により、ネットワークを構成する実質的なFolthret数を限りなく拡大していくことができる。
この群変調を用いた階層型ネットワークを構成するフーリエ級数型学習しきい素子を図10に示す。図10は、群復調器を内蔵した群変調用GH−Folthret600の構成を示している。図10における群変調用GH−Folthretの基本的構成は、図7に示したGH−Folthretの構成と同様である。図10において、フーリエ級数信号Fy (τ)(t)に対する群複調器610は、第L層第iグループのGH−Folthretに対して復調を行い、この素子に対する教師信号を含んだフーリエ級数信号を出力する。また、フーリエ級数信号Fx (τ)(t)に対する群復調器620は、第L層の素子に対するすべての入力信号を含んだk個のフーリエ級数信号Fx (τ)<L|1>(t),・・・,Fx (τ)<L|k>(t)を復調することができる。このk個のフーリエ級数信号Fx (τ)<L|1>(t),・・・,Fx (τ)<L|k>(t)に対して、それぞれに対応した結合荷重を含んだフーリエ級数信号をk個の乗算器642・・・乗算器645により掛け合わせた後、k個の積分器643・・・積分器647により積分され。その総和を加算器649でとる。結合荷重を含んだフーリエ級数信号は、k個の結合荷重メモリ部632・・・結合荷重メモリ部636により発生する。この結合荷重メモリ部に記憶されている結合荷重を含むフーリエ級数信号は、それぞれk個ある乗算器635・・・乗算器639、増幅器634・・・増幅器638および加算器633・・・加算器637で構成される結合荷重修正部により修正される。他の教師信号計算部や出力信号発生部の構成は、図7に示したGH−Folthretと同じである。このような図10に示した構成の群複調器を内蔵した群変調用GH−Folthretは、実質的に図7のGH−Folthretのk個分に相当する。
【0014】
図11は、図10の群復調器を内蔵した群変調用GH−Folthretを用いて構成した階層型ネットワークの例を示している。図11において、第1層(入力層)では、入力信号
【数10】
をそれぞれ正弦波信号に変換し、それらをk個のグループに分け、各グループの正弦波信号を加算することにより、k個のフーリエ級数信号Fx (τ)<1|1>(t),・・・,Fx (τ)<1|k>(t)を構成する。第1層では入力信号がそのまま出力されて第2層に送られるので、これらのフーリエ級数信号は第2層の入力として送られるフーリエ級数信号Fx (τ)<2|1>(t),・・・,Fx (τ)<2|k>(t)に等しい。これらのk個のフーリエ級数信号は、群変調器726において群変調に用いられ、群変調された信号で第2層に対応した周波数ω<2>の搬送波を変調してから、入力信号線514を介して第2層を構成するGH−Folthretに伝搬している。第2層では、周波数ω<2>の同調器742と復調器744の対により、第1層から第2層に送られた群変調された信号を受信する。
また、第2層、第3層・・・第M層に対する教師信号
【数11】
も同様に、それぞれ正弦波信号に変換し、それらを各層ごとに複数のグループに分け、各グループの正弦波信号を加算することにより、各層に対応したm個のフーリエ級数信号Fy (τ)<2|1>(t),・・・,Fy (τ)<2|m>(t),Fy (τ)<3|1>(t),・・・,Fy (τ)<3|m>(t),・・・,Fy (τ)<M|1>(t),・・・,Fy (τ)<M|m>(t)を得ている。これらのフーリエ級数信号を用いて、それぞれ各層ごとに、群変調器722,群変調器723,・・・,群変調器724により群変調した後、さらに変調器712,変調器713,・・・,変調器714により各層に対応した周波数ω<2>,ω<3>,・・・,ω<M>の搬送波を変調する。第2層では、教師信号線512から送られるこれらの変調信号は、周波数ω<2>の同調器732および復調器734により復調されて、第2層の各素子に対する教師信号を含む群変調信号が得られる。
第2層において、教師信号線512から同調器732および復調器734で受信した群変調信号、入力信号線514から同調器742および復調器744で受信した群変調信号はともに、群変調用GH−Folthret752,754,・・・,756に入力される。それぞれの群変調用GH−Folthretでは、図10に示されているように、それぞれの素子に対する教師信号を含むフーリエ級数信号を、内部の群復調器610で復調して受信している。また、それぞれの素子へのk個の入力フーリエ級数信号を、群復調器620で復調して受信している。群変調用GH−Folthretは、実質的にk個のGH−Folthretとして動作する。
第2層を構成している各GH−Folthretからの正弦波出力は、加算器772〜776によりグループごとに加算され、次の第3層への入力フーリエ級数信号Fx (τ)<3|1>(t),・・・,Fx (τ)<3|k>(t)に構成される。これらのフーリエ級数信号は、群変調器762で搬送波を群変調するのに用いられる。この群変調信号で、変調器764において第3層に対応する周波数ω<3>の搬送波を変調して、入力信号線514に戻される。
第3層以降は、第2層と同様の構成を有しており、各層ごとに、同調器と復調器のペアでその層に対応した周波数の変調波を受信している。
【0015】
<スーパヘテロダイン技術の利用>
周波数が非常に高い搬送波を用いたときの高周波域の問題解決法として、群復調に、多重スーパヘテロダイン技術を利用することができる。
群変調は、前に説明したように、変調を多重に繰り返して、段階ごとに高い周波数となる。このような群変調された信号を復調するためには、逆に高い周波数から順次低い周波数へと復調していくことが必要である。この復調にスーパヘテロダイン技術を用いるのである。この技術を利用することにより、高選択度により混信を防ぐことができ、精度のよい信号が得られることや、高周波の微弱信号を容易に増幅できるなど、大規模なネットワークを実現することに有利に働く。
【0016】
<まとめ>
このように周波数帯域が制限された無数のフーリエ級数信号に群変調を適用することにより、ネットワークが利用できる周波数帯域幅を大幅に拡大し、大規模ニューラル・ネットワークLSIの実現を可能とした。なお、高周波域でシャープな同調フィルタの設計が困難である等のため、多重スーパヘテロダイン方式も同時に取り入れるとよい。
【0017】
超大規模人工ニューラル・ネットワークがハードウェア的に実現すれば、しかもLSIの形になれば、以下のことが可能となる。
▲1▼ 人間の持つ大規模で複雑な知識ネットワーク、特に暗黙知の部分を学習できるようになる。
▲2▼ 巨大で複雑なメカニズムが存在し、数式等で記述できないシステムや処理過程の順モデルや逆モデルを学習により実現できるようになる。
▲3▼ 人間に近い能力や特性を持った機械知能を実現できる。
したがって、超大規模人工ニューラル・ネットワークがハードウェア的に実現することの効果として、以下のことが期待できる。
▲1▼ 人間の持つ大規模で複雑な知識ネットワーク、特に暗黙知の部分を学習できるようになれば、自然言語の意味処理、機械翻訳、名医に近い自動診断、ベテランドライバーのような自動運転や自律走行による施設の一部の無人化などが期待できる。
▲2▼ 巨大で複雑なメカニズムが存在し、数式等で記述できないシステムや処理過程の順モデルや逆モデルを学習により実現できるようになれば、人間しかできないような複雑なパターン認識や動画像処理、巨大で複雑なプラントの制御等が期待できる。
▲3▼ 人間に近い能力を持った機械知能を実現できれば、あらかじめ決められた作業をするだけではなく、自らも考え、人の相談にも応じることができる自動車、家庭電化製品、ワープロ、各種ロボットの実現が期待できる。
▲4▼ 巨大プログラムの一部を大規模人工ニューラル・ネットワークで置き換えることにより、労力と時間およびコストの大幅な削減が期待できる。
▲5▼ 既存のあらゆる工学システムに組み込んで、人間のような高い学習能力と知能を持たせることができるようになる。
【0018】
【発明の効果】
上述したように、本発明では、周波数帯域が制限された無数のフーリエ級数信号に群変調を適用することにより、ネットワークが利用できる周波数帯域幅を大幅に拡大し、大規模ニューラル・ネットワークLSIの実現を可能とした。
【図面の簡単な説明】
【図1】学習しきい素子を示す図である。
【図2】ベクトルのフーリエ級数化を説明する図である。
【図3】ベクトルの加減算のフーリエ級数信号による実現法を説明する図である。
【図4】ベクトルの内積演算のフーリエ級数信号による実現法を説明する図である。
【図5】学習しきい素子内部演算のフーリエ級数信号による実現法を説明する図である。
【図6】フーリエ級数信号を用いる場合の学習しきい素子内部の演算回路を説明する図である。
【図7】GH−Folthretの構成を示す図である。
【図8】階層型ネットワークの構成を説明する図である。
【図9】帯域フィルタを用いてGH−Folthretにより階層型ネットワークを構成することを説明する図である。
【図10】群変調を用いて階層型ネットワークを構成するためのGH−Folthretの構成を示す図である。
【図11】群変調用GH−Folthretを用いて構成した階層型ネットワークを示す図である。
【符号の説明】
310 入力総和計算部
312 乗算器
314 積分器
320 結合荷重修正部
322 加算器
323 増幅器
324 乗算器
325 サンプル・ホールド
326 学習信号計算器
330 結合荷重メモリ部
334,335 メモリ
340 教師信号計算部
342 積分器
344 正弦波メモリ
346 乗算器
360 出力信号発生部
362 関数演算器
364,366 サンプル・ホールド
367 正弦波メモリ
368 乗算器
410 教師信号線
420 入力信号線
442,446,452,456,462,466 GH−Folthret432,434,436 帯域フィルタ
512 教師信号線
514 入力信号線
610 群復調器
620 群復調器
632,636 結合荷重メモリ部
633,637 加算器
634,638 増幅器
635,639 乗算器
642,645 乗算器
643,647 積分器
649 加算器
726 群変調器
712,713,714 変調器
716 変調器
722,723,724 群変調器
732 同調器
734 復調器
742 同調器
744 復調器
752,754,756 群変調用GH−Folthret
762 群変調器
764 変調器
772,776 加算器[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a neural network system, and more particularly to a neural network system using a Fourier series type learning threshold element.
[0002]
[Technical background]
The human cerebral cortex is a large-scale network composed of about 14 billion nerve cells, and one way to bring machine intelligence closer to human intelligence is to realize a large-scale artificial neural network. The artificial neural network is composed of model elements of nerve cells. FIG. 1 shows a discrete element learning threshold element model of a nerve cell. The number of variable bonds is n + 1, wiIs the bond weight of the i-th variable bond, xiIs an input signal, z is an output signal, and y is a teacher signal. xn + 1Is a special input signal and is always 1. τ is a discrete time and takes an integer value of 0, 1, 2,. y(Τ)And z(Τ)May not necessarily occur at τ, but may actually occur between τ and τ + 1.
The input / output relationship in the discrete-time learning threshold element model shown in FIG.
[Expression 1]
Input load sum s(Τ)Is expressed as follows.
[Expression 2]
Here, f (•) is an output function when s is an independent variable and z is a dependent variable, and a unit step function or the following sigmoid function is used.
[Equation 3]
Bond load wi (Τ)(I = 1, 2,..., N) is y(Τ)Or z(Τ)Is changed, as shown in the following expression (3), between τ and τ + 1.
[Expression 4]
Here, α is a learning constant, and r is a learning signal. In the general Hebb learning method, the learning signal is given by a calculation formula having a different form depending on the type of the learning method, as shown in Table 1 below.
[Table 1]
[0003]
However, in the current neural network LSI, when the scale is increased, the wiring becomes very complicated, and at the same time, the wiring occupies most of the area of the LSI. Therefore, the maximum number of elements is about several thousand. In order to solve this problem, the inventor of the present application considered converting a vector component into a single periodic signal as a Fourier coefficient, and named it a Fourier series signal.
In the Fourier series signal, by assigning information to each Fourier coefficient, a plurality of information or multidimensional information can be expressed by one signal and transmitted by one signal line. Very convenient above. Furthermore, there are various advantages in information processing. For example, if each component of a vector is taken as a Fourier coefficient, the addition, subtraction, and inner product calculation of the vector can be executed in a short time with an analog circuit. This will be described with reference to FIGS.
FIG. 2 shows how each component of the vector corresponds to a Fourier coefficient. In FIG. 2, the vector A = (a1, A2, A3, ...) and vector B = (b1, B2, B3A) which is a component of1, A2, A3, ... and b1, B2, B3,... Are functions F that are respectively Fourier series signals.A(T) and FBIt shows that it is a Fourier coefficient in (t).
[0004]
FIGS. 3 and 4 show how vector addition and subtraction and inner product operations are realized in a Fourier series signal. FIG. 3A shows vector addition / subtraction. As can be understood from this, it is necessary to provide an arithmetic circuit for each component of the vector. On the other hand, as shown in FIG. 3B, in the case of a Fourier series signal, vector addition / subtraction can be performed by one analog addition / subtraction circuit. FIG. 4A shows the inner product calculation of vectors. This also requires a multiplication circuit for each component and an addition circuit for calculating the sum. As shown in FIG. 4B, in the case of a Fourier series signal, a vector inner product operation can be performed by one analog multiplication circuit and one analog integration circuit.
By using the Fourier series signal, from the configuration of these arithmetic circuits,
(1) Vector calculation can be executed by a simple analog electronic circuit.
(2) The number of input lines of the arithmetic circuit may always be two.
It can be seen that there is an advantage.
[0005]
As described above, the inventor of the present invention makes use of the above-described advantages to construct a learning threshold element using a Fourier series signal, and to use it to construct a neural network, which is used as a Fourier series. Named “Fourier series-type learning threshold element” (D-II Vol.J75-D-II No.1 pp.145-151 “Fourier series-type learning” KIKI-Folthret- "January 1992; IEICE Transactions D-II Vol.J76-D-II No.3 pp.680-688" Basic Element for Neural Computers GH-Folthret "1993 See month etc.).
[0006]
<GH-Folthret>
The configuration of GH-Folthret will be described with reference to FIGS. This GH-Folthret is a Folthret capable of general Hebb learning as shown in Table 1 above.
First, n + 1 input signals xi (Τ)(I = 1, 2,..., N, n + 1) and n + 1 bond weights wi (Τ)(I = 1, 2,..., N + 1) are converted into Fourier series signals F shown in the following equations (4) and (5), respectively.x (Τ)(T), Fw (Τ)Expressed as (t).
[Equation 5]
Here, ω is the fundamental angular frequency of the Fourier series signal, and T is the period of the Fourier series signal, which is equal to 2π / ω. [] Is a Gaussian symbol.
FIG. 5A shows a case where the calculation of the sum of the inputs of the above equation (1) is performed with a Fourier series signal defined by the equations (4) and (5), and FIG. The case where the calculation of the correction of the coupling load in (3) is similarly performed with a Fourier series signal is shown.
As shown in FIG. 5, these formulas are represented by the following formulas (6) and (7).
[Formula 6]
Λ(Τ)Represents the input time in continuous time. In GH-Folthret, one unit time is 2T, and the first one period, that is, λ(Τ)To λ(Τ)For + T, s(Τ)Etc. are required. λ(0)Is 0. FIG. 6 shows that these operations are performed by an analog circuit. FIG. 6A shows a circuit for calculating the total sum of inputs using a Fourier series signal, and includes a
[0007]
FIG. 7 is a block diagram of the GH-Folthret configured using these circuits. The GH-Folthret includes an input sum calculation unit 310, an output signal generation unit 360, a coupling load correction unit 320, a coupling load memory unit 330, and a teacher signal calculation unit 340. The combined load memory unit 330 may be composed of an AD converter, a DA converter, and a digital memory.
In FIG. 7, there are two input lines and one is F.x (Τ)For (t), the other signal y includes the teacher signal.(Τ)This is because ξ (t). Note that ξ (t) is a sine wave signal having an amplitude of 1, and is a DC signal.(Τ)Is converted into an AC signal.
Now, time λ(Τ)Fx (Τ)(T) is input first. Fx (Τ)(T) is a Fourier series signal F stored in the coupling weight memory unit 330 by the
Fw (Τ)The change of (t) is performed by the input signal y in the teacher signal calculation unit 340.(Τ)Teacher signal y from ξ (t)(Τ)And then in the
[0008]
<Network (circuit network)>
There are three basic types of networks: interconnected, hierarchical, and mixed. The mixed type has various forms such as a hierarchical type in which elements in layers are mutually coupled, and a type in which coupling is provided not only between adjacent layers but also between separated layers. The hierarchical type and the mixed type can be regarded as those in which the coupling load between specific elements is fixed to 0 in the mutual coupling type, and in that sense, is a special case of the mutual coupling type. Therefore, if only the information processing is considered, if the mutual coupling type is realized by GH-Folthret, other networks can be realized by the same method.
However, the story is different when considering learning. In the case of the mutual coupling type, if a network is realized by GH-Folthret, learning can be performed as it is. On the other hand, in the case of a hierarchical type or a mixed type, even if a network is realized by GH-Folthret, the network cannot be learned unless each GH-Folthret selects an input signal. This is because, unless such a selection is made, there is a possibility that the joint load that must always be zero may not be zero when the joint load is changed. Therefore, when the network is realized by GH-Folthret, it is necessary to consider the mutual connection type and the other network separately.
[0009]
<Hierarchical network>
FIG. 8 illustrates the configuration of a hierarchical network. The elements of each layer are composed of the first layer (input layer), the Lth layer (intermediate layer), and the nth layer (output layer).1NLNMIt is arranged one by one. However, the elements in the input layer output one input signal as it is and send it to the second layer. All elements from the second layer to the output layer are learning threshold elements. Input signal to each element of the first layer that is also the input layer
[Expression 7]
, X <1 | 1>,..., X <1 | k>, and the entire input signal is represented by a vector x <1. >. The output signal of each element constituting the first layer
[Equation 8]
If the entire output signal is expressed as a vector z <1> having these output signals as components, this is an input vector x <2> in the second layer which is the first intermediate layer. Similarly, the input vector x <L> of the Lth layer (intermediate layer) is the output vector z <L-1> of the (L-1) th layer, and the output vector z <L> of the Lth layer is the next layer. Is the input vector. The output of this hierarchical network is an output vector z <M> from the Mth layer. Only in the first layer, the vector x <1> and the vector z <1> are equal.
In the second and subsequent layers, each element has a teacher signal to that element.
[Equation 9]
Is entered.
[0010]
<Layered network by GH-Folthret>
FIG. 9A shows a configuration in which the hierarchical network shown in FIG. 8 is configured by GH-Folthret. Assign a single frequency to each
As shown in FIG. 9A, the input F of the second layerx<2> (t) is supplied to each GH-Folthret of the second layer through the band filter BPF <2> 432 of the second layer. As can be understood from FIG. 9B, when the total number of elements from the second layer to the Mth layer is v, the frequency range of the signal transmitted to the input signal line is from ω to [(n1+ V−nM+ M-1) / 2] · ω or more.
In addition to the method described above, a method of incorporating a bandpass filter in each GH-Folthret is also conceivable. In this case, the network is realized by removing the bandpass filter in FIG.
However, when a bandpass filter is used, one unit time has to be changed from 3 cycles to 4 cycles, and the throughput is lowered. Therefore, it is necessary to set the fundamental frequency of the Fourier series signal and the passband of the bandpass filter as high as possible.
When realizing a large-scale network, in any of the methods described above, the frequency to be used is considerably wide ranging from a very low place to a high place. For this reason, various problems arise when implementing hardware. For example, the high-frequency cutoff frequency of the adder, multiplier, or integrator must be considerably increased, and the transmission band of the input signal line 410 and the teacher signal line 420 must be considerably wide from the lower to the higher one. .
However, in practice, there is a limit to the frequency band of the circuit components used for the Follett, and therefore the frequency band that can be used by the Follett network cannot be expanded without limit. For this reason, there is a limit to the expansion of the number of elements in the network, and realization of a large-scale neural network LSI is a big problem.
[0011]
[Problems to be solved by the invention]
An object of the present invention is to solve the above-mentioned problems of the Folthret network, greatly increase the frequency bandwidth that can be used by the network, and realize a large-scale neural network LSI.
[Means for Solving the Problems]
In order to achieve the above object, the present invention is a hierarchical neural network system composed of learning threshold elements that are operated using a Fourier series signal, wherein the first layer receives an input signal to the network. After converting into a sine wave signal and adding them to generate a plurality of Fourier series signals, a group modulator that performs group modulation with the Fourier series signals, and a carrier wave to the second layer with the group modulated signals And an intermediate layer includes an input signal tuner and demodulator tuned to a carrier wave corresponding to each layer, a plurality of learning threshold elements including a group demodulator, and the plurality of learning threshold elements. A group modulator that generates multiple Fourier series signals from the sinusoidal output of a learning threshold element and then performs group modulation with the Fourier series signals, and a modulator that modulates the carrier wave to the next layer with the group modulated signals When Those having.
This hierarchical neural network system converts a teacher signal to each layer of the network into a sine wave signal, adds them to generate multiple Fourier series signals, and then uses those Fourier series signals for each layer. A group modulator that performs group modulation, a modulator that modulates a carrier wave corresponding to each layer with the output of the modulator, a tuner for tuner signals and a demodulator that are tuned to the carrier wave corresponding to each layer, The learning threshold elements constituting the layers and beyond also have a group demodulator that group-demodulates a Fourier series signal including a self-directed teacher signal from the group modulation signal.
The learning threshold elements constituting the second and subsequent layers include an input summation calculation unit, an output signal generation unit, a teacher signal calculation unit, a coupling load memory unit, and a coupling load correction unit, The input sum calculation unit, the coupling load memory unit, and the coupling load correction unit can process an output signal from a built-in group demodulator.
The group demodulator preferably adopts a superheterodyne system.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described in detail with reference to the drawings.
The present invention significantly increases the frequency bandwidth available to the network by performing group modulation using an infinite number of Fourier series signals with a limited frequency range, and can use a large number of foltrets constituting a neural network. I did it.
<Group modulation>
First, group modulation will be described. Group modulation is a carrier multiplex communication system in which several voice communication paths are modulated together to form a single communication path group (previous group). It means that a large number of speech paths are transported together by repeating the creation of a speech path group (basic group) with modulation along with the path group. Table 2 shows examples of frequently used group modulation.
[Table 2]
In Table 2, the three voice channels are grouped together as a front group, and the four front groups are grouped as a base group (G). In addition, the five basic groups (G) are collectively referred to as a basic super group (SG), and the five basic super groups (SG) are collectively referred to as a basic main group (MG). Three basic main groups (MG) constitute the basic super main group (SMG), and the four basic super main groups constitute a basic super group. In the basic giant group, finally, the number of channels is 3600, the frequency band is 42.6 MHz to 59.7 MHz, and the bandwidth is 17. MHz.
[0013]
<Application to Folthret Network>
An application of the above-described group modulation scheme to the Follett network will be described. First, a front group is formed by collecting signals obtained by modulating a carrier wave with a Fourier series signal. Next, the front group thus created is treated as one signal, and a plurality of front groups are used to modulate a carrier wave having a higher frequency to form a base group. Furthermore, the basic group is used as one signal and the same multiplexing is performed to create a basic super group. By applying this repeatedly, a basic main group, a basic super main group, a basic super group, etc. can be created. With such group modulation, the substantial number of foltrets constituting the network can be expanded without limit.
FIG. 10 shows a Fourier series learning threshold element constituting a hierarchical network using the group modulation. FIG. 10 shows the configuration of a group modulation GH-
[0014]
FIG. 11 shows an example of a hierarchical network configured using a group modulation GH-Folthret incorporating the group demodulator of FIG. In FIG. 11, in the first layer (input layer), the input signal
[Expression 10]
Respectively into sine wave signals, divide them into k groups, and add the sine wave signals of each group to obtain k Fourier series signals Fx (Τ)<1 | 1> (t), ..., Fx (Τ)<1 | k> (t). Since the input signal is output as it is in the first layer and sent to the second layer, these Fourier series signals are Fourier series signals F sent as the input of the second layer.x (Τ)<2 | 1> (t), ..., Fx (Τ)It is equal to <2 | k> (t). These k Fourier series signals are used for group modulation in the
In addition, teacher signals for the second layer, the third layer, ... the Mth layer
## EQU11 ##
In the same manner, each of the signals is converted into a sine wave signal, divided into a plurality of groups for each layer, and the sine wave signals of each group are added to obtain m Fourier series signals F corresponding to each layer.y (Τ)<2 | 1> (t), ..., Fy (Τ)<2 | m> (t), Fy (Τ)<3 | 1> (t), ..., Fy (Τ)<3 | m> (t), ..., Fy (Τ)<M | 1> (t), ..., Fy (Τ)<M | m> (t) is obtained. Using these Fourier series signals, group modulation is performed by a
In the second layer, the group modulation signal received by the
The sine wave output from each GH-Folthret constituting the second layer is added for each group by
The third and subsequent layers have the same configuration as the second layer, and a modulated wave having a frequency corresponding to that layer is received by a pair of a tuner and a demodulator for each layer.
[0015]
<Utilization of superheterodyne technology>
As a method for solving a problem in the high frequency range when a carrier wave having a very high frequency is used, a multiple superheterodyne technique can be used for group demodulation.
As described above, the group modulation has a high frequency for each stage by repeating the modulation in a multiplex manner. In order to demodulate such a group-modulated signal, it is necessary to demodulate from a higher frequency to a lower frequency. Superheterodyne technology is used for this demodulation. By using this technology, it is possible to prevent interference due to high selectivity, and to obtain a high-accuracy signal and to easily amplify a weak high-frequency signal, which is advantageous for realizing a large-scale network. To work.
[0016]
<Summary>
In this way, by applying group modulation to an infinite number of Fourier series signals with limited frequency bands, the frequency bandwidth that can be used by the network is greatly expanded, and a large-scale neural network LSI can be realized. In addition, since it is difficult to design a sharp tuning filter in a high frequency range, a multiple superheterodyne method may be adopted at the same time.
[0017]
If a super large-scale artificial neural network is realized in hardware, and if it is in the form of an LSI, the following becomes possible.
(1) It becomes possible to learn a large-scale and complex knowledge network possessed by humans, particularly tacit knowledge.
(2) There is a huge and complicated mechanism, and it becomes possible to realize a system that cannot be described by mathematical formulas, a forward model or a reverse model of the process by learning.
(3) Realize machine intelligence with human-like capabilities and characteristics.
Therefore, the following can be expected as an effect of realizing the ultra-large-scale artificial neural network in hardware.
(1) If you can learn a large and complex knowledge network of human beings, especially tacit knowledge, natural language semantic processing, machine translation, automatic diagnosis close to a well-known doctor, It can be expected that some facilities will be unmanned by autonomous driving.
(2) There is a huge and complex mechanism, and if it is possible to realize a system that cannot be described by mathematical formulas or a forward model or inverse model of the processing process by learning, complex pattern recognition and moving image processing that only humans can do It can be expected to control huge and complex plants.
(3) If machine intelligence with human-like capabilities can be realized, cars, home appliances, word processors, and various robots that can not only perform predetermined tasks but also think and respond to human consultation Can be expected.
(4) Replacing a part of a huge program with a large-scale artificial neural network can greatly reduce labor, time and cost.
(5) It can be incorporated into all existing engineering systems to provide human-like high learning ability and intelligence.
[0018]
【The invention's effect】
As described above, in the present invention, by applying group modulation to an infinite number of Fourier series signals whose frequency band is limited, the frequency bandwidth that can be used by the network is greatly expanded, and a large-scale neural network LSI is realized. Made possible.
[Brief description of the drawings]
FIG. 1 is a diagram showing learning threshold elements.
FIG. 2 is a diagram for explaining Fourier series conversion of a vector.
FIG. 3 is a diagram for explaining a method of realizing addition and subtraction of vectors using Fourier series signals.
FIG. 4 is a diagram for explaining a realization method of a vector inner product operation using a Fourier series signal;
FIG. 5 is a diagram for explaining a realization method of learning threshold element internal computation using a Fourier series signal;
FIG. 6 is a diagram illustrating an arithmetic circuit inside a learning threshold element when a Fourier series signal is used.
FIG. 7 is a diagram illustrating a configuration of GH-Folthret.
FIG. 8 is a diagram illustrating a configuration of a hierarchical network.
FIG. 9 is a diagram illustrating that a hierarchical network is configured by GH-Folthret using a band filter.
FIG. 10 is a diagram illustrating a configuration of GH-Folthret for configuring a hierarchical network using group modulation.
FIG. 11 is a diagram illustrating a hierarchical network configured using GH-Folthret for group modulation.
[Explanation of symbols]
310 Input total calculation part
312 multiplier
314 Integrator
320 Bond load correction part
322 Adder
323 amplifier
324 multiplier
325 Sample hold
326 Learning signal calculator
330 Bond load memory
334,335 memory
340 Teacher signal calculator
342 integrator
344 Sine wave memory
346 multiplier
360 Output signal generator
362 function calculator
364, 366 Sample hold
367 Sine wave memory
368 multiplier
410 Teacher signal line
420 Input signal line
442, 446, 452, 456, 462, 466 GH-
512 Teacher signal line
514 Input signal line
610 Group demodulator
620 group demodulator
632,636 Bond load memory section
633, 637 Adder
634,638 amplifier
635,639 multiplier
642,645 multiplier
643,647 integrator
649 Adder
726 Group modulator
712, 713, 714 modulator
716 modulator
722, 723, 724 group modulator
732 Tuner
734 Demodulator
742 Tuner
744 Demodulator
752,754,756 Group modulation GH-Folthret
762 Group modulator
764 modulator
772,776 Adder
Claims (4)
第1層は、ネットワークへの入力信号を正弦波信号に変換し、さらにそれらを加算して複数のフーリエ級数信号を生成した後に、それらのフーリエ級数信号で群変調する群変調器と、群変調された信号で第2層への搬送波を変調する変調器とを有し、
各中間層は、それぞれの層に対応した搬送波に同調した入力信号用同調器および復調器と、群復調器を内蔵した複数の学習しきい素子と、前記複数の学習しきい素子の正弦波出力信号から複数のフーリエ級数信号を生成した後に、それらのフーリエ級数信号で群変調する群変調器と、群変調された信号で次の層への搬送波を変調する変調器とを有する
ことを特徴とする階層型ニューラル・ネットワーク・システム。A hierarchical neural network system composed of learning threshold elements that operate using a Fourier series signal,
The first layer converts a signal input to the network into a sine wave signal, adds them to generate a plurality of Fourier series signals, and then performs group modulation on the group of the Fourier series signals, and group modulation. And a modulator for modulating the carrier wave to the second layer with the generated signal,
Each intermediate layer includes an input signal tuner and demodulator tuned to a carrier wave corresponding to each layer, a plurality of learning threshold elements incorporating a group demodulator, and a sine wave output of the plurality of learning threshold elements A group modulator that generates a plurality of Fourier series signals from a signal and then performs group modulation using the Fourier series signals, and a modulator that modulates a carrier wave to the next layer using the group-modulated signal. Hierarchical neural network system.
ネットワークの各層の素子への教師信号を正弦波信号に変換し、さらにそれらを加算して複数のフーリエ級数信号を生成した後に、それらのフーリエ級数信号で各層ごとに群変調する群変調器と、
前記群変調器の出力で各層に対応した搬送波を変調する変調器と、
各層ごとの対応する搬送波に同調した教師信号用同調器および復調器とを有し、
第2層以降を構成する前記学習しきい素子は、群変調に用いられた教師用の前記複数のフーリエ級数信号中から自己あての教師信号を含むフーリエ級数信号を群復調する群復調器を有する
ことを特徴とする階層型ニューラル・ネットワーク・システム。The hierarchical neural network system according to claim 1, wherein
A group modulator that converts a teacher signal to each layer element of the network into a sine wave signal, adds them to generate a plurality of Fourier series signals, and then performs group modulation for each layer with those Fourier series signals;
A modulator that modulates a carrier wave corresponding to each layer with an output of the group modulator;
A teacher signal tuner and demodulator tuned to the corresponding carrier for each layer;
The learning threshold elements constituting the second and subsequent layers have a group demodulator that group-demodulates a Fourier series signal including a teacher signal addressed to itself among the plurality of Fourier series signals for teacher used for group modulation. A hierarchical neural network system characterized by this.
前記第2層以降を構成する学習しきい素子は、入力総和計算部と、出力信号発生部と、教師信号計算部と、結合荷重メモリ部と、結合荷重修正部とを有し、
前記入力総和計算部、前記結合荷重メモリ部および前記結合荷重修正部は、内蔵された群複調器からの出力信号を処理できる
ことを特徴とする階層型ニューラル・ネットワーク・システム。The hierarchical neural network system according to claim 2 ,
The learning threshold elements constituting the second and subsequent layers include an input summation calculation unit, an output signal generation unit, a teacher signal calculation unit, a combined load memory unit, and a combined load correction unit.
The hierarchical neural network system, wherein the input sum calculation unit, the joint load memory unit, and the joint load correction unit can process an output signal from a built-in group ditoner.
前記群復調器は、スーパヘテロダイン方式を取り入れていることを特徴とする階層型ニューラル・ネットワーク・システム。The hierarchical neural network system according to any one of claims 1 to 3,
The group demodulator employs a superheterodyne system, and is a hierarchical neural network system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001067837A JP3758982B2 (en) | 2001-03-09 | 2001-03-09 | Hierarchical neural network system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001067837A JP3758982B2 (en) | 2001-03-09 | 2001-03-09 | Hierarchical neural network system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002269532A JP2002269532A (en) | 2002-09-20 |
JP3758982B2 true JP3758982B2 (en) | 2006-03-22 |
Family
ID=18926113
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001067837A Expired - Fee Related JP3758982B2 (en) | 2001-03-09 | 2001-03-09 | Hierarchical neural network system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3758982B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230359880A1 (en) * | 2021-06-15 | 2023-11-09 | Fujikura Ltd. | Optical computing device and optical computing method |
-
2001
- 2001-03-09 JP JP2001067837A patent/JP3758982B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002269532A (en) | 2002-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ibnkahla | Applications of neural networks to digital communications–a survey | |
Rabinowitz | Periodic solutions of Hamiltonian systems: a survey | |
CN109189474A (en) | Processing with Neural Network device and its method for executing vector adduction instruction | |
Patra et al. | Nonlinear dynamic system identification using Legendre neural network | |
CN109032670A (en) | Processing with Neural Network device and its method for executing vector duplicate instructions | |
JP2803237B2 (en) | Data transmission method and device | |
CN110991623B (en) | Neural network operation system based on digital-analog mixed neuron | |
Austin et al. | The advanced uncertain reasoning architecture, AURA | |
JP3758982B2 (en) | Hierarchical neural network system | |
Ochs et al. | Towards wave digital modeling of neural pathways using two-port coupling networks | |
Marchesi et al. | Multi-layer perceptrons with discrete weights | |
Amin et al. | Complex-valued functional link network design by orthogonal least squares method for function approximation problems | |
Hattori et al. | Episodic associative memories | |
Sudhakar et al. | Efficient mapping of backpropagation algorithm onto a network of workstations | |
Li et al. | A parallel algorithm for constructing two edge-disjoint hamiltonian cycles in locally twisted cubes | |
El-Amawy et al. | Algorithmic mapping of feedforward neural networks onto multiple bus systems | |
Roche et al. | Signalling techniques and their effect on neural network implementation sizes | |
Hong et al. | Fast Automatic Circuit Optimization Using Deep Learning | |
McGinnity et al. | Novel architecture and synapse design for hardware implementations of neural networks | |
El-Amawy et al. | Optimal mapping of feedforward neural networks onto multiple bus architectures | |
JP2756170B2 (en) | Neural network learning circuit | |
CN117474766A (en) | Super-resolution model training method, super-resolution method and system | |
Yokoi | A fundamental element for neural computer-Folthret | |
Malluhi et al. | Tree-based special-purpose Array architectures for neural computing | |
Sibai et al. | A time-multiplexed reconfigurable neuroprocessor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051004 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20051007 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20051220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20051227 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |