JP3758982B2 - Hierarchical neural network system - Google Patents

Hierarchical neural network system Download PDF

Info

Publication number
JP3758982B2
JP3758982B2 JP2001067837A JP2001067837A JP3758982B2 JP 3758982 B2 JP3758982 B2 JP 3758982B2 JP 2001067837 A JP2001067837 A JP 2001067837A JP 2001067837 A JP2001067837 A JP 2001067837A JP 3758982 B2 JP3758982 B2 JP 3758982B2
Authority
JP
Japan
Prior art keywords
group
signal
layer
fourier series
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001067837A
Other languages
Japanese (ja)
Other versions
JP2002269532A (en
Inventor
博一 横井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency, National Institute of Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2001067837A priority Critical patent/JP3758982B2/en
Publication of JP2002269532A publication Critical patent/JP2002269532A/en
Application granted granted Critical
Publication of JP3758982B2 publication Critical patent/JP3758982B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Digital Transmission Methods That Use Modulated Carrier Waves (AREA)
  • Complex Calculations (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ニューラル・ネットワーク・システムに関し、特にフーリエ級数型学習しきい素子を用いたニューラル・ネットワーク・システムに関する。
【0002】
【技術的背景】
人間の大脳皮質は約140億の神経細胞で構成された大規模なネットワークであり、機械知能を人間の知能に近づける一つの道は大規模な人工ニューラル・ネットワークを実現することである。人工ニューラル・ネットワークは、神経細胞のモデル素子で構成されている。図1に神経細胞の離散時間学習しきい素子モデルを示す。可変結合の数はn+1個、wは第i可変結合の結合荷重、xはそれへの入力信号、zは出力信号、yは教師信号である。xn+1は特別な入力信号で、常時1である。τは離散時間で、0,1,2,…の整数値をとる。y(τ)とz(τ)は必ずしもτにおいてではなく、実際にはτとτ+1の間で発生してもよい。
図1に示される離散時間学習しきい素子モデルにおける入出力関係は、
【数1】

Figure 0003758982
で示す入力荷重和s(τ)を用いて、以下のように表される。
【数2】
Figure 0003758982
ここで、f(・)はsを独立変数、zを従属変数としたときの出力関数で、単位ステップ関数や以下のようなシグモイド関数などが用いられる。
【数3】
Figure 0003758982
結合荷重w (τ)(i=1,2,…,n)は、y(τ)またはz(τ)の発生後、すなわちτとτ+1の間に、以下の式(3)のように変更される。
【数4】
Figure 0003758982
ここで、αは学習定数、rは学習信号である。学習信号は、一般Hebb学習法では以下の表1に示すように、学習法の種類によってそれぞれ異なった形の計算式で与えられる。
【表1】
Figure 0003758982
【0003】
しかしながら、現在のニューラル・ネットワークLSIは、大規模化しようとすると配線が非常に複雑になると同時に、LSIの大部分の面積を配線が占めるという問題が生じる。そのため、素子数はせいぜい数千程度が限界である。この問題を解決するために、本出願の発明者は、ベクトルの成分をフーリエ係数として一つの周期信号に変換することを考え、これをフーリエ級数信号と名づけた。
フーリエ級数信号は、各フーリエ係数に情報を担わせることにより、複数個の情報あるいは多次元の情報を一つの信号で表現でき、かつ1本の信号線で伝送できるので、情報表現および情報伝送の上で大変便利である。さらに、情報処理の上でもいろいろな利点が考えられる。例えば、ベクトルの各成分をフーリエ係数にとれば、ベクトルの加算、減算、内積演算が簡単なアナログ回路で短時間に実行できる。これを、図2〜図4を用いて説明する。
図2は、ベクトルの各成分がどのようにフーリエ係数と対応するかを示している。図2において、ベクトルA=(a,a,a,…)とベクトルB=(b,b,b,…)の成分であるa,a,a,…およびb,b,b,…が、それぞれフーリエ級数信号である関数F(t)とF(t)におけるフーリエ係数となっていることを示している。
【0004】
図3および図4は、ベクトルの加減算と内積演算がフーリエ級数信号ではどのように実現するかを示している。図3(a)は、ベクトルの加減算を示している。これで理解できるように、ベクトルの各成分ごとに演算回路を設ける必要がある。これに対して、図3(b)に示されているように、フーリエ級数信号の場合は、1個のアナログ加減算回路でベクトルの加減算を行うことができる。また、図4(a)にはベクトルの内積演算を示している。これも各成分ごとの乗算回路と総和を計算する加算回路とが必要である。図4(b)に示されているように、フーリエ級数信号の場合は、1個のアナログ乗算回路と1個のアナログ積分回路とでベクトルの内積演算を行うことができる。
フーリエ級数信号を用いることで、これらの演算回路の構成等から、
▲1▼ベクトル演算が簡単なアナログ電子回路で実行することができる。
▲2▼演算回路の入力線が、常に2本でよい。
という利点があることが分かる。
【0005】
このように、本発明の発明者は、上述の利点を生かして、フーリエ級数信号を用いた学習しきい素子を構成すると共に、それを用いてニューラル・ネットワークを構成できるようにし、これをフーリエ級数型学習しきい素子(Fourier series-type learning threshold element:Folthret)と名づけた(電子情報通信学会論文誌 D−II Vol.J75-D-II No.1 pp.145-151 「フーリエ級数型学習しきい素子−Folthret−」1992年1月;電子情報通信学会論文誌 D−II Vol.J76-D-II No.3 pp.680-688 「ニューラルコンピュータのための基本素子GH−Folthret」1993年3月等を参照)。
【0006】
<GH−Folthret>
図5〜図7で、GH−Folthretの構成について説明する。このGH−Folthretは、上述の表1に示すような一般Hebb学習(General Hebbian learning)が可能なFolthretである。
まずn+1個の入力信号x (τ)(i=1,2,…,n,n+1)とn+1個の結合荷重w (τ)(i=1,2,…,n+1)を、それぞれ以下の式(4)と(5)に示すフーリエ級数信号F (τ)(t),F (τ)(t)で表現する。
【数5】
Figure 0003758982
ここで、ωはフーリエ級数信号の基本角周波数、Tはフーリエ級数信号の周期で、2π/ωに等しい。[ ]はガウス記号である。
図5(a)は、上述の式(1)の入力の総和の計算を、式(4)、式(5)で定義したフーリエ級数信号で行う場合、図5(b)は、上述の式(3)の結合荷重の修正の計算を、同様にフーリエ級数信号で行う場合を示している。
図5で示すように、これらの式は以下の式(6)、式(7)で表される。
【数6】
Figure 0003758982
なお、λ(τ)は入力時刻を連続時間で表したものである。GH−Folthretでは1単位時間は2Tとなり、はじめの1周期間すなわちλ(τ)からλ(τ)+Tにおいては、s(τ)等が求められる。λ(0)は0である。図6は、これらの演算をアナログ回路で行うことを示している。図6(a)はフーリエ級数信号を用いて入力の総和の計算を行うための回路で、乗算器312および積分器314で構成されている。図6(b)は、同じくフーリエ級数信号を用いて結合荷重の修正の計算を行う回路を示しており、乗算器324、増幅器(増幅率α)323、加算器322で構成されている。
【0007】
図7は、これらの回路を用いて構成したGH−Folthretのブロック図である。GH−Folthretは、入力総和計算部310、出力信号発生部360、結合荷重修正部320、結合荷重メモリ部330、教師信号計算部340で構成されている。結合荷重メモリ部330は、AD変換器、DA変換器、および、デジタル・メモリで構成してもよい。
この図7では、入力線は2本で、1本はF (τ)(t)のため、もう1本は教師信号を含んだ信号y(τ)ξ(t)のためである。なお、ξ(t)は、振幅1の正弦波信号で、直流信号であるy(τ)を交流信号に変換している。
さて、時刻λ(τ)にFx (τ)(t)がまず入力される。Fx (τ)(t)は乗算器312により、結合荷重メモリ部330に記憶されているフーリエ級数信号F (τ)(t)と乗算され、さらに積分器314により1周期間積分されて、s(τ)が求められる。これから、出力信号発生部360の関数演算器362により、z(τ)=f(s(τ))を計算する。この信号はサンプル・ホールド364および366により遅延される。従って、時刻λ(τ)の時点では、時刻λ(τ−1)の出力信号z(τ−1)をp(τ)(t)として出力することになる。振幅1の正弦波であるζ(t)との掛け算を乗算器368により行い、P τ)(t)として出力する。
(τ)(t)の変更は、教師信号計算部340において、入力された信号y(τ)ξ(t)から教師信号y(τ)を計算し、次に、学習信号計算器326において、y(τ),s(τ),z(τ)等を用いて学習信号r(τ)を計算し、これとF (τ)(t)により行う。この学習信号r(τ)は、表1に示した学習法により規定されている。変更によって得られるF (τ+1)(t)は、結合荷重メモリ部330におけるF (τ)(t)を保持しているメモリ334とは別のメモリ335に1周期分書き込まれる。これら二つのメモリ334,335は並列に接続され、学習期間中それぞれの役割は単位時間ごとに交互に切り換わる。すなわち、一方のメモリがF (τ)(t)の読出し用であれば、他方はF (τ+1)(t)の書込み用である。学習期間後に切換えは行われず、一つのメモリ内の信号が常に読み出される。
【0008】
<ネットワーク(回路網)>
ネットワークの基本構造としては、相互結合型、階層型、混合型の三種類がある。混合型は、階層型において層内部の素子を相互結合したものや、隣接した層だけでなく離れた層の間にも結合を設けたものなどさまざまな形態がある。階層型や混合型は、相互結合型において特定の素子間の結合荷重を0に固定したものとみなすことができ、そのような意味では相互結合型の特殊な場合である。従って、情報処理のみを考えるなら、相互結合型をGH−Folthretによって実現すれば、他のネットワークも同じ方法で実現できる。
しかし、学習まで考えると話は別である。相互結合型の場合には、GH−Folthretによってネットワークを実現すれば、そのまま学習も可能となる。それに対して、階層型や混合型の場合には、GH−Folthretによってネットワークを実現しても、各GH−Folthretが入力信号を選択するようにしなければネットワークの学習はできない。なぜなら、そのような選択をしないと、常に0でなければならない結合荷重が結合荷重の変更時に0でなくなってしまう可能性があるからである。従って、GH−Folthretでネットワークを実現する場合、相互結合型とその他のネットワークを別個に分けて考える必要がある。
【0009】
<階層型ネットワーク>
図8は階層型ネットワークの構成を図示したものである。各層の素子は、第1層(入力層)・・・第L層(中間層)・・・第M層(出力層)にn個・・・n個・・・n個づつ配置されている。ただし、入力層の素子は、1個の入力信号をそのまま出力して、第2層に送るものである。第2層から出力層までの素子はすべて学習しきい素子である。入力層でもある第1層の各素子への入力信号
【数7】
Figure 0003758982
をk個のグループに分け、それぞれのグループに含まれる入力信号を成分とするベクトルをx<1|1>,・・・,x<1|k>と表し、入力信号全体をベクトルx<1>として表している。第1層を構成するそれぞれの素子の出力信号を
【数8】
Figure 0003758982
とし、この出力信号全体を、これらの出力信号を成分とするベクトルz<1>と表すと、これは、最初の中間層である第2層の入力ベクトルx<2>となっている。同様に第L層(中間層)の入力ベクトルx<L>は、第L−1層の出力ベクトルz<L−1>であり、第L層の出力ベクトルz<L>は、次の層の入力ベクトルとなっている。この階層型ネットワークの出力は、第M層からの出力ベクトルz<M>である。なお、第1層に限って、ベクトルx<1>とベクトルz<1>は等しい。
また、第2層以降には、それぞれの素子に、その素子への教師信号
【数9】
Figure 0003758982
が入力されている。
【0010】
<GH−Folthretによる階層型ネットワーク>
図8に示した階層型ネットワークをGH−Folthretで構成したものを図9(a)に示す。ネットワークの各素子442,446,452,456,462.466に一つの周波数を割り当て、それぞれの素子の出力信号線からはその周波数の正弦波が出力されるようにして、すべての素子の入力用信号線と出力用信号線を1本の共通の信号線に接続している。図9(a)の場合、帯域フィルタ432,434.436を各層に1個ずつ配置し、結合荷重の変更時に別の層の入力信号が混入しないようにしている。周波数分割多重方式により、図9(b)に示すように、各層に入力されるフーリエ級数信号F<L>(t)(L=2,3,…,M)の占有する周波数帯域は互いに重ならないようにとってあり、各フィルタの通過帯域はこれらの周波数帯域の一つを内部に含む。周波数は後の層ほど高くなる。この階層型ネットワークの場合、各帯域フィルタでの待ち時間を1周期とすると、信号が第1層に入力されてから第M層より出力されるまでの時間は3(M−1)Tとなる。
図9(a)に示すように、第2層の入力F<2>(t)は第2層の帯域フィルタBPF<2>432を通過して第2層の各GH−Folthretに供給される。なお、図9(b)から理解できるように、第2層から第M層までの全素子数をvとすると、入力信号線に伝送される信号の周波数範囲は、ωから[(n+v−n+M−1)/2]・ω以上となる。
以上述べた方法のほかに、帯域フィルタを各GH−Folthretに内蔵させる方法も考えられる。この場合、ネットワークは図9の中の帯域フィルタを取り除いた形で実現される。
ただ、帯域フィルタを用いると、1単位時間を3周期から4周期ぐらいにしなければならず、スループットが低下する。従って、フーリエ級数信号の基本周波数および帯域フィルタの通過帯域をできるだけ高い方にもっていくことが必要になる。
大規模なネットワークを実現する場合には、以上述べたいずれの方法でも、使用する周波数は非常に低いところから高いところまで相当広範囲にわたる。そのため、ハードウェア化する上でさまざまな問題が出てくる。例えば、加算器や乗算器あるいは積分器の高域遮断周波数をかなり高くしなければならないし、入力信号線410や教師信号線420についても伝送帯域を低い方から高い方まで相当広くしなければならない。
しかし、実際的には、Folthretに用いられる回路部品の使用周波数帯域に制限があるため、Folthretネットワークが利用できる周波数帯域をどこまでも際限なく広げることはできない。このために、ネットワークの素子数の拡大には限界があり、大規模なニューラル・ネットワークLSIの実現は大きな課題である。
【0011】
【発明が解決しようとする課題】
本発明の目的は、Folthretネットワークの以上に述べた課題を解決して、ネットワークが利用できる周波数帯域幅を大幅に拡大し、大規模ニューラル・ネットワークLSIの実現を可能とすることである。
【課題を解決するための手段】
上記目的を達成するために、本発明は、フーリエ級数信号を用いて演算する学習しきい素子で構成された階層型ニューラル・ネットワーク・システムであって、第1層は、ネットワークへの入力信号を正弦波信号に変換し、さらにそれらを加算して複数のフーリエ級数信号を生成した後に、それらのフーリエ級数信号で群変調する群変調器と、群変調された信号で第2層への搬送波を変調する変調器とを有し、中間層は、それぞれの層に対応した搬送波に同調した入力信号用同調器および復調器と、群復調器を内蔵した複数の学習しきい素子と、前記複数の学習しきい素子の正弦波出力から複数のフーリエ級数信号を生成した後、それらのフーリエ級数信号で群変調する群変調器と、群変調された信号で次の層への搬送波を変調する変調器とを有するものである。
この階層型ニューラル・ネットワーク・システムは、ネットワークの各層への教師信号を正弦波信号に変換し、さらにそれらを加算して複数のフーリエ級数信号を生成した後、それらのフーリエ級数信号で各層ごとに群変調する群変調器と、前記変調器の出力で各層に対応した搬送波を変調する変調器と、各層ごとに対応する搬送波に同調した教師信号用同調器と復調器とを有し、第2層以降を構成する前記学習しきい素子は、群変調信号中から自己あての教師信号を含んだフーリエ級数信号を群復調する群復調器を有してもいる。
また、前記第2層以降を構成する学習しきい素子は、入力総和計算部と、出力信号発生部と、教師信号計算部と、結合荷重メモリ部と、結合荷重修正部とを有し、前記入力総和計算部、前記結合荷重メモリ部および前記結合荷重修正部は、内蔵された群復調器からの出力信号を処理できる。
前記群復調器は、スーパヘテロダイン方式を取り入れることが望ましい。
【0012】
【発明の実施の形態】
本発明の実施形態を、図面を参照して詳細に説明する。
本発明は、周波数範囲が制限された無数のフーリエ級数信号を用いて群変調を行うことにより、ネットワークが利用できる周波数帯域幅を大幅に拡大し、ニューラル・ネットワークを構成する多数のFolthretを使用できるようにした。
<群変調>
まず、群変調について説明する。群変調は、搬送式多重通信方式において、いくつかの音声通話路をまとめて変調して一つの通話路群(前群)を作り、この1束の通話路群を1群とし、他の通話路群と合わせて、また変調して通話路群(基礎群)を作成する等を繰り返すことで、多数の通話路をまとめて搬送することをいう。良く用いられる群変調の例を表2に示す。
【表2】
Figure 0003758982
表2では、3つの音声チャネルをまとめて前群とし、4つの前群をまとめて基礎群(G)としている。また、5つの基礎群(G)をまとめて基礎超群(SG)とし、5つの基礎超群(SG)をまとめて基礎主群(MG)としている。3つの基礎主群(MG)で基礎超主群(SMG)を構成し、4つの基礎超主群をまとめて基礎巨群を構成している。基礎巨群では、最終的にチャネル数3600、周波数帯域42.6MHzから59.7MHz、帯域幅17.MHzである。
【0013】
<Folthretネットワークへの応用>
上述の群変調方式の、Folthretネットワークへの応用について説明する。フーリエ級数信号で搬送波を変調した信号を集めてまず前群を作る。次に、このようにして作られた前群を一つの信号として扱い、複数個の前群で周波数のさらに高い搬送波を変調して基礎群を作る。さらに基礎群を一つの信号として、同様の多重化を行い、基礎超群を作る。これを繰り返し適用することにより、基礎主群、基礎超主群、基礎巨群等を作ることができる。このような群変調により、ネットワークを構成する実質的なFolthret数を限りなく拡大していくことができる。
この群変調を用いた階層型ネットワークを構成するフーリエ級数型学習しきい素子を図10に示す。図10は、群復調器を内蔵した群変調用GH−Folthret600の構成を示している。図10における群変調用GH−Folthretの基本的構成は、図7に示したGH−Folthretの構成と同様である。図10において、フーリエ級数信号F (τ)(t)に対する群複調器610は、第L層第iグループのGH−Folthretに対して復調を行い、この素子に対する教師信号を含んだフーリエ級数信号を出力する。また、フーリエ級数信号F (τ)(t)に対する群復調器620は、第L層の素子に対するすべての入力信号を含んだk個のフーリエ級数信号F (τ)<L|1>(t),・・・,F (τ)<L|k>(t)を復調することができる。このk個のフーリエ級数信号F (τ)<L|1>(t),・・・,F (τ)<L|k>(t)に対して、それぞれに対応した結合荷重を含んだフーリエ級数信号をk個の乗算器642・・・乗算器645により掛け合わせた後、k個の積分器643・・・積分器647により積分され。その総和を加算器649でとる。結合荷重を含んだフーリエ級数信号は、k個の結合荷重メモリ部632・・・結合荷重メモリ部636により発生する。この結合荷重メモリ部に記憶されている結合荷重を含むフーリエ級数信号は、それぞれk個ある乗算器635・・・乗算器639、増幅器634・・・増幅器638および加算器633・・・加算器637で構成される結合荷重修正部により修正される。他の教師信号計算部や出力信号発生部の構成は、図7に示したGH−Folthretと同じである。このような図10に示した構成の群複調器を内蔵した群変調用GH−Folthretは、実質的に図7のGH−Folthretのk個分に相当する。
【0014】
図11は、図10の群復調器を内蔵した群変調用GH−Folthretを用いて構成した階層型ネットワークの例を示している。図11において、第1層(入力層)では、入力信号
【数10】
Figure 0003758982
をそれぞれ正弦波信号に変換し、それらをk個のグループに分け、各グループの正弦波信号を加算することにより、k個のフーリエ級数信号F (τ)<1|1>(t),・・・,F (τ)<1|k>(t)を構成する。第1層では入力信号がそのまま出力されて第2層に送られるので、これらのフーリエ級数信号は第2層の入力として送られるフーリエ級数信号F (τ)<2|1>(t),・・・,F (τ)<2|k>(t)に等しい。これらのk個のフーリエ級数信号は、群変調器726において群変調に用いられ、群変調された信号で第2層に対応した周波数ω<2>の搬送波を変調してから、入力信号線514を介して第2層を構成するGH−Folthretに伝搬している。第2層では、周波数ω<2>の同調器742と復調器744の対により、第1層から第2層に送られた群変調された信号を受信する。
また、第2層、第3層・・・第M層に対する教師信号
【数11】
Figure 0003758982
も同様に、それぞれ正弦波信号に変換し、それらを各層ごとに複数のグループに分け、各グループの正弦波信号を加算することにより、各層に対応したm個のフーリエ級数信号F (τ)<2|1>(t),・・・,F (τ)<2|m>(t),F (τ)<3|1>(t),・・・,F (τ)<3|m>(t),・・・,F (τ)<M|1>(t),・・・,F (τ)<M|m>(t)を得ている。これらのフーリエ級数信号を用いて、それぞれ各層ごとに、群変調器722,群変調器723,・・・,群変調器724により群変調した後、さらに変調器712,変調器713,・・・,変調器714により各層に対応した周波数ω<2>,ω<3>,・・・,ω<M>の搬送波を変調する。第2層では、教師信号線512から送られるこれらの変調信号は、周波数ω<2>の同調器732および復調器734により復調されて、第2層の各素子に対する教師信号を含む群変調信号が得られる。
第2層において、教師信号線512から同調器732および復調器734で受信した群変調信号、入力信号線514から同調器742および復調器744で受信した群変調信号はともに、群変調用GH−Folthret752,754,・・・,756に入力される。それぞれの群変調用GH−Folthretでは、図10に示されているように、それぞれの素子に対する教師信号を含むフーリエ級数信号を、内部の群復調器610で復調して受信している。また、それぞれの素子へのk個の入力フーリエ級数信号を、群復調器620で復調して受信している。群変調用GH−Folthretは、実質的にk個のGH−Folthretとして動作する。
第2層を構成している各GH−Folthretからの正弦波出力は、加算器772〜776によりグループごとに加算され、次の第3層への入力フーリエ級数信号F (τ)<3|1>(t),・・・,F (τ)<3|k>(t)に構成される。これらのフーリエ級数信号は、群変調器762で搬送波を群変調するのに用いられる。この群変調信号で、変調器764において第3層に対応する周波数ω<3>の搬送波を変調して、入力信号線514に戻される。
第3層以降は、第2層と同様の構成を有しており、各層ごとに、同調器と復調器のペアでその層に対応した周波数の変調波を受信している。
【0015】
<スーパヘテロダイン技術の利用>
周波数が非常に高い搬送波を用いたときの高周波域の問題解決法として、群復調に、多重スーパヘテロダイン技術を利用することができる。
群変調は、前に説明したように、変調を多重に繰り返して、段階ごとに高い周波数となる。このような群変調された信号を復調するためには、逆に高い周波数から順次低い周波数へと復調していくことが必要である。この復調にスーパヘテロダイン技術を用いるのである。この技術を利用することにより、高選択度により混信を防ぐことができ、精度のよい信号が得られることや、高周波の微弱信号を容易に増幅できるなど、大規模なネットワークを実現することに有利に働く。
【0016】
<まとめ>
このように周波数帯域が制限された無数のフーリエ級数信号に群変調を適用することにより、ネットワークが利用できる周波数帯域幅を大幅に拡大し、大規模ニューラル・ネットワークLSIの実現を可能とした。なお、高周波域でシャープな同調フィルタの設計が困難である等のため、多重スーパヘテロダイン方式も同時に取り入れるとよい。
【0017】
超大規模人工ニューラル・ネットワークがハードウェア的に実現すれば、しかもLSIの形になれば、以下のことが可能となる。
▲1▼ 人間の持つ大規模で複雑な知識ネットワーク、特に暗黙知の部分を学習できるようになる。
▲2▼ 巨大で複雑なメカニズムが存在し、数式等で記述できないシステムや処理過程の順モデルや逆モデルを学習により実現できるようになる。
▲3▼ 人間に近い能力や特性を持った機械知能を実現できる。
したがって、超大規模人工ニューラル・ネットワークがハードウェア的に実現することの効果として、以下のことが期待できる。
▲1▼ 人間の持つ大規模で複雑な知識ネットワーク、特に暗黙知の部分を学習できるようになれば、自然言語の意味処理、機械翻訳、名医に近い自動診断、ベテランドライバーのような自動運転や自律走行による施設の一部の無人化などが期待できる。
▲2▼ 巨大で複雑なメカニズムが存在し、数式等で記述できないシステムや処理過程の順モデルや逆モデルを学習により実現できるようになれば、人間しかできないような複雑なパターン認識や動画像処理、巨大で複雑なプラントの制御等が期待できる。
▲3▼ 人間に近い能力を持った機械知能を実現できれば、あらかじめ決められた作業をするだけではなく、自らも考え、人の相談にも応じることができる自動車、家庭電化製品、ワープロ、各種ロボットの実現が期待できる。
▲4▼ 巨大プログラムの一部を大規模人工ニューラル・ネットワークで置き換えることにより、労力と時間およびコストの大幅な削減が期待できる。
▲5▼ 既存のあらゆる工学システムに組み込んで、人間のような高い学習能力と知能を持たせることができるようになる。
【0018】
【発明の効果】
上述したように、本発明では、周波数帯域が制限された無数のフーリエ級数信号に群変調を適用することにより、ネットワークが利用できる周波数帯域幅を大幅に拡大し、大規模ニューラル・ネットワークLSIの実現を可能とした。
【図面の簡単な説明】
【図1】学習しきい素子を示す図である。
【図2】ベクトルのフーリエ級数化を説明する図である。
【図3】ベクトルの加減算のフーリエ級数信号による実現法を説明する図である。
【図4】ベクトルの内積演算のフーリエ級数信号による実現法を説明する図である。
【図5】学習しきい素子内部演算のフーリエ級数信号による実現法を説明する図である。
【図6】フーリエ級数信号を用いる場合の学習しきい素子内部の演算回路を説明する図である。
【図7】GH−Folthretの構成を示す図である。
【図8】階層型ネットワークの構成を説明する図である。
【図9】帯域フィルタを用いてGH−Folthretにより階層型ネットワークを構成することを説明する図である。
【図10】群変調を用いて階層型ネットワークを構成するためのGH−Folthretの構成を示す図である。
【図11】群変調用GH−Folthretを用いて構成した階層型ネットワークを示す図である。
【符号の説明】
310 入力総和計算部
312 乗算器
314 積分器
320 結合荷重修正部
322 加算器
323 増幅器
324 乗算器
325 サンプル・ホールド
326 学習信号計算器
330 結合荷重メモリ部
334,335 メモリ
340 教師信号計算部
342 積分器
344 正弦波メモリ
346 乗算器
360 出力信号発生部
362 関数演算器
364,366 サンプル・ホールド
367 正弦波メモリ
368 乗算器
410 教師信号線
420 入力信号線
442,446,452,456,462,466 GH−Folthret432,434,436 帯域フィルタ
512 教師信号線
514 入力信号線
610 群復調器
620 群復調器
632,636 結合荷重メモリ部
633,637 加算器
634,638 増幅器
635,639 乗算器
642,645 乗算器
643,647 積分器
649 加算器
726 群変調器
712,713,714 変調器
716 変調器
722,723,724 群変調器
732 同調器
734 復調器
742 同調器
744 復調器
752,754,756 群変調用GH−Folthret
762 群変調器
764 変調器
772,776 加算器[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a neural network system, and more particularly to a neural network system using a Fourier series type learning threshold element.
[0002]
[Technical background]
The human cerebral cortex is a large-scale network composed of about 14 billion nerve cells, and one way to bring machine intelligence closer to human intelligence is to realize a large-scale artificial neural network. The artificial neural network is composed of model elements of nerve cells. FIG. 1 shows a discrete element learning threshold element model of a nerve cell. The number of variable bonds is n + 1, wiIs the bond weight of the i-th variable bond, xiIs an input signal, z is an output signal, and y is a teacher signal. xn + 1Is a special input signal and is always 1. τ is a discrete time and takes an integer value of 0, 1, 2,. y(Τ)And z(Τ)May not necessarily occur at τ, but may actually occur between τ and τ + 1.
The input / output relationship in the discrete-time learning threshold element model shown in FIG.
[Expression 1]
Figure 0003758982
Input load sum s(Τ)Is expressed as follows.
[Expression 2]
Figure 0003758982
Here, f (•) is an output function when s is an independent variable and z is a dependent variable, and a unit step function or the following sigmoid function is used.
[Equation 3]
Figure 0003758982
Bond load wi (Τ)(I = 1, 2,..., N) is y(Τ)Or z(Τ)Is changed, as shown in the following expression (3), between τ and τ + 1.
[Expression 4]
Figure 0003758982
Here, α is a learning constant, and r is a learning signal. In the general Hebb learning method, the learning signal is given by a calculation formula having a different form depending on the type of the learning method, as shown in Table 1 below.
[Table 1]
Figure 0003758982
[0003]
However, in the current neural network LSI, when the scale is increased, the wiring becomes very complicated, and at the same time, the wiring occupies most of the area of the LSI. Therefore, the maximum number of elements is about several thousand. In order to solve this problem, the inventor of the present application considered converting a vector component into a single periodic signal as a Fourier coefficient, and named it a Fourier series signal.
In the Fourier series signal, by assigning information to each Fourier coefficient, a plurality of information or multidimensional information can be expressed by one signal and transmitted by one signal line. Very convenient above. Furthermore, there are various advantages in information processing. For example, if each component of a vector is taken as a Fourier coefficient, the addition, subtraction, and inner product calculation of the vector can be executed in a short time with an analog circuit. This will be described with reference to FIGS.
FIG. 2 shows how each component of the vector corresponds to a Fourier coefficient. In FIG. 2, the vector A = (a1, A2, A3, ...) and vector B = (b1, B2, B3A) which is a component of1, A2, A3, ... and b1, B2, B3,... Are functions F that are respectively Fourier series signals.A(T) and FBIt shows that it is a Fourier coefficient in (t).
[0004]
FIGS. 3 and 4 show how vector addition and subtraction and inner product operations are realized in a Fourier series signal. FIG. 3A shows vector addition / subtraction. As can be understood from this, it is necessary to provide an arithmetic circuit for each component of the vector. On the other hand, as shown in FIG. 3B, in the case of a Fourier series signal, vector addition / subtraction can be performed by one analog addition / subtraction circuit. FIG. 4A shows the inner product calculation of vectors. This also requires a multiplication circuit for each component and an addition circuit for calculating the sum. As shown in FIG. 4B, in the case of a Fourier series signal, a vector inner product operation can be performed by one analog multiplication circuit and one analog integration circuit.
By using the Fourier series signal, from the configuration of these arithmetic circuits,
(1) Vector calculation can be executed by a simple analog electronic circuit.
(2) The number of input lines of the arithmetic circuit may always be two.
It can be seen that there is an advantage.
[0005]
As described above, the inventor of the present invention makes use of the above-described advantages to construct a learning threshold element using a Fourier series signal, and to use it to construct a neural network, which is used as a Fourier series. Named “Fourier series-type learning threshold element” (D-II Vol.J75-D-II No.1 pp.145-151 “Fourier series-type learning” KIKI-Folthret- "January 1992; IEICE Transactions D-II Vol.J76-D-II No.3 pp.680-688" Basic Element for Neural Computers GH-Folthret "1993 See month etc.).
[0006]
<GH-Folthret>
The configuration of GH-Folthret will be described with reference to FIGS. This GH-Folthret is a Folthret capable of general Hebb learning as shown in Table 1 above.
First, n + 1 input signals xi (Τ)(I = 1, 2,..., N, n + 1) and n + 1 bond weights wi (Τ)(I = 1, 2,..., N + 1) are converted into Fourier series signals F shown in the following equations (4) and (5), respectively.x (Τ)(T), Fw (Τ)Expressed as (t).
[Equation 5]
Figure 0003758982
Here, ω is the fundamental angular frequency of the Fourier series signal, and T is the period of the Fourier series signal, which is equal to 2π / ω. [] Is a Gaussian symbol.
FIG. 5A shows a case where the calculation of the sum of the inputs of the above equation (1) is performed with a Fourier series signal defined by the equations (4) and (5), and FIG. The case where the calculation of the correction of the coupling load in (3) is similarly performed with a Fourier series signal is shown.
As shown in FIG. 5, these formulas are represented by the following formulas (6) and (7).
[Formula 6]
Figure 0003758982
Λ(Τ)Represents the input time in continuous time. In GH-Folthret, one unit time is 2T, and the first one period, that is, λ(Τ)To λ(Τ)For + T, s(Τ)Etc. are required. λ(0)Is 0. FIG. 6 shows that these operations are performed by an analog circuit. FIG. 6A shows a circuit for calculating the total sum of inputs using a Fourier series signal, and includes a multiplier 312 and an integrator 314. FIG. 6B also shows a circuit for calculating the coupling weight correction using the Fourier series signal, and includes a multiplier 324, an amplifier (amplification factor α) 323, and an adder 322.
[0007]
FIG. 7 is a block diagram of the GH-Folthret configured using these circuits. The GH-Folthret includes an input sum calculation unit 310, an output signal generation unit 360, a coupling load correction unit 320, a coupling load memory unit 330, and a teacher signal calculation unit 340. The combined load memory unit 330 may be composed of an AD converter, a DA converter, and a digital memory.
In FIG. 7, there are two input lines and one is F.x (Τ)For (t), the other signal y includes the teacher signal.(Τ)This is because ξ (t). Note that ξ (t) is a sine wave signal having an amplitude of 1, and is a DC signal.(Τ)Is converted into an AC signal.
Now, time λ(Τ)Fx (Τ)(T) is input first. Fx (Τ)(T) is a Fourier series signal F stored in the coupling weight memory unit 330 by the multiplier 312.w (Τ)Multiplied by (t), and further integrated for one period by an integrator 314 to obtain s(Τ)Is required. From now on, the function calculator 362 of the output signal generator 360 makes z(Τ)= F (s(Τ)). This signal is delayed by sample and hold 364 and 366. Therefore, time λ(Τ)At time λ(Τ-1)Output signal z(Τ-1)P(Τ)(T) is output. Multiplication with ζ (t), which is a sine wave of amplitude 1, is performed by a multiplier 368, and P( τ)Output as (t).
Fw (Τ)The change of (t) is performed by the input signal y in the teacher signal calculation unit 340.(Τ)Teacher signal y from ξ (t)(Τ)And then in the learning signal calculator 326, y(Τ), S(Τ), Z(Τ)The learning signal r using(Τ)And this and Fx (Τ)(T). This learning signal r(Τ)Is defined by the learning method shown in Table 1. F obtained by changew (Τ + 1)(T) is F in the combined load memory unit 330.w (Τ)One cycle is written in a memory 335 different from the memory 334 holding (t). These two memories 334 and 335 are connected in parallel, and their roles are switched alternately every unit time during the learning period. That is, one memory is Fw (Τ)If it is for reading (t), the other is Fw (Τ + 1)For writing (t). Switching is not performed after the learning period, and the signal in one memory is always read out.
[0008]
<Network (circuit network)>
There are three basic types of networks: interconnected, hierarchical, and mixed. The mixed type has various forms such as a hierarchical type in which elements in layers are mutually coupled, and a type in which coupling is provided not only between adjacent layers but also between separated layers. The hierarchical type and the mixed type can be regarded as those in which the coupling load between specific elements is fixed to 0 in the mutual coupling type, and in that sense, is a special case of the mutual coupling type. Therefore, if only the information processing is considered, if the mutual coupling type is realized by GH-Folthret, other networks can be realized by the same method.
However, the story is different when considering learning. In the case of the mutual coupling type, if a network is realized by GH-Folthret, learning can be performed as it is. On the other hand, in the case of a hierarchical type or a mixed type, even if a network is realized by GH-Folthret, the network cannot be learned unless each GH-Folthret selects an input signal. This is because, unless such a selection is made, there is a possibility that the joint load that must always be zero may not be zero when the joint load is changed. Therefore, when the network is realized by GH-Folthret, it is necessary to consider the mutual connection type and the other network separately.
[0009]
<Hierarchical network>
FIG. 8 illustrates the configuration of a hierarchical network. The elements of each layer are composed of the first layer (input layer), the Lth layer (intermediate layer), and the nth layer (output layer).1NLNMIt is arranged one by one. However, the elements in the input layer output one input signal as it is and send it to the second layer. All elements from the second layer to the output layer are learning threshold elements. Input signal to each element of the first layer that is also the input layer
[Expression 7]
Figure 0003758982
, X <1 | 1>,..., X <1 | k>, and the entire input signal is represented by a vector x <1. >. The output signal of each element constituting the first layer
[Equation 8]
Figure 0003758982
If the entire output signal is expressed as a vector z <1> having these output signals as components, this is an input vector x <2> in the second layer which is the first intermediate layer. Similarly, the input vector x <L> of the Lth layer (intermediate layer) is the output vector z <L-1> of the (L-1) th layer, and the output vector z <L> of the Lth layer is the next layer. Is the input vector. The output of this hierarchical network is an output vector z <M> from the Mth layer. Only in the first layer, the vector x <1> and the vector z <1> are equal.
In the second and subsequent layers, each element has a teacher signal to that element.
[Equation 9]
Figure 0003758982
Is entered.
[0010]
<Layered network by GH-Folthret>
FIG. 9A shows a configuration in which the hierarchical network shown in FIG. 8 is configured by GH-Folthret. Assign a single frequency to each element 442, 446, 452, 456, 462.466 in the network, and output a sine wave of that frequency from the output signal line of each element. The signal line and the output signal line are connected to one common signal line. In the case of FIG. 9A, one band pass filter 432, 434.436 is arranged in each layer so that an input signal of another layer is not mixed when the coupling load is changed. As shown in FIG. 9B, a Fourier series signal F input to each layer is obtained by frequency division multiplexing.xThe frequency bands occupied by <L> (t) (L = 2, 3,..., M) do not overlap each other, and the pass band of each filter includes one of these frequency bands. The frequency is higher in later layers. In the case of this hierarchical network, assuming that the waiting time in each band filter is one cycle, the time from when a signal is input to the first layer until it is output from the Mth layer is 3 (M−1) T. .
As shown in FIG. 9A, the input F of the second layerx<2> (t) is supplied to each GH-Folthret of the second layer through the band filter BPF <2> 432 of the second layer. As can be understood from FIG. 9B, when the total number of elements from the second layer to the Mth layer is v, the frequency range of the signal transmitted to the input signal line is from ω to [(n1+ V−nM+ M-1) / 2] · ω or more.
In addition to the method described above, a method of incorporating a bandpass filter in each GH-Folthret is also conceivable. In this case, the network is realized by removing the bandpass filter in FIG.
However, when a bandpass filter is used, one unit time has to be changed from 3 cycles to 4 cycles, and the throughput is lowered. Therefore, it is necessary to set the fundamental frequency of the Fourier series signal and the passband of the bandpass filter as high as possible.
When realizing a large-scale network, in any of the methods described above, the frequency to be used is considerably wide ranging from a very low place to a high place. For this reason, various problems arise when implementing hardware. For example, the high-frequency cutoff frequency of the adder, multiplier, or integrator must be considerably increased, and the transmission band of the input signal line 410 and the teacher signal line 420 must be considerably wide from the lower to the higher one. .
However, in practice, there is a limit to the frequency band of the circuit components used for the Follett, and therefore the frequency band that can be used by the Follett network cannot be expanded without limit. For this reason, there is a limit to the expansion of the number of elements in the network, and realization of a large-scale neural network LSI is a big problem.
[0011]
[Problems to be solved by the invention]
An object of the present invention is to solve the above-mentioned problems of the Folthret network, greatly increase the frequency bandwidth that can be used by the network, and realize a large-scale neural network LSI.
[Means for Solving the Problems]
In order to achieve the above object, the present invention is a hierarchical neural network system composed of learning threshold elements that are operated using a Fourier series signal, wherein the first layer receives an input signal to the network. After converting into a sine wave signal and adding them to generate a plurality of Fourier series signals, a group modulator that performs group modulation with the Fourier series signals, and a carrier wave to the second layer with the group modulated signals And an intermediate layer includes an input signal tuner and demodulator tuned to a carrier wave corresponding to each layer, a plurality of learning threshold elements including a group demodulator, and the plurality of learning threshold elements. A group modulator that generates multiple Fourier series signals from the sinusoidal output of a learning threshold element and then performs group modulation with the Fourier series signals, and a modulator that modulates the carrier wave to the next layer with the group modulated signals When Those having.
This hierarchical neural network system converts a teacher signal to each layer of the network into a sine wave signal, adds them to generate multiple Fourier series signals, and then uses those Fourier series signals for each layer. A group modulator that performs group modulation, a modulator that modulates a carrier wave corresponding to each layer with the output of the modulator, a tuner for tuner signals and a demodulator that are tuned to the carrier wave corresponding to each layer, The learning threshold elements constituting the layers and beyond also have a group demodulator that group-demodulates a Fourier series signal including a self-directed teacher signal from the group modulation signal.
The learning threshold elements constituting the second and subsequent layers include an input summation calculation unit, an output signal generation unit, a teacher signal calculation unit, a coupling load memory unit, and a coupling load correction unit, The input sum calculation unit, the coupling load memory unit, and the coupling load correction unit can process an output signal from a built-in group demodulator.
The group demodulator preferably adopts a superheterodyne system.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described in detail with reference to the drawings.
The present invention significantly increases the frequency bandwidth available to the network by performing group modulation using an infinite number of Fourier series signals with a limited frequency range, and can use a large number of foltrets constituting a neural network. I did it.
<Group modulation>
First, group modulation will be described. Group modulation is a carrier multiplex communication system in which several voice communication paths are modulated together to form a single communication path group (previous group). It means that a large number of speech paths are transported together by repeating the creation of a speech path group (basic group) with modulation along with the path group. Table 2 shows examples of frequently used group modulation.
[Table 2]
Figure 0003758982
In Table 2, the three voice channels are grouped together as a front group, and the four front groups are grouped as a base group (G). In addition, the five basic groups (G) are collectively referred to as a basic super group (SG), and the five basic super groups (SG) are collectively referred to as a basic main group (MG). Three basic main groups (MG) constitute the basic super main group (SMG), and the four basic super main groups constitute a basic super group. In the basic giant group, finally, the number of channels is 3600, the frequency band is 42.6 MHz to 59.7 MHz, and the bandwidth is 17. MHz.
[0013]
<Application to Folthret Network>
An application of the above-described group modulation scheme to the Follett network will be described. First, a front group is formed by collecting signals obtained by modulating a carrier wave with a Fourier series signal. Next, the front group thus created is treated as one signal, and a plurality of front groups are used to modulate a carrier wave having a higher frequency to form a base group. Furthermore, the basic group is used as one signal and the same multiplexing is performed to create a basic super group. By applying this repeatedly, a basic main group, a basic super main group, a basic super group, etc. can be created. With such group modulation, the substantial number of foltrets constituting the network can be expanded without limit.
FIG. 10 shows a Fourier series learning threshold element constituting a hierarchical network using the group modulation. FIG. 10 shows the configuration of a group modulation GH-Folthret 600 incorporating a group demodulator. The basic configuration of the group modulation GH-Folthret in FIG. 10 is the same as the configuration of the GH-Folthret shown in FIG. In FIG. 10, the Fourier series signal Fy (Τ)The group multi-tone modulator 610 for (t) demodulates the GH-Folthret of the L-th layer i-th group, and outputs a Fourier series signal including a teacher signal for this element. Fourier series signal Fx (Τ)The group demodulator 620 for (t) includes k Fourier series signals F including all input signals for the elements of the Lth layer.x (Τ)<L | 1> (t), ..., Fx (Τ)<L | k> (t) can be demodulated. These k Fourier series signals Fx (Τ)<L | 1> (t), ..., Fx (Τ)After multiplying <L | k> (t) by Fourier multiplier signals 642... Multipliers 645 including the corresponding coupling weights, k integrators 643. ..Integrated by integrator 647 The sum is taken by an adder 649. The Fourier series signal including the coupling weight is generated by the k coupling weight memory units 632... The coupling weight memory unit 636. The Fourier series signals including the coupling weights stored in the coupling weight memory unit are k multipliers 635... Multiplier 639, amplifier 634... Amplifier 638 and adder 633. It is corrected by the combined load correction unit constituted by The configurations of other teacher signal calculation units and output signal generation units are the same as those of the GH-Folthret shown in FIG. The group modulation GH-Folthret incorporating the group double-tone modulator having the configuration shown in FIG. 10 substantially corresponds to k of the GH-Folthret in FIG.
[0014]
FIG. 11 shows an example of a hierarchical network configured using a group modulation GH-Folthret incorporating the group demodulator of FIG. In FIG. 11, in the first layer (input layer), the input signal
[Expression 10]
Figure 0003758982
Respectively into sine wave signals, divide them into k groups, and add the sine wave signals of each group to obtain k Fourier series signals Fx (Τ)<1 | 1> (t), ..., Fx (Τ)<1 | k> (t). Since the input signal is output as it is in the first layer and sent to the second layer, these Fourier series signals are Fourier series signals F sent as the input of the second layer.x (Τ)<2 | 1> (t), ..., Fx (Τ)It is equal to <2 | k> (t). These k Fourier series signals are used for group modulation in the group modulator 726, and a carrier wave having a frequency ω <2> corresponding to the second layer is modulated with the group modulated signal, and then the input signal line 514. Is propagating to the GH-Folthret constituting the second layer. In the second layer, the group-modulated signal sent from the first layer to the second layer is received by the pair of the tuner 742 and the demodulator 744 having the frequency ω <2>.
In addition, teacher signals for the second layer, the third layer, ... the Mth layer
## EQU11 ##
Figure 0003758982
In the same manner, each of the signals is converted into a sine wave signal, divided into a plurality of groups for each layer, and the sine wave signals of each group are added to obtain m Fourier series signals F corresponding to each layer.y (Τ)<2 | 1> (t), ..., Fy (Τ)<2 | m> (t), Fy (Τ)<3 | 1> (t), ..., Fy (Τ)<3 | m> (t), ..., Fy (Τ)<M | 1> (t), ..., Fy (Τ)<M | m> (t) is obtained. Using these Fourier series signals, group modulation is performed by a group modulator 722, a group modulator 723,..., A group modulator 724 for each layer, and then a modulator 712, a modulator 713,. , Modulator 714 modulates a carrier wave having a frequency ω <2>, ω <3>,..., Ω <M> corresponding to each layer. In the second layer, these modulation signals sent from the teacher signal line 512 are demodulated by a tuner 732 and a demodulator 734 having a frequency ω <2>, and a group modulation signal including a teacher signal for each element of the second layer. Is obtained.
In the second layer, the group modulation signal received by the tuner 732 and the demodulator 734 from the teacher signal line 512 and the group modulation signal received by the tuner 742 and the demodulator 744 from the input signal line 514 are both GH− for group modulation. .., 756. In each group modulation GH-Folthret, as shown in FIG. 10, a Fourier series signal including a teacher signal for each element is demodulated and received by an internal group demodulator 610. In addition, k input Fourier series signals to each element are demodulated by the group demodulator 620 and received. The group modulation GH-Folthret operates substantially as k GH-Folthrets.
The sine wave output from each GH-Folthret constituting the second layer is added for each group by adders 772 to 776, and the input Fourier series signal F to the next third layer is added.x (Τ)<3 | 1> (t), ..., Fx (Τ)<3 | k> (t). These Fourier series signals are used for group modulation of the carrier wave by the group modulator 762. With this group modulation signal, the modulator 764 modulates the carrier wave having the frequency ω <3> corresponding to the third layer, and is returned to the input signal line 514.
The third and subsequent layers have the same configuration as the second layer, and a modulated wave having a frequency corresponding to that layer is received by a pair of a tuner and a demodulator for each layer.
[0015]
<Utilization of superheterodyne technology>
As a method for solving a problem in the high frequency range when a carrier wave having a very high frequency is used, a multiple superheterodyne technique can be used for group demodulation.
As described above, the group modulation has a high frequency for each stage by repeating the modulation in a multiplex manner. In order to demodulate such a group-modulated signal, it is necessary to demodulate from a higher frequency to a lower frequency. Superheterodyne technology is used for this demodulation. By using this technology, it is possible to prevent interference due to high selectivity, and to obtain a high-accuracy signal and to easily amplify a weak high-frequency signal, which is advantageous for realizing a large-scale network. To work.
[0016]
<Summary>
In this way, by applying group modulation to an infinite number of Fourier series signals with limited frequency bands, the frequency bandwidth that can be used by the network is greatly expanded, and a large-scale neural network LSI can be realized. In addition, since it is difficult to design a sharp tuning filter in a high frequency range, a multiple superheterodyne method may be adopted at the same time.
[0017]
If a super large-scale artificial neural network is realized in hardware, and if it is in the form of an LSI, the following becomes possible.
(1) It becomes possible to learn a large-scale and complex knowledge network possessed by humans, particularly tacit knowledge.
(2) There is a huge and complicated mechanism, and it becomes possible to realize a system that cannot be described by mathematical formulas, a forward model or a reverse model of the process by learning.
(3) Realize machine intelligence with human-like capabilities and characteristics.
Therefore, the following can be expected as an effect of realizing the ultra-large-scale artificial neural network in hardware.
(1) If you can learn a large and complex knowledge network of human beings, especially tacit knowledge, natural language semantic processing, machine translation, automatic diagnosis close to a well-known doctor, It can be expected that some facilities will be unmanned by autonomous driving.
(2) There is a huge and complex mechanism, and if it is possible to realize a system that cannot be described by mathematical formulas or a forward model or inverse model of the processing process by learning, complex pattern recognition and moving image processing that only humans can do It can be expected to control huge and complex plants.
(3) If machine intelligence with human-like capabilities can be realized, cars, home appliances, word processors, and various robots that can not only perform predetermined tasks but also think and respond to human consultation Can be expected.
(4) Replacing a part of a huge program with a large-scale artificial neural network can greatly reduce labor, time and cost.
(5) It can be incorporated into all existing engineering systems to provide human-like high learning ability and intelligence.
[0018]
【The invention's effect】
As described above, in the present invention, by applying group modulation to an infinite number of Fourier series signals whose frequency band is limited, the frequency bandwidth that can be used by the network is greatly expanded, and a large-scale neural network LSI is realized. Made possible.
[Brief description of the drawings]
FIG. 1 is a diagram showing learning threshold elements.
FIG. 2 is a diagram for explaining Fourier series conversion of a vector.
FIG. 3 is a diagram for explaining a method of realizing addition and subtraction of vectors using Fourier series signals.
FIG. 4 is a diagram for explaining a realization method of a vector inner product operation using a Fourier series signal;
FIG. 5 is a diagram for explaining a realization method of learning threshold element internal computation using a Fourier series signal;
FIG. 6 is a diagram illustrating an arithmetic circuit inside a learning threshold element when a Fourier series signal is used.
FIG. 7 is a diagram illustrating a configuration of GH-Folthret.
FIG. 8 is a diagram illustrating a configuration of a hierarchical network.
FIG. 9 is a diagram illustrating that a hierarchical network is configured by GH-Folthret using a band filter.
FIG. 10 is a diagram illustrating a configuration of GH-Folthret for configuring a hierarchical network using group modulation.
FIG. 11 is a diagram illustrating a hierarchical network configured using GH-Folthret for group modulation.
[Explanation of symbols]
310 Input total calculation part
312 multiplier
314 Integrator
320 Bond load correction part
322 Adder
323 amplifier
324 multiplier
325 Sample hold
326 Learning signal calculator
330 Bond load memory
334,335 memory
340 Teacher signal calculator
342 integrator
344 Sine wave memory
346 multiplier
360 Output signal generator
362 function calculator
364, 366 Sample hold
367 Sine wave memory
368 multiplier
410 Teacher signal line
420 Input signal line
442, 446, 452, 456, 462, 466 GH-Folthret 432, 434, 436 Bandpass Filter
512 Teacher signal line
514 Input signal line
610 Group demodulator
620 group demodulator
632,636 Bond load memory section
633, 637 Adder
634,638 amplifier
635,639 multiplier
642,645 multiplier
643,647 integrator
649 Adder
726 Group modulator
712, 713, 714 modulator
716 modulator
722, 723, 724 group modulator
732 Tuner
734 Demodulator
742 Tuner
744 Demodulator
752,754,756 Group modulation GH-Folthret
762 Group modulator
764 modulator
772,776 Adder

Claims (4)

フーリエ級数信号を用いて演算する学習しきい素子で構成された階層型ニューラル・ネットワーク・システムであって、
第1層は、ネットワークへの入力信号を正弦波信号に変換し、さらにそれらを加算して複数のフーリエ級数信号を生成した後に、それらのフーリエ級数信号で群変調する群変調器と、群変調された信号で第2層への搬送波を変調する変調器とを有し、
各中間層は、それぞれの層に対応した搬送波に同調した入力信号用同調器および復調器と、群復調器を内蔵した複数の学習しきい素子と、前記複数の学習しきい素子の正弦波出力信号から複数のフーリエ級数信号を生成した後に、それらのフーリエ級数信号で群変調する群変調器と、群変調された信号で次の層への搬送波を変調する変調器とを有する
ことを特徴とする階層型ニューラル・ネットワーク・システム。
A hierarchical neural network system composed of learning threshold elements that operate using a Fourier series signal,
The first layer converts a signal input to the network into a sine wave signal, adds them to generate a plurality of Fourier series signals, and then performs group modulation on the group of the Fourier series signals, and group modulation. And a modulator for modulating the carrier wave to the second layer with the generated signal,
Each intermediate layer includes an input signal tuner and demodulator tuned to a carrier wave corresponding to each layer, a plurality of learning threshold elements incorporating a group demodulator, and a sine wave output of the plurality of learning threshold elements A group modulator that generates a plurality of Fourier series signals from a signal and then performs group modulation using the Fourier series signals, and a modulator that modulates a carrier wave to the next layer using the group-modulated signal. Hierarchical neural network system.
請求項1に記載の階層型ニューラル・ネットワーク・システムにおいて、
ネットワークの各層の素子への教師信号を正弦波信号に変換し、さらにそれらを加算して複数のフーリエ級数信号を生成した後に、それらのフーリエ級数信号で各層ごとに群変調する群変調器と、
前記群変調器の出力で各層に対応した搬送波を変調する変調器と、
各層ごとの対応する搬送波に同調した教師信号用同調器および復調器とを有し、
第2層以降を構成する前記学習しきい素子は、群変調に用いられた教師用の前記複数のフーリエ級数信号中から自己あての教師信号を含むフーリエ級数信号を群復調する群復調器を有する
ことを特徴とする階層型ニューラル・ネットワーク・システム。
The hierarchical neural network system according to claim 1, wherein
A group modulator that converts a teacher signal to each layer element of the network into a sine wave signal, adds them to generate a plurality of Fourier series signals, and then performs group modulation for each layer with those Fourier series signals;
A modulator that modulates a carrier wave corresponding to each layer with an output of the group modulator;
A teacher signal tuner and demodulator tuned to the corresponding carrier for each layer;
The learning threshold elements constituting the second and subsequent layers have a group demodulator that group-demodulates a Fourier series signal including a teacher signal addressed to itself among the plurality of Fourier series signals for teacher used for group modulation. A hierarchical neural network system characterized by this.
請求項に記載の階層型ニューラル・ネットワーク・システムにおいて、
前記第2層以降を構成する学習しきい素子は、入力総和計算部と、出力信号発生部と、教師信号計算部と、結合荷重メモリ部と、結合荷重修正部とを有し、
前記入力総和計算部、前記結合荷重メモリ部および前記結合荷重修正部は、内蔵された群複調器からの出力信号を処理できる
ことを特徴とする階層型ニューラル・ネットワーク・システム。
The hierarchical neural network system according to claim 2 ,
The learning threshold elements constituting the second and subsequent layers include an input summation calculation unit, an output signal generation unit, a teacher signal calculation unit, a combined load memory unit, and a combined load correction unit.
The hierarchical neural network system, wherein the input sum calculation unit, the joint load memory unit, and the joint load correction unit can process an output signal from a built-in group ditoner.
請求項1〜3のいずれかに記載の階層型ニューラル・ネットワーク・システムにおいて、
前記群復調器は、スーパヘテロダイン方式を取り入れていることを特徴とする階層型ニューラル・ネットワーク・システム。
The hierarchical neural network system according to any one of claims 1 to 3,
The group demodulator employs a superheterodyne system, and is a hierarchical neural network system.
JP2001067837A 2001-03-09 2001-03-09 Hierarchical neural network system Expired - Fee Related JP3758982B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001067837A JP3758982B2 (en) 2001-03-09 2001-03-09 Hierarchical neural network system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001067837A JP3758982B2 (en) 2001-03-09 2001-03-09 Hierarchical neural network system

Publications (2)

Publication Number Publication Date
JP2002269532A JP2002269532A (en) 2002-09-20
JP3758982B2 true JP3758982B2 (en) 2006-03-22

Family

ID=18926113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001067837A Expired - Fee Related JP3758982B2 (en) 2001-03-09 2001-03-09 Hierarchical neural network system

Country Status (1)

Country Link
JP (1) JP3758982B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230359880A1 (en) * 2021-06-15 2023-11-09 Fujikura Ltd. Optical computing device and optical computing method

Also Published As

Publication number Publication date
JP2002269532A (en) 2002-09-20

Similar Documents

Publication Publication Date Title
Ibnkahla Applications of neural networks to digital communications–a survey
Rabinowitz Periodic solutions of Hamiltonian systems: a survey
CN109189474A (en) Processing with Neural Network device and its method for executing vector adduction instruction
Patra et al. Nonlinear dynamic system identification using Legendre neural network
CN109032670A (en) Processing with Neural Network device and its method for executing vector duplicate instructions
JP2803237B2 (en) Data transmission method and device
CN110991623B (en) Neural network operation system based on digital-analog mixed neuron
Austin et al. The advanced uncertain reasoning architecture, AURA
JP3758982B2 (en) Hierarchical neural network system
Ochs et al. Towards wave digital modeling of neural pathways using two-port coupling networks
Marchesi et al. Multi-layer perceptrons with discrete weights
Amin et al. Complex-valued functional link network design by orthogonal least squares method for function approximation problems
Hattori et al. Episodic associative memories
Sudhakar et al. Efficient mapping of backpropagation algorithm onto a network of workstations
Li et al. A parallel algorithm for constructing two edge-disjoint hamiltonian cycles in locally twisted cubes
El-Amawy et al. Algorithmic mapping of feedforward neural networks onto multiple bus systems
Roche et al. Signalling techniques and their effect on neural network implementation sizes
Hong et al. Fast Automatic Circuit Optimization Using Deep Learning
McGinnity et al. Novel architecture and synapse design for hardware implementations of neural networks
El-Amawy et al. Optimal mapping of feedforward neural networks onto multiple bus architectures
JP2756170B2 (en) Neural network learning circuit
CN117474766A (en) Super-resolution model training method, super-resolution method and system
Yokoi A fundamental element for neural computer-Folthret
Malluhi et al. Tree-based special-purpose Array architectures for neural computing
Sibai et al. A time-multiplexed reconfigurable neuroprocessor

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051004

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20051007

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051227

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees