JPH06348674A - 演算素子結合網 - Google Patents

演算素子結合網

Info

Publication number
JPH06348674A
JPH06348674A JP5142060A JP14206093A JPH06348674A JP H06348674 A JPH06348674 A JP H06348674A JP 5142060 A JP5142060 A JP 5142060A JP 14206093 A JP14206093 A JP 14206093A JP H06348674 A JPH06348674 A JP H06348674A
Authority
JP
Japan
Prior art keywords
arithmetic
output
input
arithmetic element
elements
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5142060A
Other languages
English (en)
Other versions
JP3544685B2 (ja
Inventor
Shunichi Kubo
俊一 久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP14206093A priority Critical patent/JP3544685B2/ja
Priority to US08/260,384 priority patent/US5566102A/en
Publication of JPH06348674A publication Critical patent/JPH06348674A/ja
Application granted granted Critical
Publication of JP3544685B2 publication Critical patent/JP3544685B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Complex Calculations (AREA)

Abstract

(57)【要約】 【目的】 少数の演算素子を用いて所望の入出力関係を
実現できる演算素子結合網を提供すること。 【構成】 本発明では、一つまたは二つ以上の入力信号
に対して所定の演算を施す演算素子を複数有し、これら
演算素子を任意に結合し、当該結合した二つの演算素子
間においては一方の演算素子の出力値に所定の重み付け
係数を乗じた値を他方の演算素子への入力信号とする演
算素子結合網において、一つの入力信号に対して複数種
類の所定の演算を時分割的に施す第1の時分割型演算素
子、複数の入力信号に対して時分割的に同一の演算を施
す第2の時分割型演算素子または複数の入力信号の各々
に対する複数種類の所定の演算を時分割的に施す第3の
時分割型演算素子のうちの少なくとも一つを有すること
を特徴とする。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、演算素子結合網に関す
るものである。
【0002】
【従来の技術】現在、パタ―ン認識や制御等で必要とさ
れる所望の入出力関数を学習によって近似的に実現する
装置として、あるい連想記憶装置や最適化問題の近似解
を高速に得る手段として神経回路網が注目されている。
【0003】この学習とは、所定の入出力関係を備えた
神経細胞素子を結合した神経回路網が所望の入出力関係
を実現するように回路網の各パラメ―タを最適化して行
くことである。例えば、一般的な学習の手法としては、
学習デ―タとして与えていった特定の入力に対して、実
際の回路網の出力と所望の出力との誤差の自乗和が最小
になるように、全ての神経細胞素子間の結合の重み付け
係数を変更してゆくことが行われている。そして、この
学習を繰り返すことによって、神経回路網の入出力関係
は所望の入出力関係に近いものとなって行き、当該神経
回路網は関数近似装置としての役割を果たせるようにな
ってくる。
【0004】また、神経回路網を連想記憶装置あるいは
最適化問題等の近似解を求める手段として適用する場合
は、それらの問題において規定される評価関数を単調増
加の入出力特性を備えた神経細胞素子を用いた回路網の
構造に埋め込み、その関数の値が神経細胞素子の状態が
遷移する毎に単調に減少してゆくような状態遷移規則を
与えることにより、評価関数の極小解を求めるというの
が従来の一般的な手法であった。
【0005】(1)ここで、一つの入力情報に対する神
経回路網の出力を計算するためには、神経細胞素子が持
つ入出力関数による演算を複数回実行する必要がある
が、従来、これを演算素子を用いて構成する場合、図5
に示すように、各神経細胞素子における入出力関係φ
(x)は全て同一であるにもかかわらず上記演算回数と
同一の個数の神経細胞素子を設けていた。すなわち、こ
れは回路的に冗長な構成であり、ハ―ドウェア作製上の
不利益となっていた。
【0006】さらに、実現したい入出力関係が複雑であ
ったり、近似精度を高めようとすると、最終的に所望の
入出力関係を実現するために必要となる神経細胞素子の
数が増大せざるを得ず、これがハ―ドウェア作製上の問
題点となっていた。
【0007】(2)また、実現したい入出力関係が複雑
であったり、近似精度を高めようとすると、図5に示す
ように最終的に所望の入出力関係を実現するために必要
となる中間層神経細胞素子の数n1 ,n2 が増大し、そ
れに伴って、神経細胞素子間の結合の重み付け係数の数
が爆発的に増加するという事態を招くことが知られてい
る。
【0008】このことは、重み付け係数の値を保持する
メモリ―数の増大、さらにそれらの値を学習によって変
更するための信号線の数の増大、また、神経細胞素子の
出力との積を計算するための乗算回路の数の増加につな
がるという問題点を有していた。さらに、学習による変
分の計算量の増大が学習に要する時間を増大させるとい
う不都合もあった。
【0009】(3)一方、従来、神経回路網を、関数近
似装置、連想記憶装置あるいは最適化問題を解く手段と
して用いるいずれの場合でも、神経細胞素子に相当する
部分は差動増幅器等の単一の演算素子で構成され、その
入出力特性は演算素子の電気的特性で規定されたもので
あった。そして、一般的に良く用いられ、差動増幅器で
実現可能なシグモイド関数を入出力関数として用いた場
合、多くの問題に対して有効に機能することは理論的お
よび実験的に示されている。
【0010】しかし、所望の入出力特性を実現するため
の神経回路網においては、本来その神経細胞素子の入出
力特性は、従来のように画一的に規定されている必要は
なく、当該神経回路網に与えられた解決すべき問題に依
存して選択することによって、回路網全体の能力が向上
することが期待されるので、入出力特性を柔軟に変化さ
せられることが望まれていた。
【0011】一方、例えば図4に示すような神経回路網
(引用文献:Sprecher,D.A:”On the structure of co
ntinuous functions of several variables.”Transact
ionof The American Mathematical Society,115,340-35
5.(1965))では、特定の連続関数χ、単調増加連続関
数ψ、実定数λおよび正定数εを選択すれば、x1〜x
nを変数とする任意の多変数連続関数を表現することが
可能であることが知られている。この神経回路網に所望
の入出力関係を近似学習させるためには、神経細胞素子
の入出力関数に相当する連続関数χおよび単調増加連続
関数ψを学習する必要があるが、これら連続関数χおよ
び単調増加連続関数ψを学習することは極めて困難であ
るので、この種の神経回路網において学習すべきパラメ
―タの数を確定し(すなわちパラメ―タの数を有限に
し)、学習を容易にすることが望まれていた。
【0012】
【発明が解決しようとする課題】
(1)前述の神経回路網すなわち演算素子結合網では、
入出力関係が全て同一である神経細胞素子をすべて独立
の演算素子として設けていた。さらに、実現したい入出
力関係が複雑であったり、その近似精度を高めようとす
ると、必要な演算素子の数が増大する問題点があった。
そして、これらがハ―ドウェア作製上の問題点となって
いた。
【0013】本発明は、上記問題点に鑑みてなされたも
のであり、少数の演算素子を用いて所望の入出力関係を
実現できる演算素子結合網を提供することを目的とす
る。 (2)また、従来の演算素子結合網では、実現したい入
出力関係が複雑であったり、その近似精度を高めようと
すると、必要となる中間層神経細胞素子の数が増大し、
それに伴い重み付け係数の数が爆発的に増加し、これに
より、関連するメモリ―回路、信号線あるいは乗算回路
などのハ―ドウェアの増大につながるという問題点があ
り、加えて、学習に要する時間を増大させるという不都
合もあった。
【0014】本発明は、上記問題点に鑑みてなされたも
のであり、重み付け係数の値を保持するために必要なメ
モリ―数、それらの値を学習によって変更するための信
号線の数および学習による変分の計算量、さらに演算素
子の出力との積を計算するための乗算回路の数の削減さ
れた演算素子結合網を提供すること目的とする。
【0015】(3)さらに、所望の入出力特性を実現す
るための演算素子結合網においては、演算素子の入出力
特性は、当該演算素子結合網に与えられた解決すべき問
題に依存して入出力特性を柔軟に変化させられることが
望まれていた。
【0016】一方、前述の演算素子の所定の入出力関数
自体の学習が必要な演算素子結合網では、その関数の学
習が極めて困難であるという欠点があり、学習すべきパ
ラメ―タの数を確定して学習を容易にすることが望まれ
ていた。
【0017】本発明は、上記問題点に鑑みてなされたも
のであり、神経細胞素子の入出力特性を学習する演算素
子結合網であって、学習すべきパラメ―タの数を確定
し、さらに入出力特性を柔軟に変化させ、回路網全体の
近似能力の向上が可能にされた演算素子結合網を提供す
ることを目的とする。
【0018】
【課題を解決するための手段】前記課題を解決し目的を
達成するために、以下のような手段を講じた。 (1)本発明(請求項1)では、一つまたは二つ以上の
入力信号に対して所定の演算を施す演算素子を複数有
し、これら演算素子を任意に結合し、当該結合した二つ
の演算素子間においては一方の演算素子の出力値に所定
の重み付け係数を乗じた値を他方の演算素子への入力信
号とする演算素子結合網において、一つの入力信号に対
して複数種類の所定の演算を時分割的に施す第1の時分
割型演算素子、複数の入力信号に対して時分割的に同一
の演算を施す第2の時分割型演算素子または複数の入力
信号の各々に対する複数種類の所定の演算を時分割的に
施す第3の時分割型演算素子のうちの少なくとも一つを
有することを特徴とする。
【0019】好ましくは、前記第1の時分割型演算素子
を複数個設け、これらの後段に他の同一の演算素子を結
合し、この第1の時分割型演算素子の出力値にその当該
第1の時分割型演算素子の入力端子に依存した所定の重
み付け係数を乗じた値を前記同一演算素子への入力値と
しても良い。この場合、この第1の時分割型演算素子に
おける前記複数種類の所定の演算として、前記入力信号
に一定値の整数倍の異なるオフセット値を加算した数値
に同一の演算を施したものとしても良い。
【0020】また、前記第2の時分割型演算素子を複数
個設け、これらの後段に他の同一の演算素子を結合し、
当該第2の時分割型演算素子の出力値にその出力値の演
算に用いられた入力信号が入力された当該第2の時分割
型演算素子の入力端子に依存した所定の重み付け係数を
乗じた値を、前記別の演算素子への入力値としても良
い。
【0021】また、前記第3の時分割型演算素子の出力
値に、その出力値の演算に用いられた入力信号が入力さ
れた当該第3の時分割型演算素子の入力端子に依存した
所定の重み付け係数を乗じた値を、当該第3の時分割型
演算素子の後段に結合された演算素子への入力値として
も良い。この場合、この第3の時分割型演算素子におけ
る前記複数種類の所定の演算として、前記入力信号に一
定値の整数倍の異なるオフセット値を加算した数値に同
一の演算を施したものとしても良い。
【0022】(2)本発明(請求項2)では、複数の演
算素子を任意に結合し、結合した二つの演算素子間にお
いては一方の演算素子の出力値に所定の重み付け係数を
乗じた値を他方の演算素子への入力値とし、所定の学習
を繰り返すことにより前記重み付け係数を含む複数の変
数の値を逐次的に調整して所望の入出力関係を与える演
算素子結合網において、前記重み付け係数の総個数より
少ない個数のパラメータを有する所定の関数を用いて、
前記重み付け係数を生成するための重み付け係数生成手
段を備え、前記学習により調整する変数として、前記関
数のパラメータを用いることを特徴とする。
【0023】なお、前記演算素子結合網において、前記
重み付け係数のうちの少なくとも二つのが常に同じ値を
持つように構成しても良い。 (3)本発明(請求項3)では、一つまたは二つ以上の
入力信号に対して一つまたは二つ以上の所定の演算を施
し一つまたは二つ以上の出力信号を出力する演算素子が
複数有し、これらを任意に結合し、結合した二つの演算
素子間においては一方の演算素子の出力値に所定の重み
付け係数を乗じた値を他方の演算素子への入力信号とす
る演算素子結合網において、少なくとも一つの前記演算
素子は、複数の所定の多入力一出力演算素子の重み付き
線形結合により階層的に構成されるか、もしくは、複数
の所定の一入力一出力演算素子の重み付き線形結合によ
り階層的に構成されるか、もしくは、前記多入力一出力
演算素子および前記一入力一出力演算素子を任意に結合
し、結合した演算素子間においては一方の素子の出力値
に所定の重み付け係数を乗じた値を他方の素子への入力
信号とする演算素子の網状結合を用いて階層的に構成さ
れ、または、さらにこれらの階層構造を有限回繰り返し
て構成されたことを特徴とする。
【0024】ここで、上記解決手段において、さらに次
のような構成を採用しても良い。 (i )前記演算素子結合網において、同一階層に存在
し、各々がそれよりさらに下位の階層構造を持たず、一
つ上の階層における同一の演算素子を構成している複数
の演算素子の各々の入出力関係を表す関数として、複数
の変数を有する多変数関数であって、当該変数それぞれ
に定数を加え、それらを線形変換したものを新たな変数
のセットとし、当該新たな変数のセットに当該多変数関
数による演算を施して得られる関数値を定数倍すること
により特定の関数と同一の関数に変換される多変数関数
のうちのいずれか、または、一つの変数を有する一変数
関数であって、当該変数に定数を加え、それを定数倍し
たものを新たな変数とし、当該新たな変数に当該一変数
関数による演算を施して得られる関数値を定数倍するこ
とにより特定の関数と同一の関数に変換される一変数関
数のうちのいずれかを用いても良い。あるいは、 (ii)前記演算素子結合網において、それよりさらに下
位の階層構造を持たない全ての演算素子の各々の入出力
関係を表す関数として、複数の変数を有する多変数関数
であって、当該変数それぞれに定数を加え、それらを線
形変換したものを新たな変数のセットとし、当該新たな
変数のセットに当該多変数関数による演算を施して得ら
れる関数値を定数倍することにより特定の関数と同一の
関数に変換される多変数関数のうちのいずれか、また
は、一つの変数を有する一変数関数であって、当該変数
に定数を加え、それを定数倍したものを新たな変数と
し、当該新たな変数に当該一変数関数による演算を施し
て得られる関数値を定数倍することにより特定の関数と
同一の関数に変換される一変数関数のうちのいずれかを
用いても良い。
【0025】また、上記(i )および(ii)の場合、さ
らに次のような構成を採用しても良い。 (iii )前記演算素子結合網において、階層構造を有す
る演算素子の全てまたは一部が、一つの入力信号または
二つ以上の入力信号の総和に対し一つの出力値を出力す
る演算素子であり、全てまたは一部の前記演算素子の一
つの入力信号または二つ以上の入力信号の総和に対する
出力を決める所定の入出力関係として、複数の所定の入
出力関係を備えた一入力一出力素子の重み付き線形結合
を用いて階層的に構成するか、あるいは、さらにこの階
層構造を有限回繰り返して構成しても良い。あるいは、 (iv)前記演算素子結合網において、階層構造を有する
演算素子の全てまたは一部が、全ての出力値が一つまた
は二つ以上の前記入力信号のうちの一つの入力信号のみ
の関数値とする演算素子であり、全てまたは一部の前記
一入力一出力の所定の入出力関係を、複数の所定の入出
力関係を備えた一入力一出力素子の重み付き線形結合を
用いて階層的に構成するか、あるいは、さらにこの階層
構造を有限回繰り返して構成しても良い。
【0026】また、上記(ii)の場合、さらに次のよう
な構成を採用しても良い。 (v )前記演算素子結合網において、それよりさらに下
位の階層構造を持たない全ての演算素子が、一つの入力
信号または二つ以上の入力信号の総和に対して、所定の
入出力関係に従った一つの出力値を出力する演算素子で
あり、前記演算素子の一つの入力信号または二つ以上の
入力信号の総和に対する出力を決める所定の入出力関係
として、一つの変数を有する一変数関数であって、当該
変数に定数を加え、それを定数倍したものを新たな変数
とし、当該新たな変数に当該一変数関数による演算を施
して得られる関数値を定数倍することにより特定の関数
と同一の関数に変換される一変数関数のうちのいずれか
を用いても良い。
【0027】さらに、上記(i ),(ii),(iii ),
(iv),(v )の場合、次のような構成を採用しても良
い。 (vi)前記所定の入出力関係を表現する一変数関数とし
て、その変数に定数を加え、それを定数倍したものを新
たな変数とし、当該新たな変数に当該一変数関数による
演算を施して得られる関数値を定数倍することにより
(1+exp(−x))-1と同一の関数に変換される一変数関
数のうちのいずれかを用いても良い。
【0028】(vii )前記所定の入出力関係を表現する
一変数関数として、その変数に定数を加え、それを定数
倍したものを新たな変数とし、当該新たな変数に当該一
変数関数による演算を施して得られる関数値を定数倍す
ることにより exp(−x2 )と同一の関数に変換される
一変数関数のうちのいずれかを用いても良い。
【0029】あるいは、上記(i )または(ii)の場
合、次のような構成を採用しても良い。 (viii)前記所定の入出力関係を表現する多変数関数と
して、当該変数それぞれに定数を加え、それらを線形変
換したものを新たな変数のセットとし、当該新たな変数
のセットに当該多変数関数による演算を施して得られる
関数値を定数倍することにより、数式(1)
【0030】
【数1】 と同一の関数に変換される多変数関数のうちのいずれか
用いても良い。
【0031】
【作用】上記手段を講じた結果、次のような作用が生じ
る。 (1)本発明(請求項1)の演算素子結合網では、前記
時分割演算素子が複数の演算を時分割的に実行し、それ
らの出力値を順次時系列的に出力する。
【0032】従って、従来の複数の演算素子を1つの時
分割演算素子を用いて構成することができるので、所望
の入出力関係を近似する能力を保持したまま、演算素子
結合網を構成する全演算素子の数を大幅に削減すること
が可能となる。
【0033】(2)本発明(請求項2)の演算素子結合
網では、前記重み付け係数生成手段は、重み付け係数の
全個数より少ない個数のパラメ―タによる関数を用いて
各々の重み付け係数を生成する。そして、前記学習にお
いては、前記重み付け係数を学習するのではなく、前記
パラメータを学習し、前記重み付け係数生成手段がこの
パラメータを用いて前記重み付け係数を生成する。
【0034】これにより、前記重み付け係数の代わりに
それより少ない個数の前記パラメータを扱えば良いの
で、重み付け係数の値を保持するために必要なメモリ―
数、それらの値を学習によって変更するための信号線の
数および学習による変分の計算量は、それぞれ全ての重
み付け係数の個数より少ない個数のパラメ―タに対応す
るだけあれば良いことになり、それらの削減が可能とな
る。同時に、学習に要する時間を短縮することが可能と
なる。
【0035】(3)本発明(請求項3)の演算素子結合
網では、複数の所定の入出力特性を有する演算素子を結
合させて構成した回路が、上位の1つの演算素子として
働く。
【0036】これにより、上位の演算素子の入出力特性
を既存の素子を用いて少ないパラメータで柔軟に変化さ
せられることにより、神経回路網全体の能力を向上させ
ることができる。また、演算素子の入出力特性が不明で
あるときに、演算素子の入出力特性を学習させたい場合
に学習すべきパラメ―タの数を確定することが可能とな
る。
【0037】
【実施例】以下、図面を参照しながら実施例を説明す
る。 (1)<第1の実施例> 本発明の第1の実施例に係る演算素子結合網について説
明する。
【0038】本発明はより少数の演算素子で所望の演算
素子結合網を構成するものである。ここでは、まず、よ
り少数の演算素子を用いて図4に示される従来の演算素
子結合網と同一の入出力特性を提供することが可能な演
算素子結合網について説明する。図1は、そのような演
算素子結合網の一例を示す図である。
【0039】初めに、図1の演算素子結合網が提供すべ
き図4の演算素子結合網の入出力特性に関して説明す
る。この図4の演算素子結合網は、n本の入力信号x1
〜xnをそのままの2n+1個の出力とする入力素子P
01〜P0n、その後段に結合されたn×(2n+1)
個の第1中間層演算素子P11−0〜P11−2n,P
12−0〜P12−2n,…,P1n−0〜P1n−2
n、この第1中間層演算素子のそれぞれの後段に接続さ
れた重み付け係数を乗ずるための乗算器(図示せず)、
この乗算器を介して前記第1中間層演算素子と結合され
ている2n+1個の第2中間層演算素子P20〜P2
(2n)、これら第2中間層演算素子の全ての入力の和
を出力する出力素子P30により構成される。この第1
中間層演算素子P1i−j(i=1〜n,j=0〜2
n)は、入出力特性がψ(x+j×ε)で表現される素
子であり、第1中間層演算素子P1i−jからの出力
は、図4に示すように、各乗算器(図示せず)によりパ
ラメ―タλのi乗の値が乗ぜられ、その値が第2中間層
演算素子P2jへの入力として伝えられる。また、第2
中間層演算胞素子P2jは、第1中間層演算素子からの
入力の全ての和Xにたいして、入出力特性χ(X+j)
の演算結果を出力する素子である。このような演算過程
を経た最終的な出力信号は、入力信号x1〜xnに対し
て、数式(2)のように表現されることになる。
【0040】
【数2】
【0041】なお、前述したように、この表現形式は、
特定の、連続関数χ、単調増加連続関数ψ、実定数λ、
正定数εを選択すれば、x1〜xnを変数とする任意の
多変数連続関数を表現可能であることが知られている。
また、この図4の演算素子結合網では、第1および第2
中間層演算素子の個数はそれぞれn×(2n+1)個お
よび2n+1個づつ必要であった。
【0042】次に、図1の本実施例に係る演算素子結合
網について説明する。この演算素子結合網は、それぞれ
入力信号x1〜xnをそのまま出力とする入力素子A0
1〜A0n、その後段に結合されたn個の第1中間層演
算素子A11〜A1n、この第1中間層演算素子のそれ
ぞれの後段に接続されたn個の乗算器(図示せず)、こ
の乗算器を介して前記第1中間層演算素子と結合されて
いる第2中間層演算素子A20、その後段に結合された
出力素子A30、および前記第2中間層演算素子A30
に後述するような出力を与える出力素子A40により構
成される。
【0043】第1中間層演算素子A1iは、それぞれ、
入力Xi (i=1,…,n)に対して2n+1個の出力
値ψ(xi +j×ε),(j=0,…,2n)を時系列
的に順次出力する時分割演算素子であり、各第1中間層
演算素子ごとのjの値は各時刻で一致するように同期を
とる。
【0044】出力素子A40は、第1中間層演算素子A
11〜A1nとjに関して同期を取ってjの値を出力す
る素子である。第2中間層演算素子A20は、各時刻に
おける全入力の和Xにたいして、入出力特性χ(X)の
演算結果を出力する素子である。
【0045】出力素子A30は、第2中間層演算素子か
ら時系列的に(2n+1回に分けて)入力される出力を
全て加算して出力する素子である。乗算器は、第1中間
層演算素子A1iの出力に重み付け係数λi を乗ずるた
めの素子である。ここで、図1の第1中間層演算胞素子
と第2中間層演算素子とを結合する線の横に乗算を意味
する×とともに示されている記号λないしλn は、この
乗算器により乗ぜられる重み付け係数の値を示す。な
お、以下の説明で参照される他の図の1つの素子と他の
素子とを結合する線の横に乗算を意味するxとともに示
されている記号は、図示しない乗算器により乗ぜられる
重み付け係数の値を示すものとする。
【0046】次に、図1の演算素子結合網の動作につい
て説明する。まず、j=0として、各第1中間層演算素
子A1iからはそれぞれψ(xi +εj)が同時に出力
され、これらに重み付け係数λi が各乗算器により乗ぜ
られ、それぞれλi ψ(xi +εj)として第2中間層
演算素子A20へ送られる。一方、これに同期して、同
期素子A40からも出力値jが第2中間層演算素子A2
0に与えられる。
【0047】第2中間層演算素子20は、それら全ての
入力信号の和を入力xとしてχ(x)を演算して出力す
る。この出力は、出力素子A30に与えられる。同様に
して、j=1からj=2nについて、以上の動作を順次
繰り返す。
【0048】その結果、出力素子30には、第2中間層
演算素子A20からのj=0からj=2nにそれぞれ対
応する2n+1個の出力が時分割的に入力される。出力
素子30はこれらを全て加算して出力する。
【0049】このようにして得られる出力値は、前述し
た図4の場合と全く同一である。すなわち、本実施例の
ように時分割演算素子を用いることにより効果的に演算
素子の数を削減することができる。図4との対比では、
回路網に所望の入出力関係を保たせたまま第1および第
2中間層演算素子の数を、それぞれ、n×(2n+1)
個からn個、2n+1個から1個へと削減することが可
能となる。また、重み付け係数の値を第1中間層演算素
子の出力に乗ずるためにn×(2n+1)個必要であっ
た乗算回路もn個で済むことになる。
【0050】加えて、本実施例に用いる時分割演算素子
が実行する複数の演算は、入力値に数値j×εを加えた
ものを変数とした後は全く同一の演算を施すものであ
り、簡単な回路で実現できる利点がある。
【0051】なお、図4との対比で記した図1の入力素
子A01〜A0nは入力信号をそのまま出力するので実
際には不要である。ここで、本実施例の説明では、図4
の演算素子結合網に本発明を適用した場合を例にとって
説明したが、もちろん、本発明は他の一般的な演算素子
結合網においても同様に適用できる。
【0052】<第2の実施例>本発明の第2の実施例に
係る演算素子結合網について説明する。図2は、本実施
例に係る演算素子結合網を示す図である。この演算素子
結合網は、入力素子B01〜B0n、2n+1個の第1
中間層演算素子B10〜B1(2n)、乗算器(図示せ
ず)、第2中間層演算素子B20、出力素子B30およ
び出力素子B40により構成される。
【0053】入力素子B01〜B0nは、それぞれ入力
信号x1〜xnをそのままの形の2n+1個の出力とす
る素子である。各第1中間層演算素子B1j(j=0,
…,2n)は、それぞれが入力xi (i=1〜n)をす
べて入力し、各入力xi に対する出力値ψ(xi +j×
ε)を同時に出力する演算素子あるいは時系列的に順次
出力する時分割演算素子である。ここでは、後述するよ
うに、第1中間層演算素子B1jは排他的に出力動作さ
せる。
【0054】出力素子B40は、出力している第1中間
層演算素子B1jに関する値jを出力する素子である。
第2中間層演算素子B20は、すべての入力の和Xにた
いして、入出力特性χ(X)の演算結果を出力する素子
である。
【0055】出力素子B30は、第2中間層演算素子か
ら時系列的に(2n+1回に分けて)入力される出力を
全て加算して出力する素子である。乗算器は、第1中間
層演算素子B1jの出力に重み付け係数λi を乗ずるた
めの素子である。すなわち、本実施例では、重み付け係
数は、当該出力に関連する入力xi (i=1〜n)の入
力位置(入力端子)に従って決定される。
【0056】次に、図2の演算素子結合網の動作につい
て説明する。まず、j=0として、第1中間層演算素子
B1jからψ(xi +εj)が同時にあるいは時系列的
に出力され、これらに重み付け係数λi が各乗算器によ
り乗ぜられ、それぞれλi ψ(xi +εj)として第2
中間層演算素子B20へ送られる。一方、これに同期す
るように、同期素子B40からも出力値jが第2中間層
演算素子B20に与えられる。
【0057】第2中間層演算素子20は、それら全ての
入力信号の和を入力xとしてχ(x)を演算して出力す
る。この出力は、出力素子B30に与えられる。同様に
して、j=1からj=2nについて、以上の動作を順次
繰り返す。
【0058】その結果、出力素子30には、第2中間層
演算素子B20からのj=0からj=2nにそれぞれ対
応する2n+1個の出力が、2n+1回に分けて時分割
的に入力される。出力素子30はこれらを全て加算して
出力する。
【0059】このようにして得られる出力値は、前述し
た図4の場合と全く同一である。すなわち、本実施例の
ように時分割演算素子を用いることにより効果的に演算
素子の数を削減することができる。図4との対比では、
回路網に所望の入出力関係を保たせたまま第1および第
2中間層演算素子の数を、それぞれ、n×(2n+1)
個から2n+1個、2n+1個から1個へと削減するこ
とが可能となる。さらに、重み付け係数の値を第1中間
層演算素子の出力に乗ずるためにn×(2n+1)個必
要だった乗算回路もn個で済む。また、各第1中間層演
算素子B1jがn個の出力値を順次時系列的に出力する
ならば、乗算回路も時分割的に動作させることにより、
この乗算回路はさらに節約でき1個で済むことになる。
【0060】加えて、本実施例に用いる時分割演算素子
は異なる入力値に対して全く同一の演算を施すものであ
り、極めて簡単な回路で実現できる利点がある。ここ
で、本実施例の説明では、図4の演算素子結合網に本発
明を適用した場合を例にとって説明したが、もちろん、
本発明は他の一般的な演算素子結合網においても同様に
適用できる。
【0061】<第3の実施例>本発明の第3の実施例に
係る演算素子結合網について説明する。図3は、本実施
例に係る演算素子結合網を示す図である。この演算素子
結合網は、入力素子C01〜C0n、第1中間層演算素
子C10、乗算器(図示せず)、第2中間層演算素子C
20、出力素子C30および出力素子C40により構成
される。
【0062】入力素子C01〜C0nは、それぞれ入力
信号x1〜xnをそのまま出力とする素子である。第1
中間層演算素子C10は、入力素子C01〜C0nから
の入力信号x1からxnに対してn×(2n+1)個の
出力値ψ(xi +j×ε),(i=1〜n,j=0〜2
n)をjの若い番号から順にi=1からnまでの出力を
1セットとして、順次出力する素子である。ここで、同
一のjに対するi=1からnまでの1セット(n個)の
出力は同時並列的に出力しても良いし、順次時系列的に
出力しても良い。
【0063】出力素子C40は、第1中間層演算素子C
10が、あるjに対するn個の出力にそれぞれ重み付け
係数を乗じて第2中間層演算素子C20に送っている時
と同時にjの値を出力し第2中間層演算素子C20に送
っている素子である。
【0064】第2中間層演算素子C20は、各j毎に、
第1中間層演算素子C10のn個の出力にそれぞれ重み
付け係数を乗じた値と出力素子C40の出力とからなる
すべての入力の和Xにたいして、入出力特性χ(X)の
演算結果を出力する素子である。
【0065】出力素子C30は、第2中間層演算素子か
ら各j毎に順次入力される2n+1個の出力を全て加算
して出力する素子である。乗算器は、第1中間層演算素
子C10の出力に重み付け係数λi を乗ずるための素子
である。すなわち、本実施例では、重み付け係数は、当
該出力に関連する入力xi (i=1〜n)の入力位置
(入力端子)に従って決定される。
【0066】次に、図3の演算素子結合網の動作につい
て説明する。まず、j=0として、第1中間層演算素子
C10からψ(xi +εj),(i=1〜n)が同時に
あるいは時系列的に出力され、これらに重み付け係数λ
i が乗算器により乗ぜられ、それぞれλi ψ(xi +ε
j)として第2中間層演算素子C20へ送られる。この
とき、同期素子C40からも出力値jが第2中間層演算
素子C20に与えられる。
【0067】第2中間層演算素子20は、それら全ての
入力信号の和を入力xとしてχ(x)を演算して出力す
る。この出力は、出力素子C30に与えられる。同様に
して、j=1からi=2nについて、以上の動作を順次
繰り返す。
【0068】その結果、出力素子30には、第2中間層
演算素子B20からのj=0からj=2nにそれぞれ対
応する出力が、2n+1回に分けて時分割的に入力され
る。出力素子30はこれらを全て加算して出力する。
【0069】このようにして得られる出力値は、前述し
た図4の場合と全く同一である。すなわち、本実施例の
ように時分割演算素子を用いることにより効果的に演算
素子の数を削減することができる。図4との対比では、
回路網に所望の入出力関係を保たせたまま第1および第
2中間層演算素子の数を、それぞれ、n×(2n+1)
個から1個、2n+1個から1個へと大幅に削減するこ
とが可能となる。さらに、重み付け係数の値を第1中間
層演算素子の出力に乗ずるためにn×(2n+1)個必
要だった乗算回路もn個で済む。また、各第1中間層演
算素子C10が各時刻フェーズjごとの1セットすなわ
ちn個の出力値を順次時系列的に出力するならば、乗算
回路も時分割的に動作させることにより、この乗算回路
はさらに節約でき1個で済むことになる。
【0070】なお、図4との対比で記した図3の入力素
子C01〜C0nは入力信号をそのまま出力するので実
際には不要である。ここで、本実施例の説明では、図4
の演算素子結合網に本発明を適用した場合を例にとって
説明したが、もちろん、本発明は他の一般的な演算素子
結合網においても同様に適用できる。
【0071】(2)<第4の実施例> 本発明の第4の実施例に係る演算素子結合網について説
明する。図6は、本実施例に係る演算素子結合網を示す
図である。この演算素子結合網は、入力素子D01〜D
0n、第1中間層演算素子D11〜D1n1 、第2中間
層演算素子D21〜D2n2 、出力素子D30、各素子
間に連結され前段の素子の出力に重み付け係数を乗ずる
ための(n×n1 +n1 ×n2 +n2 )個の乗算器(図
示せず)、および重み付け係数生成手段(図示せず)か
ら構成される。すなわち、重み付け係数生成手段を設け
た以外は、一般的な演算素子結合網の構成をなしてい
る。
【0072】この重み付け係数生成手段は、本実施例に
係る演算素子結合網に含まれる重み付け係数の総個数す
なわち乗算器の総個数より少ない個数のパラメータを有
する所定の関数を用いて、それら重み付け係数をすべて
生成するための手段である。例えば、図6の2つの演算
素子A,B間の重み付け係数を、2つの演算素子に固有
なパラメ―タと、全ての重み付け係数の個数より少ない
個数のパラメ―タの関数により生成する。具体的には、
例えば、wA,B =α×nA,B +βである場合や、wA,B
=δ×n A,B +ζである場合などである。
【0073】ここで、nA,B は二つの演算素子A,Bの
組み合わせに固有なパラメ―タであり、α,β,γ,δ
およびζは学習すべき回路網パラメ―タである。この場
合、学習においては、前記重み付け係数を学習するので
はなく、前記パラメータαおよびβあるいはγ,δおよ
びζを学習し、前記重み付け係数生成手段がこのパラメ
ータを用いて前記重み付け係数を生成する。
【0074】このように、重み付け係数に所定の制約を
与え、前記重み付け係数生成手段を設けることにより、
重み付け係数のために必要なパラメータを保持するメモ
リ―数、それらの値を学習によって変更するための信号
線の数を効果的に削減することが可能となる。
【0075】一方、学習すべきパラメータ数が大幅に削
減されるので、学習による変分の計算量も大幅に削減で
きることが期待される。従って、高速に学習を実行する
ことができる。
【0076】<第5の実施例>本発明の第5の実施例に
係る演算素子結合網について説明する。なお、本実施例
に係る演算素子結合網の構成は、図4の演算素子結合網
に後述する重み付け係数生成手段を付加したものであ
り、簡略化のために図面については省略する。また、こ
の重み付け係数生成手段に関する構成および動作以外
は、前述した図4の演算素子結合網と同一であり、簡略
化のために詳細な説明は省略する。
【0077】この重み付け係数生成手段は、本実施例に
係る演算素子結合網に含まれる重み付け係数の総個数よ
り少ない個数のパラメータを有する所定の関数を用い
て、それら重み付け係数をすべて生成するための手段で
ある。
【0078】そして、学習においては、前記重み付け係
数を学習するのではなく、前記パラメータを学習し、前
記重み付け係数生成手段がこのパラメータを用いて前記
重み付け係数を生成する。
【0079】上記のような回路網構成を採用した場合、
図4の前記第1中間層演算素子P1i−jから前記第2
中間層演算素子P2jへの重み付け係数は全て1つのパ
ラメ―タλのべき乗の値であり、入力素子01〜0nか
ら前記第1中間層演算素子P1i−jへの重み付け係数
および前記第2中間層演算素子P2jから前記出力素子
P30への重み付け係数は全て1であるので、全ての重
み付け係数の値を間接的に保持するために必要なメモリ
―数およびそれらの値を学習によって変更するための信
号線の数は各々1つにまで削減させる。
【0080】この場合、重み付け係数の値を直接保持す
るためにλのべき乗の値それぞれに対してメモリ―を用
意したとしても、メモリ―数は高々n個で済む。さら
に、第1中間層演算素子P1i−jから第2中間層演算
素子P2jへの2n+1個の重み付け係数の値は全て同
じ値λi であるため、第1中間層演算素子の出力との積
を計算するための乗算回路は、同一値をとる重み付け係
数に対しては共用して用いれば、λ1 からλn に対応し
て全部でn個ですむことになる。
【0081】一方、学習すべきパラメータ数が大幅に削
減されるので、学習による変分の計算量も大幅に削減で
きることが期待される。従って、高速に学習を実行する
ことができる。
【0082】本実施例の変形例として、上記演算素子結
合網において、第1中間層演算素子から第2中間層演算
素子への重み付け係数を表現するパラメ―タλが、1に
非常に近い場合はλ=1+α(α《1)となるので、λ
i ≒1+i×αとなり、全ての重み付け係数を間接的あ
るいは直接的に保持するためには、αあるいはαの1倍
からn倍までの倍数値を記憶するメモリ―があれば良
く、上記と同様の効果が期待できる上、さらにメモリ―
の精度を落とすことも可能となる。
【0083】(3)<第6の実施例> 本発明の第6の実施例に係る演算素子結合網について説
明する。本発明の演算素子結合網は、前述した図4の演
算素子結合網を構成する各演算素子をさらに複数の演算
素子で構成するものである。従って、そのような複数の
演算素子により構成される演算素子を1つの上位レベル
での1つの演算素子とすれば、本発明の演算素子結合網
をそのような階層構造の上位レベルで表すと、図4と同
一の構成になる。なお、図4の演算素子結合網の構成に
ついては、前述したのでここでは省略する。
【0084】ここで、前述のように、図4の第2中間層
演算素子P2jからの出力は全てそのまま出力素子P3
0に伝えられそこで全ての入力の和がとられ出力され
る。このような演算過程を経た最終的な出力信号は、入
力信号x1〜xnに対して、前述した数式(2)で表現
されることになる。
【0085】
【数3】
【0086】ここで、関数χは連続関数、関数ψは単調
増加連続関数、定数λは実定数、定数εは正定数であ
る。この回路網に特定の多入力一出力の入出力関係を最
急降下法等の学習によって近似表現させるためには、上
記の連続関数χ、単調増加連続関数ψ、に対する学習パ
ラメ―タを定める必要があり、本実施例においては上記
2関数を、それぞれ次に示す数式(3)および(4)と
変数をシフトおよびスケ―リングした所定の一変数関数
の重み付き線形和で近似する。
【0087】
【数4】
【0088】
【数5】
【0089】ここで、a1 〜aN ,b1 〜bN ,c1
N ,e1 〜eM ,f1 〜fM およびg1 〜gM は、各
演算素子E1〜ENおよびF1〜FMの入出力関係を調
整するためのパラメ―タである。
【0090】この所定の一変数関数としては、例えば、
シグモイド関数(1+exp(−x))-1や、ガウシアン関数
exp(−x2 )などを用いれば好ましい。次に、そのよ
うな入出力関係を有する演算素子の具体例を図7および
図8に示す。
【0091】1つの第1中間層演算素子を構成する図7
の演算素子結合網E100は、φ(ai x+bi ) を実
行するN個の演算素子Ei(i=1〜N)と、それらの
後段にそれぞれ接続され、演算素子Eiの出力にCiを
乗ずるための乗算器(図示せず)と、これらの出力をす
べて加算して出力する出力素子(図示せず)により構成
される。
【0092】また、1つの第2中間層演算素子を構成す
る図8の演算素子結合網F200は、入力yi の総和z
を出力する入力素子F0と、φ(ei z+fi )を実行
するM個の演算素子Fi(i=1〜M)と、それらの後
段にそれぞれ接続され、演算素子Fiの出力にgiを乗
ずるための乗算器(図示せず)と、これらの出力をすべ
て加算して出力する出力素子(図示せず)により構成さ
れる。
【0093】このように、上記ψおよびχの入出力特性
を担う第1および第2中間層演算素子を、図7および図
8に示すようにそれぞれψおよびχにおける線形和に対
応するN個およびM個の一入力一出力演算素子の重み付
き線形和で近似して階層的に構成すれば、本来無限自由
度を持つ関数の自由度をそれぞれ3×N、3×Mの有限
値に落とすことが可能となる。
【0094】このことによって、上記の回路網において
自由度を持つパラメ―タの数を、実定数λおよび正定数
εと併せて、3×N+3×M+2個と有限に抑えること
が可能となり、この回路網に最急降下法等の学習アルゴ
リズムを適用することができ、階層構造を構成する演算
素子の入出力特性とその数を適当に選べば、与えられた
多変数関数の近似学習が可能となる。
【0095】また、与えられた多変数関数と要求される
近似精度によっては、N、Mを小さく取ることができ、
回路網全体のパラメ―タ数を、図11に示すような従来
の層状演算素子結合網より削減することが可能となる。
【0096】さらに、本発明によって、回路網全体で使
用する中間層演算素子を全て同一構造の素子で構成する
ことが可能となり、ハ―ドウェア作製上の利点となる。
また、上記の階層構造を構成する図7の演算素子E1〜
EN、図8の演算素子F1〜FMの一部または全てを、
上記と別種の同一構造の演算素子の重み付き線形和や、
上記と同種の同一構造の演算素子の結合網でさらに階層
的に構成することによって、中間層演算素子の入出力関
係表現能力の適応力を向上し、回路網全体の関数近似能
力を高めても良い。
【0097】<第7の実施例>本発明の第7の実施例に
係る演算素子結合網について説明する。ここで、前述し
た図7の演算素子E100あるいは図8の演算素子F2
00のように1つの(上位レベルの)演算素子を構成す
るために複数の(下位レベルの)演算素子を用いる階層
構造は、他の一般的な演算素子結合網においても適用す
ることが可能である。第6の実施例では、上位レベルの
演算素子を構成するために、一入力一出力演算素子を用
いたが、本実施例では、多入力一出力演算素子を用いて
構成した一般的な演算素子結合網に関して説明する。
【0098】1つの(上位レベルの)演算素子を構成す
る図9の演算素子G300は、入力ui (i=1〜n)
に対してf(u1 +h1j,u2 +h2j,…,un
nj) を実行するL個の演算素子Gj(j=1〜L)
と、入力xi (i=1〜n)に重み付け係数dijを乗じ
て各演算素子Gjに与えるための乗算器(図示せず)
と、演算素子Gjの後段にそれぞれ接続されこの演算素
子Gjの出力にkj を乗ずるための乗算器(図示せず)
と、これら乗算器の出力をすべて加算して出力する出力
素子(図示せず)により構成される。ここで、hij(i
=1〜n)は定数のセットである。その結果、この演算
素子G300は、次の数式(5)で表されるような入出
力特性を与える。
【0099】
【数6】
【0100】この演算素子G300を用いて演算素子結
合網を構成した場合、演算素子G300の階層構造を形
成する演算素子間の重み付け係数dij,kj やhijも、
回路網全体のパラメ―タの一部とみなせば、従来同様に
最急降下法等の学習アルゴリズムが適用可能で、所望の
入出力関数の近似学習ができることになる。
【0101】従って、ハードウェア上実現しやすい入出
力特性を有する演算素子を複数結合して演算素子結合網
を構成することにより、従来の層状演算素子結合網のよ
うに同一の非線形素子を層状に並べていった回路網よ
り、学習速度あるいは近似能力を向上させることが期待
できる。この点に関しては、図7の演算素子E100お
よび図8の演算素子F200についても同様のことが言
える。
【0102】<第8の実施例>本発明の第8の実施例に
係る演算素子結合網について説明する。図7、図8ある
いは図9の演算素子は、一入力一出力素子あるいは多入
力一出力素子の重み付き線形結合により構成したが、本
実施例では、上位レベルの演算素子を、前記多入力一出
力演算素子および前記一入力一出力演算素子を任意に結
合し、結合した演算素子間においては一方の素子の出力
値に所定の重み付け係数を乗じた値を他方の素子への入
力信号とする演算素子の網状結合を用いて階層的に構成
するものである。
【0103】図10は、そのような演算素子を用いて構
成した本実施例の演算素子結合網を示す図である。この
n入力m出力の層状の演算素子結合網は、入力素子H0
1〜H0n、第1中間層演算素子H11〜H1n1 、第
2中間層演算素子H21〜H1n2 、出力素子H31〜
H3mにより構成される。また、n入力1出力素子であ
る第1中間層演算素子H11は下位レベルの演算素子H
111〜H116により構成され、n1 入力2出力素子
である第2中間層演算素子H22は下位レベルの演算素
子H221〜H224により構成される。ここでは、そ
の他の第1および第2中間層演算素子と演算素子H11
1〜H116,H221〜H224は最下層の演算素子
であり、それ以上の階層構造はないものとする。
【0104】ここで、上記の階層構造を構成する演算素
子H111〜H116、H221〜H224は、残りの
中間層演算素子H12〜H1n1 、H21、H23〜H
2n2 と同一構造の素子、例えば有界で単調なシグモイ
ド関数の入出力特性を持った素子であるとする。
【0105】図10の回路網は、中間層演算素子H1
1、H22の階層構造を形成する演算素子結合網の演算
素子間の重み付け係数も、回路網全体のパラメ―タの一
部とみなせば、従来同様に最急降下法等の学習アルゴリ
ズムが適用可能で、所望の入出力関数の近似学習ができ
ることになる。
【0106】さらに、従来と同様に回路網全体では同一
構造の演算素子しか用いないにもかかわらず、中間層演
算素子H11、H22の入出力特性は、他の中間層演算
素子のそれとは、一般に異なったものとなっており、図
10の回路網全体で実現したい入出力関係によっては、
図11のような従来の層状演算素子結合網のように同一
の非線形素子を層状に並べていった回路網より、学習速
度あるいは近似能力を向上させることができる。
【0107】また、階層構造を構成する演算素子H11
1〜H116、H221〜H224の一部または全て
を、さらに上記と同一あるいは別種の構造の素子からな
る演算素子結合網で階層的に構成することによって、中
間層演算素子H11、H22の入出力関係表現能力の適
応力をさらに向上し、回路網全体の関数近似能力を高め
ても良い。
【0108】いずれにしても、回路網全体では同一構造
の演算素子しか用いない場合は、ハードウェア作製上の
観点からも非常に有益である。このように、本発明の要
旨は、従来の演算素子に階層構造を持たせることによ
り、演算素子の入出力特性を学習させたい場合に、学習
すべきパラメ―タの数を確定し、さらに演算素子の入出
力特性を既存の素子のみを用いても柔軟に変化させるこ
とを可能にすることであり、相互結合型神経回路網等の
他の演算素子結合網にも適用可能であり、上記実施例に
限定されるものではない。
【0109】以上、各発明に係る各実施例について説明
してきたが、各発明は上述した各実施例に限定されるも
のではなく、その要旨を逸脱しない範囲で、種々変形し
て実施することができる。
【0110】
【発明の効果】以上述べたように、本発明によれば下記
のような効果が期待できる。 (1)本発明(請求項1)の演算素子結合網では、複数
の演算を次分割的に実行し、それらの出力値を順次時系
列的に出力する時分割演算素子を設けた。
【0111】これにより、従来の複数の演算素子を用い
て構成していた部分を1つの時分割演算素子を用いて構
成することができるので、所望の入出力関係を近似する
能力を保持したまま、演算素子結合網を構成する全演算
素子の数を大幅に削減することが可能となる。
【0112】(2)本発明(請求項2)の演算素子結合
網では、演算素子間の全ての重み付け係数の値がそれら
の個数より少ない個数パラメ―タの関数を用いて生成さ
れることにより、重み付け係数の値を保持するために必
要なメモリ―数、それらの値を学習によって変更するた
めの信号線の数および学習による変分の計算量を大幅に
削減することが可能になる。また、学習に要する時間を
短縮することが可能となる。
【0113】さらに、同一値の重み付け係数を持つ演算
素子間の結合が複数存在する場合は、演算素子の出力と
の積を計算するための乗算回路の数も大幅に削減可能と
なる。
【0114】(3)本発明(請求項3)の演算素子結合
網では、演算素子結合網における少なくとも1つの演算
素子を、複数の所定の入出力特性を有する演算素子を結
合させて構成する階層構造を採用した。
【0115】これにより、入出力特性を既存の素子を用
いて少ないパラメータで柔軟に変化させられることがで
き、従って、演算素子結合網全体の能力を向上させるこ
とができる。
【0116】また、演算素子の入出力特性が不明である
ときに、演算素子の入出力特性を学習させたい場合に学
習すべきパラメ―タの数を確定できるので、学習を容易
に行うことが可能となる。
【図面の簡単な説明】
【図1】本発明の第1の実施例に係る演算素子結合網の
構成を示す図
【図2】本発明の第2の実施例に係る演算素子結合網の
構成を示す図
【図3】本発明の第3の実施例に係る演算素子結合網の
構成を示す図
【図4】従来の演算素子結合網の構成を示す図
【図5】従来の他の演算素子結合網の構成を示す図
【図6】本発明の第4の実施例に係る演算素子結合網の
構成を示す図
【図7】本発明の第6の実施例に係る階層構造を有する
演算素子を示す図
【図8】本発明の第6の実施例に係る階層構造を有する
他の演算素子を示す図
【図9】本発明の第7の実施例に係る演算素子結合網の
構成を示す図
【図10】本発明の第8の実施例に係る演算素子結合網
の構成を示す図
【図11】従来のさらに他の演算素子結合網の構成を示
す図
【符号の説明】
x1〜xn…入力信号 A01〜A0n…入力素子 A11〜A1n、A20…演算素子 A30、A40…出力素子 E1−EN、F1−FM、G1−GL、H111〜H1
16、H221〜H224…上位レベルの演算素子を構
成する下位レベルの演算素子

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】一つまたは二つ以上の入力信号に対して所
    定の演算を施す演算素子を複数有し、これら演算素子を
    任意に結合し、当該結合した二つの演算素子間において
    は一方の演算素子の出力値に所定の重み付け係数を乗じ
    た値を他方の演算素子への入力信号とする演算素子結合
    網において、 一つの入力信号に対して複数種類の所定の演算を時分割
    的に施す第1の時分割型演算素子、複数の入力信号に対
    して時分割的に同一の演算を施す第2の時分割型演算素
    子または複数の入力信号の各々に対する複数種類の所定
    の演算を時分割的に施す第3の時分割型演算素子のうち
    の少なくとも一つを有することを特徴とする演算素子結
    合網。
  2. 【請求項2】複数の演算素子を任意に結合し、結合した
    二つの演算素子間においては一方の演算素子の出力値に
    所定の重み付け係数を乗じた値を他方の演算素子への入
    力値とし、所定の学習を繰り返すことにより前記重み付
    け係数を含む複数の変数の値を逐次的に調整して所望の
    入出力関係を与える演算素子結合網において、 前記重み付け係数の総個数より少ない個数のパラメータ
    を有する所定の関数を用いて、前記重み付け係数を生成
    するための重み付け係数生成手段を備え、 前記学習により調整する変数として、前記関数のパラメ
    ータを用いることを特徴とする演算素子結合網。
  3. 【請求項3】一つまたは二つ以上の入力信号に対して一
    つまたは二つ以上の所定の演算を施し一つまたは二つ以
    上の出力信号を出力する演算素子を複数有し、これらを
    任意に結合し、結合した二つの演算素子間においては一
    方の演算素子の出力値に所定の重み付け係数を乗じた値
    を他方の演算素子への入力信号とする演算素子結合網に
    おいて、 少なくとも一つの前記演算素子は、複数の所定の多入力
    一出力演算素子の重み付き線形結合により階層的に構成
    されるか、もしくは、複数の所定の一入力一出力演算素
    子の重み付き線形結合により階層的に構成されるか、も
    しくは、前記多入力一出力演算素子および前記一入力一
    出力演算素子を任意に結合し、結合した演算素子間にお
    いては一方の素子の出力値に所定の重み付け係数を乗じ
    た値を他方の素子への入力信号とする演算素子の網状結
    合を用いて階層的に構成され、または、さらにこれらの
    階層構造を有限回繰り返して構成されたことを特徴とす
    る演算素子結合網。
JP14206093A 1993-06-14 1993-06-14 演算素子結合網 Expired - Fee Related JP3544685B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP14206093A JP3544685B2 (ja) 1993-06-14 1993-06-14 演算素子結合網
US08/260,384 US5566102A (en) 1993-06-14 1994-06-14 Arithmetic element coupling network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14206093A JP3544685B2 (ja) 1993-06-14 1993-06-14 演算素子結合網

Publications (2)

Publication Number Publication Date
JPH06348674A true JPH06348674A (ja) 1994-12-22
JP3544685B2 JP3544685B2 (ja) 2004-07-21

Family

ID=15306494

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14206093A Expired - Fee Related JP3544685B2 (ja) 1993-06-14 1993-06-14 演算素子結合網

Country Status (2)

Country Link
US (1) US5566102A (ja)
JP (1) JP3544685B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1538741A1 (en) * 2003-12-05 2005-06-08 Semiconductor Ideas to The Market (ItoM) BV Multiplier device
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US20170323239A1 (en) 2016-05-06 2017-11-09 General Electric Company Constrained time computing control system to simulate and optimize aircraft operations with dynamic thermodynamic state and asset utilization attainment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4811260A (en) * 1986-11-13 1989-03-07 Fujitsu Limited Signal processing circuit
US5130942A (en) * 1988-02-24 1992-07-14 Canon Kabushiki Kaisha Digital filter with front stage division

Also Published As

Publication number Publication date
US5566102A (en) 1996-10-15
JP3544685B2 (ja) 2004-07-21

Similar Documents

Publication Publication Date Title
CN107924227B (zh) 电阻处理单元
Matias et al. Learning of a single-hidden layer feedforward neural network using an optimized extreme learning machine
US5897628A (en) Circuit designing method and circuit designing device
JPH04293151A (ja) 並列データ処理方式
Sader et al. General decay synchronization of delayed BAM neural networks via nonlinear feedback control
Oh et al. Self-organizing neural networks with fuzzy polynomial neurons
Tian et al. Hopf bifurcation analysis of a BAM neural network with multiple time delays and diffusion
Kalhor et al. Evolving Takagi–Sugeno fuzzy model based on switching to neighboring models
Verstraeten et al. Reservoir computing with stochastic bitstream neurons
JPH06348674A (ja) 演算素子結合網
Armstrong et al. Learning and generalization in adaptive logic networks
Shields et al. A theoretical framework for multiple neural network systems
Garofalo et al. Herding as a consensus problem
Kim et al. Hybrid GMDH-type modeling for nonlinear systems: synergism to intelligent identification
EP0841621B1 (en) Learning method in binary systems
JPH076146A (ja) 並列データ処理システム
TW305998B (en) Weighted sum type of artificial neural network with reconfigurable structure and bit-serial I/O mode
Cingolani et al. An extreme learning machine approach for training Time Variant Neural Networks
Latino et al. Realizing general MLP networks with minimal FPGA resources
Rebala et al. (Artificial) Neural Networks
JPH06110864A (ja) 学習処理装置
Parthasarathy et al. A simplified design of multiplier for multi-layer feed forward hardware neural networks
JP2766858B2 (ja) ニューラルネットワーク並列シミュレーション方法及びそれに用いる装置
Suhhiem Artificial Neural network for solving fuzzy differential equations under generalized H-derivation
JPH02133888A (ja) 集積回路及び半導体装置

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040406

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080416

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090416

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100416

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees