JPH04229362A - 学習機械 - Google Patents

学習機械

Info

Publication number
JPH04229362A
JPH04229362A JP3112992A JP11299291A JPH04229362A JP H04229362 A JPH04229362 A JP H04229362A JP 3112992 A JP3112992 A JP 3112992A JP 11299291 A JP11299291 A JP 11299291A JP H04229362 A JPH04229362 A JP H04229362A
Authority
JP
Japan
Prior art keywords
input
output
sum
layer
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3112992A
Other languages
English (en)
Other versions
JP2760170B2 (ja
Inventor
Shigeo Sakagami
茂生 阪上
Toshiyuki Koda
敏行 香田
Koji Yamamoto
浩司 山本
〆木 泰治
Taiji Shimeki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP3112992A priority Critical patent/JP2760170B2/ja
Priority to EP19910120551 priority patent/EP0488380A3/en
Publication of JPH04229362A publication Critical patent/JPH04229362A/ja
Priority to US08/143,241 priority patent/US5384896A/en
Application granted granted Critical
Publication of JP2760170B2 publication Critical patent/JP2760170B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Air Conditioning Control Device (AREA)
  • Control Of Washing Machine And Dryer (AREA)
  • Complex Calculations (AREA)
  • Control Of Transmission Device (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明はデータ処理装置の学習機
械に関するものである。
【0002】
【従来の技術】従来の学習機械としては、例えば”ア 
ハ゜ラレル ニューロコンヒ゜ュータ アーキテクチャ
ー トワース゛ ヒ゛リオン コネクション アッフ゜
テ゛イツ ハ゜ー セカント゛ (A Paralle
l Neurocomputer Architect
ure towards Billion  Conn
ection Updates Per Second
)”, インターナショナル シ゛ョイント コンファ
ーレンス オン ニューラル ネットワーク (Int
ernational Joint Conferen
ce on Neural Network)(199
0年1月)に示されたものがある。
【0003】図9はこの従来の学習機械の構成図を示す
ものであり、51, 52, 53および54は入出力
信号レジスタ、55, 56および57は積和及び特性
関数演算部、58, 59および60は重み記憶部、6
1, 62および63はリング長調節部である。図10
は、図9に示される構成で実現される学習機械の模式図
である。図10において、64, 65, 66および
67は入力端子、68, 69, 70, 71および
72は多入力一出力回路、73は入力層、74は隠れ層
、75は出力層である。 図10に示されるように、学習機械は、多入力一出力回
路を階層状に接続した構成で、模式的に表すことができ
る。このように、階層状に接続された多入力一出力回路
のうち、出力信号を出力する多入力一出力回路から成る
層を出力層と呼び、それ以外の多入力一出力回路から成
る層を隠れ層と呼ぶ。入力端子からなる層を入力層と呼
ぶ。一般には、隠れ層は、一つの層をなす多入力一出力
回路によって構成されても良いし、複数の層をなす多入
力一出力回路によって構成されても良い。図10は、隠
れ層が一つの層をなす多入力一出力回路によって構成さ
れている場合を示している。また、一般には、入力層を
構成する入力端子は何個でも良く、隠れ層および出力層
を構成する多入力一出力回路は何個でも良いが、図10
は、入力層73が4個の入力端子からなり、隠れ層74
が3個の多入力一出力回路からなり、出力層75が2個
の多入力一出力回路からなる学習機械を示している。各
層の多入力一出力回路68, 69, 70, 71お
よび72は、複数の入力信号に対して、それぞれ個別の
重みを掛け、それら積の和に対して、飽和特性を持つ信
号を出力する。即ち、第j番目の多入力一出力回路の出
力信号yjは
【0004】
【数1】
【0005】で表される。ここに、xiは前段の層の第
i番目の多入力一出力回路の出力信号であり、wjiは
前段の層の第i番目の多入力一出力回路の出力信号が第
j番目の多入力一出力回路に入力される時に掛けられる
重みである。fnc()は飽和特性を持つシグモイド関
数で、例えば、xに対して
【0006】
【数2】
【0007】等を出力する。図9の従来の学習機械の構
成図において、重み記憶部58, 59および60は、
図10の模式図における多入力一出力回路68, 69
, 70, 71および72で掛けられる重みを記憶し
ている。入出力信号レジスタ51, 52, 53およ
び54は、入力端子64, 65, 66および67か
ら入力される信号もしくは多入力一出力回路68, 6
9, 70, 71および72の出力信号を保持してい
る。入出力信号レジスタ54に保持されている信号は、
次のマシン・サイクルには入出力信号レジスタ53に転
送され、入出力信号レジスタ53に保持されている信号
は、次のマシン・サイクルには入出力信号レジスタ52
に転送されるというように、入出力信号レジスタ51,
 52, 53および54に保持されている信号は順次
転送される。積和及び特性関数演算部55, 56およ
び57は、重み記憶部58, 59および60が記憶し
ている重みと、入出力信号レジスタ51, 52および
53が保持している信号との積和を求め、(数1)にし
たがって積和に対して飽和特性を持つ信号を出力する。 積和及び特性関数演算部55, 56および57の出力
信号は、入出力信号レジスタ51, 52, 53およ
び54に保持される。リング長調節部61, 62およ
び63は、入力信号の数および隠れ層74を構成する多
入力一出力回路の個数に応じて、保持している信号の転
送を行う入出力信号レジスタの個数を調節する。即ち、
隠れ層74の多入力一出力回路の積和演算を行っている
時には、入力信号の数が4個なので、入出力信号レジス
タ51, 52, 53および54の間で信号の転送を
行うように、リング長調節部61, 62および63に
おいてリング長を調節する。また出力層75の多入力一
出力回路の積和演算を行っている時には、隠れ層74の
多入力一出力回路の数が3個なので、入出力信号レジス
タ51, 52および53の間で信号の転送を行うよう
に、リング長調節部61, 62および63においてリ
ング長を調節する。
【0008】図11に積和及び特性関数演算部55, 
56および57の構成図を示す。図11において、76
は乗算部、77は積和レジスタ、78は加算部、79は
特性関数演算器、80は入力信号端子、81は出力信号
端子、82は重み入力端子である。積和及び特性関数演
算部55, 56および57の動作を以下に示す。積和
レジスタ77に保持されている信号は零で初期化される
。乗算部76は入力信号端子80から入力される信号と
重み入力端子82から入力される重みとの積を加算部7
8に出力し、加算部78は乗算部76が出力する積と積
和レジスタ77が保持している積和との和を求め、積和
レジスタ77に出力する。このような積と和を求める動
作の繰り返しにより、積和レジスタには、入力信号端子
80から入力される信号と、重み入力端子82から入力
される重みとの積和が保持される。積和演算が終了する
と、特性関数演算部79は、積和レジスタ77が保持し
ている信号に対して、(数2)で表される飽和特性を持
つ信号を出力する。以上によって、出力信号端子81か
ら(数1)で表される信号が出力される。
【0009】図12は、隠れ層74の多入力一出力回路
68, 69および70の出力を求める際の、積和及び
特性関数演算部55, 56および57の並列動作の説
明図である。図12において、xi(1 ≦ i ≦ 
4)は入力信号であり、wji(1 ≦ i ≦ 4,
 1 ≦ j ≦ 3)は入力信号xiに対して隠れ層
74の第j番目の多入力一出力回路で掛けられる重みで
ある。隠れ層74の多入力一出力回路68, 69およ
び70の出力を求める際には、リング長調節部61, 
62および63によって入出力信号レジスタ51, 5
2, 53および54の間で信号の転送が行われるよう
に、リング長が調節されている。 最初に、入出力信号レジスタ51, 52, 53およ
び54に、入力信号xi(1 ≦ i ≦ 4)がロー
ドされ、積和及び特性関数演算部55, 56および5
7の積和レジスタが零で初期化される。次のマシン・サ
イクルにおける積和及び特性関数演算部55, 56お
よび57の並列動作を、図12の(a) に示す。積和
及び特性関数演算部55は、重み記憶部58に記憶され
ている重みw11と入出力信号レジスタ51に保持され
ている入力信号x1との積を求め、積和レジスタに保持
する。同時に、積和及び特性関数演算部56はw22と
x2との積を求め、積和及び特性関数演算部57はw3
3とx3との積を求め、それぞれの積和レジスタに保持
する。その次のマシン・サイクルにおける積和及び特性
関数演算部55, 56および57の並列動作を、図1
2の(b) に示す。入出力信号レジスタ51, 52
, 53および54に保持されている信号は順次転送さ
れ、積和及び特性関数演算部55は、入出力信号レジス
タ51に保持されている信号x2と重み記憶部58に記
憶されている重みw12との積w12x2を求め、積和
レジスタに保持されているw11x1との和
【0010
【数3】
【0011】を積和レジスタに保持する。同時に、積和
及び特性関数演算部56および57は、それぞれ
【00
12】
【数4】
【0013】を積和レジスタに保持する。以下同様に、
入出力信号レジスタ51, 52, 53および54に
保持されている信号は順次転送され、積和及び特性関数
演算部55, 56および57は、重み記憶部58, 
59および60に記憶されている重みと入出力信号レジ
スタ51, 52, 53および54に保持されている
信号との積和を求める。すなわち、積和及び特性関数演
算部55、56および57は、それぞれ隠れ層の第1、
第2および第3の多入力一出力回路における積和を求め
る。積和が求められると、積和及び特性関数演算部55
, 56および57では、特性関数演算器で積和に対し
て(数2)で表される飽和特性を持つ信号を求め、入出
力信号レジスタ51, 52および53に出力する。
【0014】隠れ層74の多入力一出力回路68, 6
9および70の出力信号は、以上のようにして求められ
、入出力信号レジスタ51, 52および53に保持さ
れる。次に、出力層75の多入力一出力回路71および
72の出力を求める際には、リング長調節部61, 6
2および63が入出力信号レジスタ51, 52および
53の間で信号の転送が行われるようにリング長を調節
し、リング長を隠れ層の出力信号数(この場合3)に一
致させる。隠れ層74の多入力一出力回路68, 69
および70の出力信号を求める際と同様に、積和及び特
性関数演算部55および56の並列動作によって、出力
層75の多入力一出力回路71および72の出力を求め
る。
【0015】図13に、従来の学習機械において動作中
の演算部の時間変化を表すタイムチャートを示す。隠れ
層74の多入力一出力回路68, 69および70の積
和を求めているときには、積和及び特性関数演算部55
, 56および57が動作しており、このとき動作して
いる積和及び特性関数演算部の数は、隠れ層の多入力一
出力回路の個数に一致している。また、隠れ層74の多
入力一出力回路68, 69および70の積和を求める
のに要する時間は、
【0016】
【数5】マシン・サイクル × 入力層信号数である。 次に、隠れ層の多入力一出力回路の特性関数を求める。 この際に動作している積和及び特性関数演算部の個数は
、隠れ層の多入力一出力回路の個数に等しい。 出力層75の多入力一出力回路71および72の積和を
求めているときには、積和及び特性関数演算部55およ
び56が動作しており、このとき動作している積和及び
特性関数演算部の数は、出力層の多入力一出力回路の個
数に一致している。また、出力層74の多入力一出力回
路71および72の積和を求めるのに要する時間は、
【0017】
【数6】マシン・サイクル × 隠れ層信号数である。 次に、出力層の多入力一出力回路の特性関数を求める。 この際に動作している積和及び特性関数演算部の個数は
、出力層の多入力一出力回路の個数に等しい。 次に出力層の重み変更を行う。以上の動作によって、入
力信号から出力信号が得られるまでに要する時間は
【0
018】
【数7】     マシン・サイクル × (入力層信号数+隠れ
層信号数)+隠れ層の特性関数演算時間 +出力層の特性関数演算時間 である。
【0019】出力層の重み変更は、積和及び特性関数演
算部55および56における演算によって行われ、重み
の変更量を求めて重みの更新を行う。さらに隠れ層の逆
伝搬変数δを求める。この出力層の重み変更および隠れ
層の逆伝搬変数δを求めるのに要する時間は
【0020
【数8】マシン・サイクル × 隠れ層信号数 × 3
である。次に、隠れ層の重み変更を行う。隠れ層の重み
変更は、積和及び特性関数演算部55、56および57
における演算によって行われ、これに要する時間は
【0
021】
【数9】マシン・サイクル × 入力層信号数 × 2
である。以上のようにして、出力層の出力信号が得られ
た時点から、重み変更が完了するまでに要する時間は

0022】
【数10】マシン・サイクル × (3×隠れ層信号数
 + 2×入力層信号数) である。
【0023】
【発明が解決しようとする課題】しかしながら上記のよ
うな構成では、隠れ層の多入力一出力回路の個数に等し
い積和演算器が同時に動作することによって求められて
いるため、積和演算器は、隠れ層もしくは出力層の多入
力一出力回路の個数だけ、複数個必要であり、回路規模
が大きくなるという課題を有していた。
【0024】また、並列動作する積和及び特性関数演算
部の個数は、隠れ層もしくは出力層の多入力一出力回路
の個数に等しいので、隠れ層の多入力一出力回路の個数
もしくは出力層の多入力一出力回路の個数が、あらかじ
め用意された積和及び特性関数演算部の個数(従来例で
は3)を越えるような学習機械を構成することはできな
いという課題を有していた。
【0025】また、積和及び特性関数演算部で、重み変
更量の算出、重みの更新、隠れ層の逆伝搬変数δの算出
を順次に行っていたので、重み変更に要する時間が長い
という課題を有していた。
【0026】かかる点に鑑み、第1の発明は、特性関数
演算器を1個だけとし、回路規模の小さな学習機械を提
供することを目的とする。
【0027】第2の発明は、短い時間で重みを変更する
ことができる学習機械を提供することを目的とする。
【0028】第3の発明は、入力信号の数、隠れ層の多
入力一出力回路の個数、出力層の多入力一出力回路の個
数が、いかなる数であっても、簡単な設定の変更で実現
できる学習機械を提供することを目的とする。
【0029】
【課題を解決するための手段】第1の発明は、縦続接続
された複数の入出力信号レジスタと、入力信号に掛ける
重みを記憶している複数の重み記憶部と、前記入出力信
号レジスタの出力信号と前記重み記憶部に記憶されてい
る重みとの積および積和を出力する複数の積和演算部と
、前記積和演算部が出力する積和に対して飽和特性を持
つ信号を出力する単一の特性関数演算部とを備えた学習
機械である。
【0030】第2の発明は、縦続接続された複数の入出
力信号レジスタと、入力信号に掛ける重みを記憶してい
る複数の重み記憶部と、前記入出力信号レジスタの出力
信号と前記重み記憶部に記憶されている重みとの積およ
び積和を出力する複数の積和演算部と、前記積和演算部
が出力する積和に対して飽和特性を持つ信号を出力する
単一の特性関数演算部と、前記特性関数演算部の出力信
号と教師信号とをもとに出力層の逆伝搬変数δを計算す
る出力層δ算出部と、前記積和演算部の出力する積をも
とに隠れ層の逆伝搬変数δを計算する隠れ層δ算出部と
、前記入出力信号レジスタの出力と前記出力層δ算出部
の出力と前記隠れ層δ算出部の出力とをもとに重みの変
更量を求める重み変更部とを備えた学習機械である。
【0031】第3の発明は、第1または第2の発明の構
成において、入力信号に対して飽和特性を持つ信号を出
力する特性関数演算器と、複数の積和演算部の出力信号
を選択して前記特性関数演算器に入力する入力選択部と
、前記特性関数演算器の出力信号を適当な時間だけ遅延
させて出力する遅延部とからなる特性関数演算部を備え
た学習機械である。
【0032】
【作用】第1の発明は前記した構成により、縦続接続さ
れた入出力信号レジスタで入力信号が順次転送され、重
み記憶部が入力信号にかける重みを出力し、複数の積和
演算部が並列動作することによって、入出力信号レジス
タの信号と重み記憶部に記憶されている重みの積和を求
める。複数の積和演算部のうちの第1の積和演算部が最
初に積和の演算を終了し、次のマシン・サイクルにおい
て第2の積和演算部が積和演算を終了するように動作す
る。単一の特性関数演算部は、1個の特性関数演算器に
よって、これらの複数の積和演算部から出力される積和
に、飽和特性を持つ関数(特性関数)を順次掛ける。こ
のようにして求められた隠れ層の多入力一出力回路の出
力信号が、縦続接続された入出力信号レジスタに順次ロ
ードされ、再び積和演算部の並列動作により、積和が順
次求められ、単一の特性関数演算部で1個の積和演算器
で積和に対する特性関数を順次求め、出力層の多入力一
出力回路の出力信号を得る。
【0033】第2の発明は前記した構成により、入出力
信号レジスタ、重み記憶部および積和演算部、特性関数
演算部に関しては、第1の発明と同様の作用により、隠
れ層および出力層の多入力一出力回路の出力信号を出力
する。出力層δ算出部は、出力層の多入力一出力回路に
おける逆伝搬変数δを求め、縦続接続された入出力信号
レジスタに順次転送する。全ての出力層の多入力一出力
回路の逆伝搬変数δが、入出力信号レジスタに設定され
たとき、重み記憶部は、隠れ層の第1の多入力一出力回
路と出力層の多入力一出力回路の結合の大きさを表す重
みを出力する。複数の積和演算部は、出力層の多入力一
出力回路の逆伝搬変数δに、隠れ層の第1の多入力一出
力回路と出力層の多入力一出力回路の結合の大きさを表
す重みを掛けた積を、同時に隠れ層δ算出部に出力する
。隠れ層δ算出部では、これら複数の積の和に、隠れ層
の第1の多入力一出力回路における特性関数の微係数を
掛け、隠れ層の第1の多入力一出力回路における逆伝搬
変数δを求める。同時に複数の重み変更部は、隠れ層の
第1の多入力一出力回路と出力層の多入力一出力回路と
の結合の大きさを表わす重みの変更量を求め、重み記憶
部に出力する。重み記憶部では、重み変更部で求められ
た重み変更量を重みに加え、重みを変更する。このよう
に、隠れ層の第1の多入力一出力回路のδの算出と、隠
れ層の第1の多入力一出力回路と出力層の多入力一出力
回路との結合の大きさを表わす重みの変更とが、同時に
行われる。以後、この繰り返しにより、隠れ層の全ての
多入力一出力回路の逆伝搬変数δおよび隠れ層の多入力
一出力回路と出力層の多入力一出力回路との結合の大き
さを表わす重みの変更が行われる。隠れ層の多入力一出
力回路の逆伝搬変数δは縦続接続された入出力信号レジ
スタに順次転送される。全ての隠れ層の多入力一出力回
路の逆伝搬変数δが、入出力信号レジスタに設定された
とき、複数の重み変更部および重み記憶部によって、入
力層の第1の多入力一出力回路と隠れ層の多入力一出力
回路との結合の大きさを表わす重みが変更される。この
繰り返しにより、入力層の多入力一出力回路と隠れ層の
多入力一出力回路との結合の大きさを表わす重みの変更
量が求められる。
【0034】第3の発明は前記した構成により、入出力
信号レジスタ、重み記憶部および積和演算部に関しては
、第1の発明と同様の作用により、複数の積和演算部が
1マシン・サイクル毎に積和を順次出力する。単一の特
性関数演算部では、入力選択部が複数の積和演算部の出
力を順次選択して1個の特性関数演算器に入力し、特性
関数演算器は入力された積和に対して飽和特性を持つ信
号を出力し、遅延部は特性関数演算器の出力信号を適当
な時間だけ遅延させて出力する。遅延部における信号の
遅延時間は、隠れ層の全ての多入力一出力回路の積和が
積和演算部で演算され、しかも積和演算部の空き時間が
最小となる時間とする。隠れ層の多入力一出力回路の出
力信号は、前述のように遅延部で適当な時間だけ遅延さ
れた後、縦続接続された入出力レジスタに順次ロードさ
れる。このような隠れ層の多入力一出力回路の出力を求
める動作と同様にして、出力層の多入力一出力回路の出
力信号が求められる。この際の遅延部における信号の遅
延時間は、いくらでもよい。以上によって、入力信号の
数、隠れ層の多入力一出力回路の個数、出力層の多入力
一出力回路の個数が、いかなる数であっても学習機械を
構成できる。
【0035】
【実施例】図1は第2の発明の実施例における学習機械
の構成図を示すものである。図1において、1、2およ
び3は入出力信号レジスタ、4、5および6は積和演算
部、7、8および9は重み記憶部、10は特性関数演算
部、11は信号切替部、12は入力信号レジスタ、31
、32および33は重み変更部、34は隠れ層δ算出部
、35は出力層δ算出部である。図1に示されるように
、本実施例の学習機械は、入出力信号レジスタ1、2お
よび3の縦続接続で構成される。本実施例の学習機械の
模式図は、図10に示されるもので、多入力一出力回路
を階層状に接続した構成で、模式的に表すことができる
。本実施例は、入力層73が4個の入力端子からなり、
隠れ層74が3個の多入力一出力回路からなり、出力層
75が2個の多入力一出力回路からなる学習機械である
。各層の多入力一出力回路68, 69, 70, 7
1および72は、複数の入力信号に対して、それぞれ個
別の重みを掛け、それら積の和に対して、飽和特性を持
つ信号を出力する。
【0036】図1の本実施例の構成図において、重み記
憶部7は隠れ層の第3の多入力一出力回路70で掛けら
れる重みを記憶しており、重み記憶部8は隠れ層の第2
の多入力一出力回路69および出力層の第2の多入力一
出力回路72で掛けられる重みを記憶しており、重み記
憶部9は隠れ層の第1の多入力一出力回路68および出
力層の第1の多入力一出力回路71で掛けられる重みを
記憶している。入力信号レジスタ12には、入力端子6
4, 65, 66および67から入力される信号が順
次ロードされる。信号切替部11は、入力信号レジスタ
12の出力信号を、入出力信号レジスタ3に転送するよ
うに設定されている。入出力信号レジスタ3に保持され
ている信号は、次のマシン・サイクルには入出力信号レ
ジスタ2に転送され、入出力信号レジスタ2に保持され
ている信号は、次のマシン・サイクルには入出力信号レ
ジスタ1に転送されるというように、入出力信号レジス
タ3、2および1に保持されている信号は順次転送され
る。積和演算部4、5、および6は、重み記憶部7、8
および9が記憶している重みと、入出力信号レジスタ1
、2および3が保持している信号との積和を求める。特
性関数演算部10は、積和演算部4、5および6が出力
する積和に対して、(数1)にしたがって飽和特性を持
つ信号を出力する。特性関数演算部10の出力信号は、
信号切替部11に出力される。この時、信号切替部11
は、特性関数演算部10の出力を入出力信号レジスタ3
に転送するように設定されている。
【0037】図2に積和演算部4、5および6の構成図
を示す。図2において、13は乗算部、14は加算部、
15は積和レジスタ、16は信号入力端子、17は重み
入力端子、18は積和出力端子、36は積出力端子であ
る。積和演算部4、5および6の動作を以下に示す。積
和レジスタ15に保持されている信号は零で初期化され
る。乗算部13は信号入力端子16から入力される信号
と重み入力端子17から入力される重みとの積を加算部
14に出力し、加算部14は乗算部13が出力する積と
積和レジスタ15が保持している積和との和を求め、積
和レジスタ15に出力する。このような積と和を求める
動作の繰り返しにより、積和レジスタには、信号入力端
子16から入力される信号と、重み入力端子17から入
力される重みとの積和が保持され、積和出力端子18か
ら、入力信号と重みとの積和が出力される。
【0038】図3は、隠れ層74の多入力一出力回路6
8, 69および70の出力を求める際の、積和演算部
4、5および6の並列動作の説明図である。図3におい
て、xi(1 ≦ i ≦ 4)は入力信号であり、w
ji(1 ≦ i ≦ 4,1 ≦ j ≦ 3)は入
力信号xiに対して隠れ層74の第j番目の多入力一出
力回路で掛けられる重みである。重み記憶部7は隠れ層
の第3の多入力一出力回路70で掛けられる重みw3i
(1 ≦ i ≦ 4)を記憶しており、重み記憶部8
は隠れ層の第2の多入力一出力回路69で掛けられる重
みw2i(1 ≦ i ≦ 4)を記憶しており、重み
記憶部9は隠れ層の第1の多入力一出力回路68で掛け
られる重みw1i(1 ≦ i ≦ 4)を記憶してい
る。まず、入力信号レジスタ12に入力信号x1がロー
ドされ、信号切替部11は入力信号レジスタ12の出力
を入出力信号レジスタ3に転送するように設定されてい
る。積和演算部4、5および6の積和レジスタは零で初
期化される。次のマシン・サイクルにおける積和演算部
6の動作を、図3の(a)に示す。 積和演算部6は、重み記憶部9に記憶されている重みw
11と入出力信号レジスタ3に保持されている入力信号
x1との積を求め、積和演算部6の積和レジスタに保持
する。 この時同時に、入力信号レジスタ12に入力信号x2が
ロードされる。その次のマシン・サイクルにおける積和
演算部5および6の並列動作を、図3の(b)に示す。 積和演算部6は、入出力信号レジスタ3に保持されてい
る信号x2と重み記憶部9に記憶されている重みw12
との積w12x2を求め、積和レジスタに保持されてい
るw11x1との和
【0039】
【数11】
【0040】を積和レジスタに保持する。同時に、積和
演算部5は、
【0041】
【数12】w21x1を積和レジスタに保持する。この
時同時に、入力信号レジスタ12に入力信号x3がロー
ドされる。以下同様に、入力信号レジスタ12および入
出力信号レジスタ3、2、1に保持されている信号は順
次転送され、積和演算部6、5および4は、重み記憶部
9、8および7に記憶されている重みと入出力信号レジ
スタ3、2および1に保持されている信号との積和を求
める(図3(c),(d)参照)。積和演算部6が
【0042】
【数13】
【0043】を求める(図3(d)参照)と、次のマシ
ン・サイクルに積和演算部5が
【0044】
【数14】
【0045】を求め、次のマシン・サイクルに積和演算
部4が
【0046】
【数15】
【0047】を求める。このように、積和演算部6、5
および4は、1マシン・サイクルずつ遅れて、隠れ層の
多入力一出力回路における積和を特性関数演算部10に
出力する。特性関数演算部10では、入力された積和に
対して(数2)で表される飽和特性を持つ信号を求め、
隠れ層の多入力一出力回路の出力値
【0048】
【数16】
【0049】および
【0050】
【数17】
【0051】および
【0052】
【数18】
【0053】を、順次1マシン・サイクルずつ遅れて、
信号切替部11に出力する。隠れ層74の多入力一出力
回路68, 69および70の出力信号は、以上のよう
にして求められる。
【0054】信号切替部11は、隠れ層74の出力信号
が特性関数演算部10から入力されると、特性関数演算
部10の出力信号が入出力信号レジスタ3に転送される
ように、設定される。これにより、特性関数演算部10
の出力yj(1 ≦ j ≦ 3)が、入出力信号レジ
スタ3に順次転送される。図10に示されるように、出
力層を構成する多入力一出力回路は2個なので、積和演
算部6および5の並列動作によって、出力層の多入力一
出力回路の積和が求まる。即ち、重み記憶部8は出力層
の第2の多入力一出力回路72で掛けられる重みv2j
(1 ≦ j ≦ 3)を記憶しており、重み記憶部9
は出力層の第1の多入力一出力回路68で掛けられる重
みv1j(1 ≦ j ≦ 3)を記憶しており、積和
演算部6が
【0055】
【数19】
【0056】を特性関数演算部10に出力してから、1
マシン・サイクル遅れて、積和演算部5が
【0057】
【数20】
【0058】を特性関数演算部10に出力する。特性関
数演算部10は、順次入力される積和に対して(数2)
で表される特性関数を掛けて、出力層の多入力一出力回
路の出力値
【0059】
【数21】
【0060】および
【0061】
【数22】
【0062】を、1マシン・サイクルずつ遅れて出力層
δ算出部35に出力する。出力層75の多入力一出力回
路71および72の出力信号は、以上のようにして求め
られる。
【0063】特性関数演算部10で求められた出力層7
5の多入力一出力回路71および72の出力信号は、出
力層δ算出部35に順次入力される。出力層δ算出部3
5は、出力層の多入力一出力回路の出力信号zk(1 
≦ k ≦ 2)と、教師信号tk(1 ≦ k ≦ 
2)とをもとに、(数23)に従って、出力層の多入力
一出力回路の逆伝搬変数δを求める。
【0064】
【数23】 (数23)において、δokは出力層の第k番目の多入
力一出力回路の逆伝搬変数、zkはその多入力一出力回
路の出力信号、tkはその多入力一出力回路の教師信号
、z’kはその多入力一出力回路の特性関数の微分値で
ある。 以上のようにして、出力層の多入力一出力回路の逆伝搬
変数δが求められる。
【0065】図4は、隠れ層の多入力一出力回路の逆伝
搬変数δを求め、隠れ層の多入力一出力回路と出力層の
多入力一出力回路との結合の大きさを表わす重みの変更
を行う際の、積和演算部5、6および重み変更部32、
33の並列動作の説明図である。図4において、yj(
1 ≦ j≦ 3)は隠れ層の多入力一出力回路の出力
信号であり、vkj(1 ≦ j≦ 3, 1 ≦ k
 ≦ 2)は隠れ層の多入力一出力回路の出力信号yj
に対して出力層75の第k番目の多入力一出力回路で掛
けられる重みである。まず、出力層の多入力一出力回路
の逆伝搬変数であるδok(1 ≦ k ≦2)が、δ
o2、δo1の順に出力層δ算出部35から信号切替部
11に出力される。このとき、信号切替部11は、出力
層δ算出部35の出力を入出力信号レジスタ3に転送す
るように設定されている。δo2、δo1の順に、入出
力信号レジスタ3および2に転送される。入出力信号レ
ジスタ2にδo2が保持され、入出力信号レジスタ3に
δo1が保持された時点で、入出力信号レジスタ間の信
号の転送は停止される。前述のように、重み記憶部8は
出力層の第2の多入力一出力回路72と隠れ層の多入力
一出力回路との結合の大きさを表わす重みv2j(1 
≦ j ≦ 3)を記憶しており、重み記憶部9は出力
層の第1の多入力一出力回路68と隠れ層の多入力一出
力回路との結合の大きさを表わす重みv1j(1 ≦ 
j ≦ 3)を記憶している。このマシン・サイクルに
おける積和演算部5、6および重み変更部32、33の
並列動作の説明図を図4(a)に示す。積和演算部6を
構成する乗算部13は、入出力信号レジスタ3の出力す
るδo1と重み記憶部9が出力するv11を掛け合わせ
て、隠れ層δ算出部34に出力する。同時に、積和演算
部5を構成する乗算部13は、入出力信号レジスタ2の
出力するδo2と重み記憶部8が出力するv21を掛け
合わせて、隠れ層δ算出部34に出力する。隠れ層δ算
出部34では、これら2つの積v11δo1とv21δ
o2の和を求め、さらに隠れ層の第1の多入力一出力回
路の特性関数の微係数y’1を掛け合わせて、隠れ層の
第1の多入力一出力回路の逆伝搬変数
【0066】
【数24】
【0067】を求める。同時に、重み変更部33および
32には、特性関数演算部10から隠れ層の第1の多入
力一出力回路の出力値y1が入力される。重み変更部3
3では、入出力信号レジスタ3に保持されている逆伝搬
変数δo1に学習率εを掛け、さらに隠れ層の第1の多
入力一出力回路の出力値y1をかけて、隠れ層の第1の
多入力一出力回路と出力層の第1の多入力一出力回路と
の結合の大きさを表わすv11の変更量
【0068】
【数25】Δv11=εδo1y1 を求める。同時に重み変更部32ではv21の変更量

0069】
【数26】Δv21=εδo2y1 を求める。重み記憶部9および8では、重み変更部33
および32の出力する重みの変更量Δv11およびΔv
21をもとに、重みv11およびv21を変更する。以
後のマシン・サイクルにおいては、図4(b)(c)に
示されるように、入力信号レジスタ3および2には出力
層の多入力一出力回路の逆伝搬変数であるδo1および
δo2が保持されたまま、特性関数演算部10が隠れ層
の多入力一出力回路の出力値y2、y3を順次出力し、
重み記憶部33および32は対応する重みを順次出力す
る。先ほどのマシン・サイクルと同様の動作により、隠
れ層δ算出部34は
【0070】
【数27】
【0071】を順次求め、重み記憶部9および8におい
ては、重みvkj(2 ≦ j ≦ 3, 1 ≦ k
 ≦ 2)を順次変更する。以上のようにして、隠れ層
の多入力一出力回路の逆伝搬変数δを求め、隠れ層の多
入力一出力回路と出力層の多入力一出力回路との結合の
大きさを表わす重みの変更を行う。
【0072】図5は、入力層の入力端子と隠れ層の多入
力一出力回路との結合の大きさを表わす重みの変更を行
う際の、重み変更部31、32および33の並列動作の
説明図である。図5において、xi(1 ≦i ≦ 4
)は入力端子からの入力信号であり、wji(1 ≦ 
i ≦ 4, 1 ≦ j≦ 3)は入力信号xiに対
して隠れ層74の第j番目の多入力一出力回路で掛けら
れる重みである。まず、隠れ層の多入力一出力回路の逆
伝搬変数であるδhj(1 ≦ j ≦ 3)が、δh
3、δh2、δh1の順に隠れ層δ算出部34から信号
切替部11に出力される。このとき、信号切替部11は
、隠れ層δ算出部34の出力を入出力信号レジスタ3に
転送するように設定されている。δh3、δh2、δh
1の順に、入出力信号レジスタ3、2および1に転送さ
れる。入出力信号レジスタ1にδh3が保持され、入出
力信号レジスタ2にδh2が保持され、入出力信号レジ
スタ3にδh1が保持された時点で、入出力信号レジス
タ間の信号の転送は停止される。次のマシン・サイクル
における重み変更部31、32、33の並列動作の説明
図を図5(a)に示す。 重み変更部33、32および31には、入力信号レジス
タ12から第1の入力信号x1が入力される。重み変更
部33では、入出力信号レジスタ3に保持されているδ
h1に学習率εを掛け、さらに第1の入力信号x1をか
けて、入力層の第1の入力端子と隠れ層の第1の多入力
一出力回路との結合の大きさを表わすw11の変更量

0073】
【数28】Δw11=εδh1x1 を求める。同時に重み変更部32および31ではwj1
(2≦ j ≦ 3)の変更量
【0074】
【数29】Δwj1=εδhjx1 を求める。重み記憶部9、8および7では、重み変更部
33、32および31の出力する重みの変更量Δwj1
(1 ≦ j ≦ 3)をもとに、重みwj1(1 ≦
 j ≦ 3)を変更する。次のマシン・サイクル以後
における重み変更部31、32、33の並列動作の説明
図を図5(b)に示す。重み変更部33、32および3
1に、入力信号レジスタ12から第i番目の入力信号x
i(2 ≦ i ≦ 4)が入力され、wjiの変更量
【0075】
【数30】Δwji=εδhjxi    (2≦ i
 ≦ 4, 1 ≦ j ≦ 3) が求められる。重み記憶部9、8および7では、重み変
更部33、32および31の出力する重みの変更量Δw
ji(2 ≦ i ≦ 4, 1 ≦ j ≦ 3)を
もとに、重みwjiを変更する。以上のようにして、入
力層の入力端子と隠れ層の多入力一出力回路との結合の
大きさを表わす重みの変更を行う。
【0076】図6に、本実施例の学習機械において動作
中の演算部の時間変化を表すタイムチャートを示す。入
力信号は、入力信号レジスタ12から順次入力されるの
で、最初のマシン・サイクルでは、積和演算部6のみが
動作しており(図3(a)参照)、次のマシン・サイク
ルでは積和演算部6および5が動作している(図3(b
)参照)。このようにして、並列動作する積和演算部の
個数は、マシン・サイクル毎に1、2、3、3と変化し
(図3参照)、この時点で、積和演算部6が(数13)
で表わされる積和を出力し、次のマシン・サイクルで、
特性関数演算部10が、(数13)で表わされる積和に
対する特性関数を(数16)に従って求める。このとき
、入出力レジスタ3には、有効な信号が保持されていな
いので、積和演算部6は、演算を行わない。したがって
、このマシン・サイクルで並列動作している積和演算部
の個数は、2である。このようにして、隠れ層の第1の
多入力一出力回路の出力が求まるまでに要する時間は、
【0077】
【数31】マシン・サイクル×(入力層信号数+1)で
ある。
【0078】次のマシン・サイクルにおいては、特性関
数演算部10は(数14)に対する特性関数を(数17
)に従って求め、入出力信号レジスタ3は、隠れ層の第
1の多入力一出力回路の出力信号を保持しており、積和
演算部6は、出力層の第1の多入力一出力回路の積和演
算を開始している。このとき、入出力信号レジスタ2に
は有効な信号が保持されておらず、積和演算部5は動作
していない。また、積和演算部4は(数15)で表わさ
れる積和を計算している。したがって、このマシン・サ
イクルで並列動作している積和演算部の個数は、2であ
る。次のマシン・サイクルから、入出力信号レジスタ3
および2で、隠れ層の多入力一出力回路の出力信号が順
次転送される。並列動作する積和演算部の個数は、マシ
ン・サイクル毎に2、2となり、この時点で、積和演算
部6が(数19)で表わされる積和を出力する。次のマ
シン・サイクルで、特性関数演算部10が、(数19)
で表わされる積和に対する特性関数を(数21)に従っ
て求める。このとき、入出力レジスタ3には、有効な信
号が保持されていないので、積和演算部6は、演算を行
わない。したがって、このマシン・サイクルで並列動作
している積和演算部の個数は、1である。この後、さら
に(数20)で表わされる積和に対する特性関数を(数
22)に従って求めるのに、1マシン・サイクルを要す
る。このようにして、出力層の全ての多入力一出力回路
の出力が求まるまでに要する時間は、
【0079】
【数32】マシン・サイクル×(隠れ層信号数+出力層
信号数) である。
【0080】次に、出力層δ算出部35で、出力層の多
入力一出力回路の逆伝搬変数を、δo1、δo2の順に
求める。求められた逆伝搬変数は、順序を逆にして、δ
o2、δo1の順に入出力信号レジスタに転送される。 次のマシン・サイクルにおいて、隠れ層の第1の多入力
一出力回路の逆伝搬変数を求め、同時に隠れ層の第1の
多入力一出力回路と出力層の多入力一出力回路との結合
の大きさを表わす重みの変更を行う(図4(a)参照)
。この時に動作している演算部は、積和演算部6、5お
よび隠れ層δ算出部34および重み変更部33、32で
ある。このようにして、出力層の逆伝搬変数が入出力信
号レジスタに転送され、隠れ層の逆伝搬変数が求められ
るまでに要する時間は、
【0081】
【数33】マシン・サイクル×(隠れ層信号数+出力層
信号数+1) である。
【0082】このようにして求められた隠れ層の多入力
一出力回路の逆伝搬変数は、δh3、δh2、δh1の
順に入出力信号レジスタに転送される。次のマシン・サ
イクルにおいて、入力層の第1の入力端子と隠れ層の多
入力一出力回路との結合の大きさを表わす重みの変更を
行う(図5(a)参照)。この時に動作している演算部
は、積和演算部6、5、4および重み変更部33、32
、31である。 このようにして、隠れ層の逆伝搬変数が入出力信号レジ
スタに転送され、入力層と隠れ層を結合する重みが変更
されるまでに要する時間は、
【0083】
【数34】マシン・サイクル × (入力層信号数+隠
れ層信号数) である。
【0084】以上のようにして、入力信号から出力層の
出力信号が求められるまでに要する時間は
【0085】
【数35】     マシン・サイクル × (入力層信号数+隠れ
層信号数+出力層信号数+1)である。また、出力層の
出力信号を求めた時点から、重み変更が完了する時点ま
でに要する時間は
【0086】
【数36】マシン・サイクル       ×{(入力層信号数+2×隠れ層信号数+
出力層信号数)+1}である。
【0087】以上のように本実施例によれば、入力信号
レジスタ12から、入力信号を順次入力し、入出力信号
レジスタ3、2および1で、信号を順次転送することに
より、並列演算を行う積和演算部6、5および4が、そ
れぞれの多入力一出力回路の積和を1マシン・サイクル
ずつ遅れて出力し、特性関数演算部10は1個でよい。 本実施例においては、入力信号から出力信号を得るまで
には(数35)に示される時間を要する。従来例で(数
7)の時間を要していたのに比較して、特性関数演算部
の個数の削減による、出力信号算出時間の増加は
【00
88】
【数37】     マシン・サイクル × (出力層信号数+1)
      −(隠れ層の特性関数演算時間+出力層の
特性関数演算時間)である。従来の学習機械において、
隠れ層の特性関数演算時間および出力層の特性時間演算
時間にそれぞれ1マシン・サイクルを要するものとし、
本実施例および従来例において出力層信号数が2である
ことを代入すると、出力信号算出時間の増加は1マシン
・サイクルである。 このように、従来よりも規模の小さな学習機械を、出力
信号が得られるまでの時間の少ない増加で実現できるこ
とが、本実施例の第1の効果である。
【0089】本実施例の第2の効果は、積和演算部4、
5、6および重み変更部31、32、33および隠れ層
δ算出部34の並列動作により、出力層の出力信号を求
めた時点から、重み変更が完了する時点までに要する時
間を短縮できることである。出力層の出力信号を求めた
時点から、重み変更が完了する時点までに要する時間は
、従来例では(数10)であったのに対して、本実施例
では(数36)にまで短縮される。(数10)および(
数36)に、入力層信号数が4、隠れ層信号数が3、出
力層信号数が2であることを代入すると、短縮される時
間は、
【0090】
【数38】マシン・サイクル × 4 である。
【0091】なお、本実施例では、積和演算部6は、出
力層の第1の多入力一出力回路の積和として(数19)
を求めているが、
【0092】
【数39】
【0093】を求めてもよい。ただし、v10は出力層
の第1の多入力一出力回路の閾値である。このような演
算を行う場合には、y1が入出力信号レジスタ3に保持
される前のマシン・サイクルにおいて、入力信号レジス
タ12から信号切替部11を通して、入出力信号レジス
タ3に1を転送し、積和演算部6で、1とv10との積
を求める。 このような動作によれば、図6において、特性関数演算
のための空き時間は無くなる。
【0094】また、本実施例では、出力層δ算出部35
で求められた逆伝搬変数をδo2、δo1の順で入出力
信号レジスタ3に転送したが、δo1、δo2の順で入
出力信号レジスタ2に転送し、次のマシン・サイクルに
おいて逆伝搬変数δを入出力信号レジスタ2から入出力
信号レジスタ3に転送してもよい。このような動作によ
れば、図6において、δ転送のための空き時間は無くな
る。この方法によると、出力層の出力信号を求めた時点
から、重み変更が完了する時点までに要する時間は
【0
095】
【数40】マシン・サイクル × (入力層信号数+隠
れ層信号数) にまで、短縮できる。従来例で要していた時間(数10
)と(数40)とを比較し、、入力層信号数が4、隠れ
層信号数が3、出力層信号数が2であることを代入する
と、短縮される時間は、
【0096】
【数41】マシン・サイクル × 10である。
【0097】図7は、図1の全体構成をもつ第3の発明
の実施例の学習機械における、特性関数演算部10の構
成図である。図7において、19は入力選択部、20は
特性関数演算器、21は遅延部、22は第1の積和入力
端子、23は第2の積和入力端子、24は第3の積和入
力端子である。 第3の発明の実施例においては、第2の発明の実施例に
対して、特性関数演算部10が遅延部21を備えている
ことが特徴である。
【0098】本実施例の効果は、遅延部21における遅
延時間を調整することにより、入力信号数、隠れ層およ
び出力層の多入力一出力回路の個数が異なるさまざまな
構成の学習機械を実現できることである。遅延時間を零
としたときに、入力信号4、隠れ層の多入力一出力回路
3、出力層の多入力一出力回路2の学習機械を実現でき
ることは、第2の発明の実施例に関して説明した動作と
同じ動作で実現できる。
【0099】そこで、以下の本実施例の動作説明では、
同じ構成で遅延部21の遅延時間を調整することにより
、入力信号数4、隠れ層の多入力一出力回路4、出力層
の多入力一出力回路2の学習機械を、実現できることを
示す。
【0100】図7に、本実施例の学習機械において動作
中の演算部の時間変化を表すタイムチャートを示す。4
個の入力信号が、入力信号レジスタ12から順次入力さ
れるので、最初のマシン・サイクルでは、積和演算部6
のみが動作しており、次のマシン・サイクルでは積和演
算部6および5が動作している。このようにして、積和
演算部6、5および4は隠れ層の第1、第2および第3
の多入力一出力回路における積和を演算する。並列動作
する積和演算部の個数は、マシン・サイクル毎に1、2
、3、3と変化し、この時点で、積和演算部6が積和

0101】
【数42】
【0102】を出力する。隠れ層の第4の多入力一出力
回路の積和を演算するために、次のマシン・サイクルで
、入力信号レジスタ12から入力信号x1が、 信号切
替部11を通して再び入出力信号レジスタ3に転送され
る。 同時に、入力信号レジスタ12には、入力信号x2がロ
ードされる。このマシン・サイクルにおいて、特性関数
演算部10では、入力選択部19によって、積和演算部
6の出力(数42)が選択され、特性関数演算器20が
、この積和に対する特性関数を演算する。このマシン・
サイクルにおいては、信号切替部11は入力信号レジス
タ12からの信号を入出力信号レジスタ3に転送するよ
うに設定されているので、特性関数演算器20の出力は
、信号切替部11が特性関数演算部10の出力を入出力
信号レジスタ3に転送するように設定されるまで、遅延
部21によって遅延される。このような遅延は、隠れ層
74の多入力一出力回路の個数(4個)が、積和演算器
の個数(3個)よりも多いために、積和演算器の2回以
上の並列動作で隠れ層の多入力一出力回路の積和を求め
る場合に、必要となる。この場合、入力信号が、入力信
号レジスタ12から2回以上入出力信号レジスタ3に転
送され、この転送の間、先に求められた隠れ層の多入力
一出力回路の出力が、特性関数演算部10に保持されて
いることが必要である。次のマシン・サイクルから、特
性関数演算部10において、入力選択部19は、積和演
算部5、4の出力を順次選択し、特性関数演算器20は
これらの積和に対する特性関数を順次求める。これらの
特性関数の値(すなわち隠れ層の多入力一出力回路の出
力)は、信号切替部11が特性関数演算部10の出力を
入出力信号レジスタ3に転送するように設定されるまで
、遅延部21で順次遅延される。このようにして、積和
演算部6が隠れ層の第4の多入力一出力回路の積和を演
算している間は、積和演算部5および4は、隠れ層の第
2および第3の多入力一出力回路の出力を求めた後、動
作しない。このようにして、入力信号から隠れ層の全て
の多入力一出力回路の積和が求まるまでに要する時間は
【0103】
【数43】マシン・サイクル×入力層信号数×2である
【0104】積和演算部6が、隠れ層の第4の多入力一
出力回路の積和を演算し終わると、信号切替部11は特
性関数演算部10の出力を入出力信号レジスタ3に転送
するように設定される。すなわち、次のマシン・サイク
ルにおいて、特性関数演算部10が隠れ層の第4の多入
力一出力回路の積和に対する特性関数を演算すると同時
に、入出力信号レジスタ3に隠れ層の第1の多入力一出
力回路の出力が転送される。以後、入出力信号レジスタ
3および2で、隠れ層の多入力一出力回路の出力信号が
順次転送され、積和演算部6および5で出力層の多入力
一出力回路の積和が求められる。したがって、遅延部2
1における遅延時間は隠れ層の第1、第2および第3の
多入力一出力回路の出力に対しては、
【0105】
【数44】マシン・サイクル×3 であり、隠れ層の第4の多入力一出力回路の出力に対し
ては、
【0106】
【数45】マシン・サイクル×2 である。特性関数演算部10で、出力層の多入力一出力
回路の積和に対して、(数2)で表される特性関数を順
次求め、出力層の多入力一出力回路の出力が求められる
。 このようにして、隠れ層の全ての多入力一出力回路の積
和が算出された時点から、出力層の全ての多入力一出力
回路の出力を出力するまでに要する時間は
【0107】
【数46】マシン・サイクル×(隠れ層信号数+出力層
信号数)である。
【0108】隠れ層の多入力一出力回路の逆伝搬変数δ
の算出および隠れ層の多入力一出力回路と出力層の多入
力一出力回路の結合の大きさを表わす重みの変更につい
ては、第2の発明の実施例と同様に、図4に示される動
作によって行われる。隠れ層の多入力一出力回路の逆伝
搬変数は、δh3、δh2、δh1の順に入出力信号レ
ジスタに転送され、隠れ層の第1〜第3の多入力一出力
回路と入力層の入力端子との結合の大きさを表わす重み
の変更については、第2の発明の実施例と同様に、図5
に示される動作によって行われる。この後、隠れ層の第
4の多入力一出力回路の逆伝搬変数δが、入出力信号レ
ジスタに転送され、同様の動作によって、隠れ層の第4
の多入力一出力回路と入力層の入力端子との結合の大き
さを表わす重みの変更が行われる。出力層の全ての重み
変更が完了した時点から、隠れ層の全ての重み変更が完
了するまでに要する時間は、
【0109】
【数47】     マシン・サイクル × (2×入力層信号数+
隠れ層信号数)である。
【0110】以上のように本実施例によれば、入力信号
レジスタ12から、入力信号を順次入力し、入出力信号
レジスタ3、2および1で、信号を順次転送することに
より、並列演算を行う積和演算部6、5および4が、そ
れぞれの多入力一出力回路の積和を1マシン・サイクル
ずつ遅れて出力し、特性関数演算部10は1個でよい。 これにより、学習機械の回路規模を、従来の学習機械に
比べて小さくすることができる。また、特性関数演算部
10において、遅延部21が特性関数演算器20の出力
に対する遅延時間を調整することにより、入力信号数、
隠れ層の多入力一出力回路の数、出力層の多入力一出力
回路の数が異なる、さまざまな構成の学習機械を構成で
きる。
【0111】
【発明の効果】以上説明したように、第1の発明によれ
ば、特性関数演算部は1個でよく、学習機械の回路規模
を縮小できる。また第2の発明によれば、短い時間で重
みを変更することができる。また第3の発明によれば、
入力信号の数、隠れ層の多入力一出力回路の個数、出力
層の多入力一出力回路の個数が、いかなる数の学習機械
でも、簡単な設定の変更で実現できる。
【図面の簡単な説明】
【図1】第2の発明の実施例における学習機械の構成図
【図2】同実施例の積和演算部の構成図
【図3】同実施
例における積和演算部の並列動作の説明図
【図4】同実施例における積和演算部5、6および重み
変更部32、33の並列動作の説明図
【図5】同実施例における重み変更部31、32および
33の並列動作の説明図
【図6】同実施例の学習機械において動作中の演算部の
時間変化を表すタイムチャート
【図7】第3の発明の実施例における学習機械の構成図
【図8】同実施例の学習機械において動作中の演算部の
時間変化を表すタイムチャート
【図9】従来の学習機械の構成図
【図10】学習機械の模式図
【図11】従来の積和及び特性関数演算部の構成図
【図
12】従来の積和及び特性関数演算部の並列動作の説明
【図13】従来の学習機械において動作中の演算部の時
間変化を表すタイムチャート
【符号の説明】
1, 2, 3  入出力信号レジスタ4, 5, 6
  積和演算部 10  特性関数演算部 11  信号切替部 20  特性関数演算器 21  遅延部 34  隠れ層δ算出部 35  出力層δ算出部 31, 32, 33  重み変更部

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】縦続接続された複数の入出力信号レジスタ
    と、入力信号に掛ける重みを記憶している複数の重み記
    憶部と、前記入出力信号レジスタの出力信号と前記重み
    記憶部に記憶されている重みとの積および積和を出力す
    る複数の積和演算部と、前記積和演算部が出力する積和
    に対して飽和特性を持つ信号を出力する単一の特性関数
    演算部とを備えたことを特徴とする学習機械。
  2. 【請求項2】縦続接続された複数の入出力信号レジスタ
    と、入力信号に掛ける重みを記憶している複数の重み記
    憶部と、前記入出力信号レジスタの出力信号と前記重み
    記憶部に記憶されている重みとの積および積和を出力す
    る複数の積和演算部と、前記積和演算部が出力する積和
    に対して飽和特性を持つ信号を出力する単一の特性関数
    演算部と、前記特性関数演算部の出力信号と教師信号と
    をもとに出力層の逆伝搬変数δを計算する出力層δ算出
    部と、前記積和演算部の出力する積をもとに隠れ層の逆
    伝搬変数δを計算する隠れ層δ算出部と、前記入出力信
    号レジスタの出力と前記出力層δ算出部の出力と前記隠
    れ層δ算出部の出力とをもとに重みの変更量を求める重
    み変更部とを備えたことを特徴とする学習機械。
  3. 【請求項3】入力信号に対して飽和特性を持つ信号を出
    力する特性関数演算器と、複数の積和演算部の出力信号
    を選択して前記特性関数演算器に入力する入力選択部と
    、前記特性関数演算器の出力信号を適当な時間だけ遅延
    させて出力する遅延部とからなる特性関数演算部を備え
    たことを特徴とする請求項1または2に記載の学習機械
JP3112992A 1990-11-29 1991-05-17 学習機械 Expired - Fee Related JP2760170B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP3112992A JP2760170B2 (ja) 1990-11-29 1991-05-17 学習機械
EP19910120551 EP0488380A3 (en) 1990-11-29 1991-11-29 Learning machine
US08/143,241 US5384896A (en) 1990-11-29 1993-10-22 Learning machine

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP33509290 1990-11-29
JP2-335092 1990-11-29
JP3112992A JP2760170B2 (ja) 1990-11-29 1991-05-17 学習機械

Publications (2)

Publication Number Publication Date
JPH04229362A true JPH04229362A (ja) 1992-08-18
JP2760170B2 JP2760170B2 (ja) 1998-05-28

Family

ID=26452019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3112992A Expired - Fee Related JP2760170B2 (ja) 1990-11-29 1991-05-17 学習機械

Country Status (3)

Country Link
US (1) US5384896A (ja)
EP (1) EP0488380A3 (ja)
JP (1) JP2760170B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112654996A (zh) * 2018-09-27 2021-04-13 Tdk株式会社 积和运算器、神经形态器件以及积和运算方法
US11853865B2 (en) 2015-05-21 2023-12-26 Google Llc Prefetching weights for use in a neural network processor

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3582737B2 (ja) * 1993-05-20 2004-10-27 株式会社リコー 信号処理装置
US5649068A (en) * 1993-07-27 1997-07-15 Lucent Technologies Inc. Pattern recognition system using support vectors
US5579440A (en) * 1993-11-22 1996-11-26 Brown; Robert A. Machine that learns what it actually does
US5630024A (en) * 1994-01-19 1997-05-13 Nippon Telegraph And Telephone Corporation Method and apparatus for processing using neural network with reduced calculation amount
US5956703A (en) * 1995-07-28 1999-09-21 Delco Electronics Corporation Configurable neural network integrated circuit
US6256618B1 (en) 1998-04-23 2001-07-03 Christopher Spooner Computer architecture using self-manipulating trees
US9582771B2 (en) * 2013-01-11 2017-02-28 President And Fellows Of Harvard College Chemically-operated turing machine

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4874963A (en) * 1988-02-11 1989-10-17 Bell Communications Research, Inc. Neuromorphic learning networks
DE58906476D1 (de) * 1988-07-05 1994-02-03 Siemens Ag In integrierter Schaltungstechnik ausgeführtes digitales neuronales Netz.
FI894021A (fi) * 1988-08-31 1990-03-01 Fujitsu Ltd Neuronstruktur.
US5063601A (en) * 1988-09-02 1991-11-05 John Hayduk Fast-learning neural network system for adaptive pattern recognition apparatus
US5095443A (en) * 1988-10-07 1992-03-10 Ricoh Company, Ltd. Plural neural network system having a successive approximation learning method
US5010512A (en) * 1989-01-12 1991-04-23 International Business Machines Corp. Neural network having an associative memory that learns by example
EP0385436B1 (en) * 1989-02-28 1996-05-01 Fujitsu Limited An error absorbing system in a neuron computer
JP2679738B2 (ja) * 1989-03-01 1997-11-19 富士通株式会社 ニューロコンピュータにおける学習処理方式
US5148514A (en) * 1989-05-15 1992-09-15 Mitsubishi Denki Kabushiki Kaisha Neural network integrated circuit device having self-organizing function
JP2517410B2 (ja) * 1989-05-15 1996-07-24 三菱電機株式会社 学習機能付集積回路装置
US5073867A (en) * 1989-06-12 1991-12-17 Westinghouse Electric Corp. Digital neural network processing elements
US5146542A (en) * 1989-06-15 1992-09-08 General Electric Company Neural net using capacitive structures connecting output lines and differentially driven input line pairs
US5187680A (en) * 1989-06-15 1993-02-16 General Electric Company Neural net using capacitive structures connecting input lines and differentially sensed output line pairs
US5109351A (en) * 1989-08-21 1992-04-28 Texas Instruments Incorporated Learning device and method
US5056037A (en) * 1989-12-28 1991-10-08 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Analog hardware for learning neural networks
US5067095A (en) * 1990-01-09 1991-11-19 Motorola Inc. Spann: sequence processing artificial neural network
US5058179A (en) * 1990-01-31 1991-10-15 At&T Bell Laboratories Hierarchical constrained automatic learning network for character recognition
US5039871A (en) * 1990-05-21 1991-08-13 General Electric Company Capacitive structures for weighted summation as used in neural nets

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11853865B2 (en) 2015-05-21 2023-12-26 Google Llc Prefetching weights for use in a neural network processor
CN112654996A (zh) * 2018-09-27 2021-04-13 Tdk株式会社 积和运算器、神经形态器件以及积和运算方法

Also Published As

Publication number Publication date
JP2760170B2 (ja) 1998-05-28
EP0488380A2 (en) 1992-06-03
US5384896A (en) 1995-01-24
EP0488380A3 (en) 1994-05-18

Similar Documents

Publication Publication Date Title
US6151594A (en) Artificial neuron and method of using same
US5544336A (en) Parallel data processing system which efficiently performs matrix and neurocomputer operations, in a negligible data transmission time
US4994982A (en) Neural network system and circuit for use therein
US5600843A (en) Ring systolic array system for synchronously performing matrix/neuron computation using data transferred through cyclic shift register connected in cascade of trays
WO2020029583A1 (zh) 一种适用于神经网络的乘加计算方法和计算电路
EP0504932A2 (en) A parallel data processing system
JPH04229362A (ja) 学習機械
JPH07271748A (ja) データを正規化する手段を含むニューラル・プロセッサ
JPH076146A (ja) 並列データ処理システム
JPH05145379A (ja) 適応フイルタ装置における係数更新方法
JPH07210542A (ja) ニューロン回路
JPH04112355A (ja) 自己学習型アナログ方式ニューロン回路
TW305998B (en) Weighted sum type of artificial neural network with reconfigurable structure and bit-serial I/O mode
JPH0451386A (ja) ニューラルネットワーク及びその構築方法
JP2517662B2 (ja) 連鎖制御装置
Kwan et al. Systolic implementation of counterpropagation networks
JPH06131482A (ja) アナログニューラルネットワーク回路
JPH0233655A (ja) 神経回路網型パターン処理装置
JPH0784984A (ja) ニューラルネットワーク回路
CN117077512A (zh) 一种用于两端口微带结构的电磁参数化建模方法
JPH0243665A (ja) ニューラルネットワーク装置
JPH08123885A (ja) 神経細胞機能素子
Miyao et al. Multifrequency oscillation learning method for analog neural network: Its implementation in a learning LSI
JPH04305785A (ja) ニューラル・ネットワークの評価方法
Hahnloser Generating network trajectories using gradient descent in state space

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees