JPH07191950A - 計算ネットワーク - Google Patents

計算ネットワーク

Info

Publication number
JPH07191950A
JPH07191950A JP6299020A JP29902094A JPH07191950A JP H07191950 A JPH07191950 A JP H07191950A JP 6299020 A JP6299020 A JP 6299020A JP 29902094 A JP29902094 A JP 29902094A JP H07191950 A JPH07191950 A JP H07191950A
Authority
JP
Japan
Prior art keywords
layer
network
output
inputs
computing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6299020A
Other languages
English (en)
Inventor
Patrice Y Simard
イワン シマード パトリス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AT&T Corp
Original Assignee
American Telephone and Telegraph Co Inc
AT&T Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by American Telephone and Telegraph Co Inc, AT&T Corp filed Critical American Telephone and Telegraph Co Inc
Publication of JPH07191950A publication Critical patent/JPH07191950A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)
  • Feedback Control In General (AREA)
  • Complex Calculations (AREA)

Abstract

(57)【要約】 【目的】 ニューラルネットワークにおいて、応答時間
を改善し、広範な応用可能性を有する巨大ネットワーク
を構築すること。 【構成】 ノード出力は、S2n(ここで、nは整数で
あり、Sは+1又は−1である)の値に打切られる。こ
れにより、順方向伝播中は、乗算演算ではなく簡単なシ
フト演算によりノード出力と重みとの積を生成すること
ができる。ニューラルネットワーク全体で乗算演算の代
わりにシフト演算を使用することにより応答時間を改善
し、広範な応用可能性を有する巨大ネットワークを構築
することができる。逆方向伝播の効率を高めることによ
っても学習が改善される。逆方向伝播に含まれる乗算は
各ノードに伴う誤差を打切ることによりシフト演算に変
えられる。これにより、誤差はS2n(ここで、nは整
数であり、Sは+1又は−1である)として表示され
る。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は学習ネットワークに関
し、特に、効率的な順方向伝播及び逆方向伝播を伴う学
習ネットワークに関する。
【0002】
【従来の技術】学習ネットワーク又はニューラルネット
ワークは、ハードウエア、ソフトウエア又はハードウエ
アとソフトウエアの組合せにおいて実現される様々なア
ーキテクチャで利用できる。米国特許第5067164
号明細書(発明の名称“文字認識用の階層的に制約され
た自動学習ニューラルネットワーク”)及び米国特許第
5058179号明細書(発明の名称“文字認識用の階
層的に制約された自動学習ネットワーク”)は学習ネッ
トワークに利用できる多くのアーキテクチャのうちの2
つを開示している。
【0003】学習ネットワークは、出力を供給するオペ
ランド(演算数)としてその入力の和を使用するアクチ
ベーションファンクション(“ファンクション”は機能
又は関数を意味する。以下同じ)を実行する計算ノード
又はニューロンからなる。これらのノードは一般的に、
層状に配列され、或る層からのノードの出力は次の層の
幾つかのノードの入力に接続される。ノードへの各入力
は一般的に、ノードにより合計される前に、重みと乗算
される。
【0004】学習ネットワーク又はニューラルネットワ
ークは一般的に、学習ネットワーク内の他の多数のニュ
ーロンからの入力を受信する極めて多数のノード又はニ
ューロンを含む。これにより、ノードの出力と入力との
間に多数の相互接続が存在するアーキテクチャが得られ
る。前記のように、これらの相互接続は通常、乗法ファ
ンクションを含む。
【0005】その結果、巨大なニューラルネットワーク
は出力を生成するために極めて多数の乗算が必要であ
る。更に、これらの乗算は一般的に、或る16−ビット
ワードと別の16−ビットワードとの乗算を含む。この
ため、多量の計算パワーを必要とする。これらの計算要
件の結果として、巨大なニューラルネットワークはしば
しば、緩慢な応答時間及び緩慢な学習時間を有する。
【0006】会話認識,手書文字認識及びパターン認識
のようなファンクションを含む製品に対する飽くなき拡
大要求に対して、速い応答速度と短い学習時間を発揮す
る巨大ニューラルネットワークの開発の必要性が叫ばれ
ている。
【0007】
【発明が解決しようとする課題】従って、本発明の目的
は速い応答速度と短い学習時間を発揮する巨大ニューラ
ルネットワークを提供することである。
【0008】
【課題を解決するための手段】本発明は、乗算の代わり
にシフト演算を行う学習又はノーダルネットワークを提
供する。シフト演算は学習ネットワークの計算オーバー
ヘッドを劇的に低下する。その結果、高速応答時間及び
高速学習時間を維持しながら、極めて多数の相互接続を
有するネットワークを提供することができる。
【0009】本発明はネットワークの各ノード又はニュ
ーロンの出力を打切ることにより計算オーバーヘッドを
低下する。従って、この出力はS2n(ここで、nは整
数であり、Sは+1又は−1である。)で示される。こ
れにより、各接続に対応する重みをn回シフトすること
により、この接続に関する乗算を行うことができる。そ
の結果、ネットワーク内の各接続は、乗算演算とは対照
的に、簡単なシフト演算を使用する。
【0010】学習又は逆方向伝播モードでは、重みを調
整するために使用される勾配もS2n(ここで、nは整
数であり、Sは+1又は−1である。)で示される。こ
れにより、新たな重み値は、乗算演算と対照的に簡単な
シフト演算を使用することにより計算することができ
る。順方向伝播の場合も同様に、計算オーバーヘッドを
低下する。その結果、ネットワークの高速学習が可能に
なる。
【0011】低計算オーバーヘッド、すなわち、高速応
答時間及び高速学習時間を有するネットワークの提供に
より、一層複雑なネットワークの実現が可能になる。極
めて多数の接続と低計算オーバーヘッドを有するネット
ワークを実現することにより、ネットワークの認識能力
は、応答時間又は学習時間を許容不能なレベルにまで高
めることなく、大幅に向上される。
【0012】
【実施例】以下、図面を参照しながら本発明を具体的に
説明する。
【0013】図1は、ハードウエア又はソフトウエアで
実現できる一般的なニューラル又は学習ネットワークの
模式図である。この実施例では、ネットワークに対して
3層が存在するが、任意の層数のネットワークを構成す
ることができる。また、畳み込みニューラルネットワー
ク及び局所的に接続されえたニューラルネットワークに
より使用される接続パターンのようなその他の周知の接
続パターンも使用できる。
【0014】ノード10,12,14及び16は第1の
層を構成し、ノード18,20,22及び24は第2の
層を構成し、ノード26,28,30及び32は第3の
層を構成する。第3の層は出力層である。この実施例で
は、第1、第2及び第3の層はそれぞれL,M及びPノ
ードを含むように図示されている。L,M及びPは任意
の正の整数であり、各層は異なる数のノードを有する。
【0015】ノード10,12,14及び16の出力は
k(ここで、kは1〜Lのインデックスである。)で
示される。中間層ノード18,20,22及び24はX
i(ここで、iは1〜Mのインデックスである。)で示
される出力を有する。同様に、ノード26,28,30
及び32の出力であるネットワーク出力はXj(ここ
で、jは1〜Pのインデックスである。)で示される。
この実施例では、隣接層のノードは完全に接続されてい
る。
【0016】すなわち、一つの層の各ノードは隣接する
層の全てのノードに接続されている。例えば、ノード2
0の出力はノード26,28,30及び32に接続さ
れ、ノード28の入力はノード18,20,22及び2
4の出力に接続されている。先行する層内のノードの出
力と後続の層内のノードの入力との間の各接続は乗算を
行い、先行ノードの出力と重みとの積を生成する。得ら
れた積は後続層におけるノードにより受信される。
【0017】図2はノードの動作を示す模式図である。
ノード30はその全ての入力を合計し、次いで、オペラ
ンド(演算数)としてその合計を使用し、アクチベーシ
ョンファンクションを実行し、出力Xjを発生する。ノ
ード30に対する入力は乗算器52,54,56及び5
8の出力から受信される。各乗算器は先行層におけるノ
ードの出力から入力を受信し、この入力を重みと乗算す
る。
【0018】この実施例では、先行層のノードから受信
された出力Xi(i=1〜M)は、乗算器52,54,
56及び58において、重みWji(i=1〜M)と乗算
される。ノード30が出力層の一部でない場合には、出
力Wjは次の層におけるノードへの入力として使用され
る。また、ノード30が出力層の一部である場合には、
出力Xjはネットワークからの出力のうちの一つであ
る。
【0019】図1のネットワークは順方向伝播モードと
逆方向伝播モードの2種類のモードで動作する。順方向
伝播モードでは、入力はネットワークの第1の層に供給
され、また出力はネットワークの出力箇所で供給され
る。これはネットワーク内の各接続に付随する乗算,各
ノードに対する入力における積の合算及び各ノードにお
ける合算について行われるアクチベーションファンクシ
ョンを含む。
【0020】逆方向伝播モードでは、ネットワークが学
習される。このモードでは、入力はネットワークに対し
て供給され、得られた出力は正確に観察される。各出力
にはエラーが伴う。その後、エラー勾配を計算し、これ
により、相互接続ネットワーク内の各重みを調整するこ
とができる。各重みは、勾配,先行層からのノードの出
力及び学習速度を用いて積を生成することにより調整さ
れる。
【0021】下記の数1は先行層内のノードからの出力
iと後続層内のノードの出力Xjの関係を示す。
【0022】
【数1】
【0023】数1は、先行層から受信された各出力Xi
が重みXjiと乗算され、積iを生成することを示す。得
られた積を合算し、この和をアクチベーションファンク
ションf()によりオペランドとして使用する。従来、
アクチベーションファンクションは図3に示されるよう
なS字状曲線のような関数であった。線形,スプライン
及び双曲線タンジェントのようなその他の多数の周知の
関数を使用することもできる。
【0024】別の層内のノードについて、又は同じ層内
のノードについて、別のアクチベーションファンクショ
ンを使用することもできる。本発明は、その出力を打切
るアクチベーションファンクションを使用する。このア
クチベーションファンクションは、2の累乗、更に詳細
には、S2n(ここで、nは整数であり、Sは+1又は
−1である。)により示すことができる。図4はこのよ
うなアクチベーションファンクションを示す。
【0025】このファンクションはソフトウエア内の検
索テーブルを使用することにより、又はハードウエア内
のPROMを使用することにより実現できる。図4は、
軸70におけるオペランド又は和の各値について、軸7
2に示されるように、所定の値Xが生成されることを示
す。この実施例では、Xの値はS2n(ここで、nは
0,−1,−2又は−3の値をとることができる。)に
より示すことができる。nが任意の整数(...+3,
+2,+1,0,−1,−2,−3...)であるファ
ンクションを生成することもできる。
【0026】図2を参照する。先行層のノードからの出
力Xiは乗算器52,54,56及び58を用いて重み
jiと乗算され、積を生成する。図4の打切りアクチベ
ーションファンクションを使用することにより、各ノー
ドからの出力Xiは符号ビット及びnの値により表すこ
とができる。その結果、乗算器52,54,56及び5
8で行われる乗算は、単に、重みWj,iの符号ビットに
適当に変更し、その後、nにより特定される箇所の数だ
け重みをシフトさせることにより実行できる。
【0027】例えば、先行ノード18に対する入力箇所
で生成された和が−0.4に等しい場合、図4のアクチ
ベーションファンクションのオペランドとして−0.4
を使用することにより得られるノード18の出力は−
0.5である。その結果、ノード18の出力は−2-1
表される。この出力を乗算器52への入力として使用す
る場合、重みWj,i=1は位置を一つだけ右へシフトされ
るだけであり、符号ビットが変更され、結果Xi=1が得
られる。
【0028】これにより、乗算器52及びネットワーク
内の接続に使用される他の乗算器を、重みWj,iを左又
は右にn回シフトする単なるシフトレジスタで置き換え
ることができる。nが負数である場合、重みは右にシフ
トされ、nが正数である場合、重みは左にシフトされ
る。Wj,i及びXiの符号ビットは排他的ORゲートを通
過し、積の符号ビットを生成することができる。
【0029】ネットワークの第1の層に対する入力は図
4に従って打切ることもできる。ネットワーク入力が重
みと乗算されるネットワーク構成では、入力を2の累乗
として表示することで、シフト動作によるこれらの初期
乗算を実現可能にする。
【0030】図5は単純化された乗算器を示す。単純な
シフトレジスタ及び排他的ORゲートは、常用の乗算器
を使用することなく、積Xi・Wj,iを生成する。nの値
はシフト回数及びシフト方向をコントロールする。シフ
トレジスタ及び単純な論理ゲートを使用してネットワー
ク全体の乗算器を置換することにより、このネットワー
クに付随する計算過負荷を低減するハードウエア及びソ
フトウエアの簡約化が得られる。ネットワークをソフト
ウエアで実現する場合、乗算をシフト演算で置換する
と、計算時間が短くなり、それにより、ネットワークの
応答時間も短縮される。
【0031】重みの値の広範な変動に適応可能にするた
めに、重みを仮数及び指数の形で定型化することができ
る。しかし、重みは不動点表示のような他の形で表示す
ることもできる。仮数及び指数を用いて動作する場合、
図5のシフトレジスタは加算で置換することができる。
加算器を使用して重みの指数とnを合計し、積の指数を
得ることができる。
【0032】Xiが−0.5であり、−2-1(すなわ
ち、n=−1,S=−1)として表示される先の実施例
では、重みの指数は−1と合計され、重みの符号ビット
は−1の符号ビットを有する排他的ORである。得られ
た、仮数及び指数の形の積を受信するノードは、和が生
成される前に、仮数を整列させるために適切なシフトを
行わなければならない。
【0033】学習又はニューラルネットワークの演算の
第2のモードは逆方向伝播モードである。このモードを
用いて、ネットワーク内で使用される重みを調整するこ
とにより、ネットワークを調教又は学習させることがで
きる。このモードの処理は、一連の学習入力をネットワ
ークに供給し、そしてネットワーク出力における誤差を
決定することを含む。
【0034】この誤差を使用し、重みの値を調整するこ
とができる。この処理は、ネットワークが許容可能な誤
差を有する出力を生成するまで、多数の異なる学習入力
を用いて継続される。一連の学習入力に応答して、ネッ
トワークに一連の出力を生成させた後、ネットワークの
各出力における誤差を決定することにより逆方向伝播を
開始する。下記の数2は出力誤差Eを表す。
【0035】
【数2】
【0036】前記の数2は、出力“j”における誤差e
jは実際の出力Xjと所望の出力Tjの差により表される
ことを示す。数2に数1を代入すると、誤差ejを別の
形で表示する下記の数3が得られる。
【0037】
【数3】
【0038】その結果、出力誤差Eは下記の数4により
表すことができる。
【0039】
【数4】
【0040】最後の層の単位jに関する単位勾配、
【数5】 は下記の数6により得られる。
【0041】
【数6】 ここで、誤差項Hj=f(Sj−Tj
【0042】或る層の単位勾配が判明すれば、先行層の
単位勾配は連鎖ルールを用いて計算することができる。
例えば、下記の数7により、下記の数8は、層jに先行
する層の単位iに関する単位勾配Giの計算を例証す
る。
【0043】
【数7】
【0044】
【数8】 が得られる。
【0045】数6及び数8に関して、層の勾配Gは誤差
項Hと導関数項f´()を用いて計算できることが理解
できる。出力層又は最終層について、誤差項Hは下記の
数9により表すことができる。
【0046】
【数9】
【0047】また、先行層について、誤差項Hは下記の
数10により表すことができる。
【0048】
【数10】
【0049】但し、前記の数9及び数10において、層
iは層jに先行し、層jは層iよりも出力層に接近して
いる。
【0050】重みWは、所望の重みに関するEの勾配を
用いて調整される。例えば、重みWjiに関するEの勾配
は下記の数11により得られる。
【0051】
【数11】
【0052】重み調整は、下記の数12に示されるよう
に、Wjiに関するEの勾配を減少することにより行われ
る。
【0053】
【数12】
【0054】同様に、層jに先行する層iにおける重み
は下記の数13を用いることにより調整される。
【0055】
【数13】
【0056】LRは学習速度であり、一般的に、0.0
01程度の小さな値である。多くの処理系はユニット間
で学習速度を変化させたり、全体的に学習速度を変化さ
せることができる。また、LRを2の累乗に限定するこ
ともできる。すなわち、LR=2n(ここで、nは整数
である。)に限定することもできる。nを負の整数に限
定することが好ましい。
【0057】逆方向伝播を開始する場合、先ず、数6に
従って、出力層の勾配Giを比較する。(f(Sj)−T
j)に等しい、項Hjを図6の打切りファンクションに従
って、2の最も近い累乗に打切る。このファンクション
はソフトウエア内の検索テーブルを使用し、また、ハー
ドウエア内のPROMを使用することにより実現するこ
とができる。
【0058】図6において、横軸上の全ての値は縦軸上
の2の累乗にマップされる。打切り後、HjはS2n(こ
こで、nは整数であり、Sは−1又は+1である。)の
形で記憶される。
【0059】数6はまた、積Hjf´(Sj)の生成を必
要とする。f´()(アクチベーションの導関数)を計
算するために、f()(図4のアクチベーションファン
クション)は図7のファンクションにより近似される。
図8に示されるように、f´()の値は0又は1であ
る。(値0は学習を促進するために0.125のような
2の小さな累乗であることもできる。)
【0060】その他のアクチベーションファンクション
が使用される場合、f´()はS2n(ここで、nは整
数であり、Sは±1である)として表示することもでき
る。Hjとf´(Sj)との乗算は、Sjが−1〜+1の
間の値であるか否かを決定することにより行われる。S
jが−1〜+1の間の値である場合、積はHjに等しい。
jが−1〜+1の間の値でない場合、積は0である
(若しくは2Hjの小さな累乗である)。
【0061】0の代わりに、2-nのような2の小さな累
乗を使用する場合、Hjはnビットだけ右にシフトされ
る。これにより、勾配Gjの計算が完了する。GjはS2
n(ここで、nは整数である)の形である。なぜなら、
jは図6に従って打切られており、しかも、f´
(Sj)は0又は1だからである。
【0062】重みの更新は数12に従って行われる。X
iはS2n(ここで、nは整数であり、Sは−1又は+1
である)の形である。(図4のアクチベーションファン
クションを想起せよ。)その結果、数12の計算を開始
する場合、勾配Gjとノード出力Xiの積は、Gj及びXi
に関連するnの値の単なる追加である。積Gjiの符号
ビットはGj及びXiの符号ビットを排他的ORすること
により生成される。Gj及びXiの両方ともS2nの形な
ので、積GjiもS2nの形である。その結果、学習速
度LRと積Gjiの乗算は、積Gjiに関連するnの値
及び排他的ORする符号ビットに基づき、LRを単にシ
フトさせるだけである。その結果、単なるシフト及び加
算演算によりWjiの新たな値が得られる。
【0063】勾配Gj及びノード出力XiをS2nと表現
することにより、数12を用いて新たな重みを得るため
に、もはや乗算を行う必要はない。前記のように、乗算
の省略により、高速演算と一層複雑なネットワークが可
能になる。
【0064】概して、また、図9に関連して説明すれ
ば、ネットワークの先行層における重みは、ネットワー
クを通して逆方向に伝播される誤差値を用いて調整され
る。説明のために、層nが層n+1に先行しており、層
n+1は層nよりもネットワーク出力に接近していると
仮定する。
【0065】層nの各ノードに関する誤差項Hiは、数
10に示されるように、層n+1からの単位勾配Gj
積と層n+1からのその連合未調整重み値Wjiの積を加
算することにより計算される。層nの各ノードに関連す
る誤差項Hiは2の累乗に打切られ、数8に従って、層
nの各ノードに関連する単位勾配Giを生成するのに使
用される。
【0066】層nの重みWikは、数13の(11)に示
されるように、層nの単位勾配Giと層n−1の出力Xk
を用いて調整される。この手順は、全ての重みが調整さ
れるまで、先行層について反復される。
【0067】ノード及び乗算器はコンピュータ上のソフ
トウエア、又はアナログ若しくはデジタル回路を使用す
るハードウエアで実現することができる。ハードウエア
構成では、各ノードはマイクロプロセッサ又はデジタル
信号プロセッサ(DSP)チップを使用することにより
実現できる。各ノードは加算機及びPROMにより実現
することもできる。ここで、加算機は入力を合計し、P
ROMはこの和を用いてS2nの形の出力を生成する。
【0068】重みはRAM又はレジスタのようなメモリ
に記憶させることができる。重みはコンピュータ上のネ
ットワークで処理し、次いで、一連の学習入力を使用
し、重みを変更するために逆方向伝播される出力誤差を
発生させることにより更新させることができる。後続層
からの誤差情報及び先行層からの出力を使用するように
マイクロプロセッサ又はDSPをプログラムすることに
より重みを調整することもできる。
【0069】ノード又は学習ネットワークは会話,手書
文字,パターン又は物体を認識するために使用される。
例えば、第1の層に対する入力は、音声又は手書文字の
ような入力の信号又は数値代表元である。逆方向伝播を
用いて調教したら、これらの入力に応答して生成された
出力は音声又は手書文字を識別するために使用される。
【0070】
【発明の効果】以上説明したように、本発明によれば、
乗算の代わりにシフト演算を行う学習又はノーダルネッ
トワークが得られる。シフト演算は学習ネットワークの
計算オーバーヘッドを劇的に低下する。その結果、高速
応答時間及び高速学習時間を維持しながら、極めて多数
の相互接続を有するネットワークが得られる。
【図面の簡単な説明】
【図1】学習ネットワークアーキテクチャの模式図であ
る。
【図2】1個のノードの入力と数個のノードの出力との
間の関係を説明する模式図である。
【図3】S字曲線アクチベーションファンクションの特
性図である。
【図4】打切りアクチベーションファンクションの特性
図である。
【図5】単純化された乗算器のブロック図である。
【図6】誤差打切りファンクションを説明する模式図で
ある。
【図7】図4のアクチベーションファンクションの近似
を説明する特性図である。
【図8】アクチベーションファンクションの導関数を説
明する特性図である。
【図9】逆方向伝播中の隣接層のノード間の関係を説明
する模式図である。
【符号の説明】
10,12,14,16 第1の層のノード 18,20,22,24 第2の層のノード 26,28,30,32 第3の層のノード 52,54,56,58 乗算器

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】 複数のネットワーク入力に応答して複数
    のネットワーク出力を生成する計算ネットワークであ
    り、 計算ネットワークの第1の層を形成する複数の第1層計
    算ノードと、 計算ネットワークの第2の層を形成する複数の第2層計
    算ノードと、 からなり、 前記各第1層計算ノードは複数の計算ネットワーク入力
    のうちの少なくとも一つから生じる少なくとも一つの第
    1層入力を受信して第1層出力を生成し、前記第1層出
    力は2のゼロ以外の累乗に打切られる,前記複数の第2
    層計算ノードの各々は複数の第2層入力を受信して第2
    層出力を生成し、前記複数の第2層入力の各々は、前記
    複数の第1層計算ノードのうちの一つにより生成された
    前記第1層出力と重み値との積であり、前記第2層出力
    は、前記複数の入力の和を使用することにより、第1の
    アクチベーションファンクションのオペランドとして生
    成され、前記第2層出力は複数のネットワーク出力のう
    ちの少なくとも一つを生成するために使用される,こと
    を特徴とする計算ネットワーク。
  2. 【請求項2】 第1層出力はS2n(ここで、nはゼロ
    以外の整数であり、Sは±1である)の形である請求項
    1の計算ネットワーク。
  3. 【請求項3】 重み値をn回シフトすることにより積を
    生成する乗算手段を特徴とする請求項2の計算ネットワ
    ーク。
  4. 【請求項4】 nと、重み値の指数部分とを合計するこ
    とにより前記積を生成する乗算手段を特徴とする請求項
    2の計算ネットワーク。
  5. 【請求項5】 複数のネットワーク入力は2の累乗に打
    切られる請求項1の計算ネットワーク。
  6. 【請求項6】 各第1層計算ノードは、複数の第1層入
    力の和を使用することにより、第2のアクチベーション
    ファンクションのオペランドとして第1層出力を生成す
    る請求項1の計算ネットワーク。
  7. 【請求項7】 第1層出力はS2n(ここで、nはゼロ
    以外の整数であり、Sは±1である)の形である請求項
    6の計算ネットワーク。
  8. 【請求項8】 重み値をn回シフトすることにより積を
    生成する製品手段を特徴とする請求項7の計算ネットワ
    ーク。
  9. 【請求項9】 nと、重み値の指数部分とを合計するこ
    とにより前記積を生成する乗算手段を特徴とする請求項
    7の計算ネットワーク。
  10. 【請求項10】 複数のネットワーク入力は2の累乗に
    打切られる請求項6の計算ネットワーク。
JP6299020A 1993-11-09 1994-11-09 計算ネットワーク Pending JPH07191950A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/150,677 US5473730A (en) 1993-11-09 1993-11-09 High efficiency learning network
US150677 1993-11-09

Publications (1)

Publication Number Publication Date
JPH07191950A true JPH07191950A (ja) 1995-07-28

Family

ID=22535542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6299020A Pending JPH07191950A (ja) 1993-11-09 1994-11-09 計算ネットワーク

Country Status (6)

Country Link
US (1) US5473730A (ja)
EP (1) EP0652525B1 (ja)
JP (1) JPH07191950A (ja)
CA (1) CA2132756C (ja)
DE (1) DE69424372T2 (ja)
TW (1) TW270186B (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014517973A (ja) * 2011-05-25 2014-07-24 クゥアルコム・インコーポレイテッド 1次視覚野単純細胞および他の神経回路の入力シナプスの教師なしトレーニングのための方法および装置
JP2017068577A (ja) * 2015-09-30 2017-04-06 株式会社東芝 演算装置、方法及びプログラム
WO2018193906A1 (ja) * 2017-04-20 2018-10-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、情報処理装置およびプログラム
JP2019091512A (ja) * 2017-09-29 2019-06-13 ソニー株式会社 情報処理装置、および情報処理方法
US11960565B2 (en) 2018-03-02 2024-04-16 Nec Corporation Add-mulitply-add convolution computation for a convolutional neural network

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5630024A (en) * 1994-01-19 1997-05-13 Nippon Telegraph And Telephone Corporation Method and apparatus for processing using neural network with reduced calculation amount
US6141044A (en) * 1996-09-26 2000-10-31 Apple Computer, Inc. Method and system for coherent image group maintenance in memory
US5883716A (en) * 1997-07-15 1999-03-16 Litton Systems, Inc. Rate control loop for fiber optic gyroscope
US7362892B2 (en) 2003-07-02 2008-04-22 Lockheed Martin Corporation Self-optimizing classifier
US7814038B1 (en) 2007-12-06 2010-10-12 Dominic John Repici Feedback-tolerant method and device producing weight-adjustment factors for pre-synaptic neurons in artificial neural networks
WO2018108126A1 (zh) * 2016-12-14 2018-06-21 上海寒武纪信息科技有限公司 神经网络卷积运算装置及方法
US11256978B2 (en) * 2017-07-14 2022-02-22 Intel Corporation Hyperbolic functions for machine learning acceleration
CN113554163B (zh) * 2021-07-27 2024-03-29 深圳思谋信息科技有限公司 卷积神经网络加速器

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2625347B1 (fr) * 1987-12-23 1990-05-04 Labo Electronique Physique Structure de reseau de neurones et circuit et arrangement de reseaux de neurones
KR940001173B1 (ko) * 1988-08-31 1994-02-16 후지쓰 가부시끼가이샤 뉴로 컴퓨터
US4972363A (en) * 1989-02-01 1990-11-20 The Boeing Company Neural network using stochastic processing
US5222195A (en) * 1989-05-17 1993-06-22 United States Of America Dynamically stable associative learning neural system with one fixed weight
US5138924A (en) * 1989-08-10 1992-08-18 Yamaha Corporation Electronic musical instrument utilizing a neural network
US5109351A (en) * 1989-08-21 1992-04-28 Texas Instruments Incorporated Learning device and method
GB2236608B (en) * 1989-10-06 1993-08-18 British Telecomm Digital neural networks
US5067164A (en) * 1989-11-30 1991-11-19 At&T Bell Laboratories Hierarchical constrained automatic learning neural network for character recognition
JPH0782481B2 (ja) * 1989-12-26 1995-09-06 三菱電機株式会社 半導体神経回路網
US5255346A (en) * 1989-12-28 1993-10-19 U S West Advanced Technologies, Inc. Method and apparatus for design of a vector quantizer
US5167006A (en) * 1989-12-29 1992-11-24 Ricoh Company, Ltd. Neuron unit, neural network and signal processing method
US5058179A (en) * 1990-01-31 1991-10-15 At&T Bell Laboratories Hierarchical constrained automatic learning network for character recognition
JP3110434B2 (ja) * 1990-03-17 2000-11-20 科学技術振興事業団 アナログ逆伝搬学習回路
US5337395A (en) * 1991-04-08 1994-08-09 International Business Machines Corporation SPIN: a sequential pipeline neurocomputer
EP0461902B1 (en) * 1990-06-14 1998-12-23 Canon Kabushiki Kaisha Neural network
US5097141A (en) * 1990-12-12 1992-03-17 Motorola, Inc. Simple distance neuron
US5228113A (en) * 1991-06-17 1993-07-13 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Accelerated training apparatus for back propagation networks

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014517973A (ja) * 2011-05-25 2014-07-24 クゥアルコム・インコーポレイテッド 1次視覚野単純細胞および他の神経回路の入力シナプスの教師なしトレーニングのための方法および装置
JP2017068577A (ja) * 2015-09-30 2017-04-06 株式会社東芝 演算装置、方法及びプログラム
WO2018193906A1 (ja) * 2017-04-20 2018-10-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、情報処理装置およびプログラム
JP2018181313A (ja) * 2017-04-20 2018-11-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理方法、情報処理装置およびプログラム
US11055379B2 (en) 2017-04-20 2021-07-06 Panasonic Intellectual Property Corporation Of America Information processing method, information processing apparatus, and computer-readable recording medium
JP2019091512A (ja) * 2017-09-29 2019-06-13 ソニー株式会社 情報処理装置、および情報処理方法
US11960565B2 (en) 2018-03-02 2024-04-16 Nec Corporation Add-mulitply-add convolution computation for a convolutional neural network

Also Published As

Publication number Publication date
US5473730A (en) 1995-12-05
CA2132756C (en) 1999-05-18
DE69424372T2 (de) 2000-09-21
DE69424372D1 (de) 2000-06-15
EP0652525A2 (en) 1995-05-10
EP0652525A3 (en) 1995-12-27
EP0652525B1 (en) 2000-05-10
TW270186B (ja) 1996-02-11
CA2132756A1 (en) 1995-05-10

Similar Documents

Publication Publication Date Title
JP6977864B2 (ja) 推論装置、畳み込み演算実行方法及びプログラム
EP0424086B1 (en) Arithmetic processing apparatus and method used thereby
CN112074806A (zh) 使用减小的位宽向量的块浮点计算
US5280439A (en) Apparatus for determining booth recoder input control signals
JPH07191950A (ja) 計算ネットワーク
JPH0713949A (ja) ニューラルネットワークおよびその使用方法
JPH07248841A (ja) 非線形関数発生装置およびフォーマット変換装置
EP3671572A1 (en) Information processing apparatus, neural network program, and processing method for neural network
JPH08297716A (ja) ニューラル・ネットワーク用の適応型重み調整回路
US11106431B2 (en) Apparatus and method of fast floating-point adder tree for neural networks
JP3323894B2 (ja) ニューラルネットワーク学習方法及び装置
EP0385637A2 (en) Learning machine with multi-input single output circuits connected in hierarchical structure
JP2760170B2 (ja) 学習機械
US5289399A (en) Multiplier for processing multi-valued data
JPH076146A (ja) 並列データ処理システム
JP2024506441A (ja) 正規化関数のためのデジタル回路機構
JPH07210534A (ja) ニューラルネットワーク
JPH10111791A (ja) 除算装置
JPH08314697A (ja) 符号付き/符号なし数兼用乗算器
CN109388372B (zh) 一种基于最小模块的三值光学处理器msd乘法计算方法
US20200250524A1 (en) System and method for reducing computational complexity of neural network
CN113065648B (zh) 一种低硬件开销的分段线性函数的硬件实现方法
KR940008611B1 (ko) Ieee 754-1985 표준에 따라서 라운딩한 2진 부동 소숫점 연산
US7139786B2 (en) Method and apparatus for efficiently performing a square root operation
US20230385370A1 (en) Method and apparatus for computation on convolutional layer of neural network