JPH09101944A - ニューラルネットワーク回路 - Google Patents

ニューラルネットワーク回路

Info

Publication number
JPH09101944A
JPH09101944A JP7260340A JP26034095A JPH09101944A JP H09101944 A JPH09101944 A JP H09101944A JP 7260340 A JP7260340 A JP 7260340A JP 26034095 A JP26034095 A JP 26034095A JP H09101944 A JPH09101944 A JP H09101944A
Authority
JP
Japan
Prior art keywords
synapse
coefficient
circuit
value
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7260340A
Other languages
English (en)
Inventor
Kimihisa Aihara
公久 相原
Osamu Fujita
修 藤田
Kuniharu Uchimura
国治 内村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP7260340A priority Critical patent/JPH09101944A/ja
Publication of JPH09101944A publication Critical patent/JPH09101944A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Complex Calculations (AREA)

Abstract

(57)【要約】 【課題】 シナプス演算、累積加算及びシナプス係数更
新の演算量を削減し、これに伴ってメモリへのアクセス
回数も削減する。 【解決手段】 比較器9で微分非線形回路6から出力さ
れる学習係数を“0”と比較し、また、比較器10で学
習誤差演算回路7から出力される学習誤差を“0”と比
較し、学習係数または学習誤差のいずれか一方が“0”
となり、比較器9または10から信号が出力された場
合、制御回路11はシナプス係数更新回路8の動作を停
止することにより、無駄なシナプス係数の更新演算を省
略し、その分、演算量を削減するとともに、それに伴っ
てシナプス係数メモリ1へのアクセス回数を削減する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、シナプス演算回
路、累積回路、非線形回路等からなるニューロン回路を
多数接続して構成されるニューラルネットワーク回路に
関するものである。
【0002】
【従来の技術】ニューラルネットワーク回路は、ニュー
ロン回路を単位として、これを多数接続して構成され
る。1個のニューロン回路は、図1に示すように多入力
(x1,x2,……xn)1出力(y)の回路である。
複数の入力にはそれぞれ対応するシナプス係数(w1,
w2,……wn)があり、入力値とシナプス係数との
積、差の絶対値あるいは差の二乗等の演算を行った後に
累積加算が行われ、累積加算の結果の大きさにより出力
値が決定される。
【0003】出力値を最終的に決定する非線形回路は、
図2に示すような伝達特性を備えている。図2(a) のシ
グモイド関数形が最も汎用性が高いが、演算を簡単化す
るために図2(b) の折れ線形あるいは図2(c) のステッ
プ関数形のように単純化したものや、機能を高めるため
に図2(d) のように非単調形にしたものも使用できる。
なお、図中、Th,Th1,Th2,Th3,Th4は
それぞれ飽和領域境界値である。このニューロン回路の
接続によりニューラルネットワーク回路の構造が決ま
る。
【0004】また、ニューラルネットワーク回路は、前
述したフォワード演算とともに「出力値」、「教師信
号」、「累積加算の結果に微分非線形処理を施した学習
係数」、「シナプス係数」からシナプス係数の更新演算
を行い、シナプス係数を書き換える。このことにより学
習機能を実現している。
【0005】最も一般的に用いられるニューラルネット
ワーク回路は、図3に示すような3層構造の回路であ
る。3層構造の場合には、第2層のニューロン回路の層
を中間層、第3層のニューロン回路の層を出力層と呼ん
でいる。それぞれの入力端子からの信号は全てのニュー
ロン回路に並列に入力され、それぞれのニューロン回路
は並列に入力信号を処理する。入力信号が加えられる
と、特定のニューロン回路が反応して認識等の処理が実
現されるとともに、ニューロン回路の反応と教師信号
(あるべき反応)との差からシナプス係数が更新され学
習が行われる。
【0006】従来、前述したような機能を有する大規模
なニューラルネットワーク回路を具体化する場合、図4
に示すようにマイクロプロセッサとRAMとを組み合わ
せて構成するのが一般的であった。本構成では、シナプ
ス演算、累積加算、非線形処理、シナプス係数の更新を
マイクロプロセッサで行い、シナプス係数はRAMに格
納する。そして、マイクロプロセッサで演算中にシナプ
ス係数が必要となった時点でRAMにアクセスしていく
という処理を行っていた。
【0007】
【発明が解決しようとする課題】このような構成におい
ては、RAMを増設することにより実現可能なニューラ
ルネットワーク回路の規模を拡大でき、プログラムを替
えることにより演算のアルゴリズムを変更することも容
易である。
【0008】しかしながら、その反面、RAMへのシナ
プス係数のアクセス速度が動作速度を規定し、さらに、
ニューラルネットワーク回路の規模が大きくなるとシナ
プス演算、累積加算及びシナプス係数更新の演算量が増
加し、高速動作を妨げる要因の1つとなっていた。
【0009】これは前述した従来の構成では、全てのシ
ナプス結合においてシナプス演算、累積加算、非線形処
理、シナプス係数の更新という全ての演算を省略するこ
となく行っていたため、演算量が膨大となり、また、そ
れに伴うシナプス係数のRAMへのアクセスにも時間を
要するためであった。
【0010】本発明の目的は、シナプス演算、累積加算
及びシナプス係数更新の演算量を計算精度を劣化させる
ことなく削減でき、これに伴ってメモリへのアクセス回
数も削減でき、大規模でかつ高速動作可能なニューラル
ネットワーク回路を提供することにある。
【0011】
【課題を解決するための手段】図5は学習機能に拘る部
分を含むニューロン回路の構成を示すもので、通常、ニ
ューラルネットワーク回路において最も一般的に使用さ
れるバックプロパゲーション学習法による、全結合に対
するシナプス係数の更新演算は、出力層の出力値y
j と、それに対応する教師信号dj (あるべき出力値)
と、学習係数(微分非線形回路の出力)と、更新しよう
とするシナプスへの入力信号及びシナプス係数とを用い
て、下記式(1) 、(2) 、(3) に基づいて行われる。
【0012】即ち、出力層における学習誤差δj
【数3】 と表される。ここで、dj はニューロンjの教師信号、
j はニューロンjの出力値、f´(uj )はニューロ
ンjのシナプス演算の結果の累積加算値に微分非線形処
理を施した結果である。
【0013】中間層では教師信号が存在しないため、中
間層における学習誤差δi は出力層における学習誤差δ
j を用いて
【数4】 と表される。
【0014】また、シナプス係数の更新量ΔWij
【数5】 と表される。ここで、ηは学習パラメータである。
【0015】しかし、ニューラルネットワーク回路にお
ける多数のニューロン回路のうち、学習係数あるいは学
習誤差が“0”となる回路がある。
【0016】そこで、学習係数(微分非線形回路の出
力)が“0”であるか否かを判定する手段と、学習誤差
が“0”であるか否かを判定する手段とを設けて、学習
係数及び学習誤差が共に“0”でない場合のみシナプス
係数の更新演算を実行すれば、必要のないシナプス係数
の更新演算を省略することができ、その分、演算量を削
減できる。また、メモリから読み出すシナプス係数も更
新を必要とするシナプス係数だけで良く、メモリへのア
クセス回数を大幅に削減できる。
【0017】さらにまた、学習係数が“0”となるか否
か(即ち、微分非線形処理した結果が“0”であるか否
か)を、全てのシナプス演算及び累積加算を実行するこ
となく判定することにより、演算量及びメモリへのアク
セス回数をさらに削減することができる。
【0018】具体的には、図6に示すように、微分非線
形回路の伝達特性の「飽和領域では出力が“0”とな
る」という特徴を利用する。シナプス演算の結果を累積
加算する際、図6中の矢印で示すように累積加算値が単
調増加あるいは単調減少となるように演算を実行するこ
とにより、シナプス演算の結果の累積加算の途中で最終
値が伝達特性の飽和領域になるか否かを判定し、飽和領
域になる場合には残りの演算及びシナプス係数の読み出
しを省略することにより、演算量及びメモリへのアクセ
ス回数をさらに削減することができる。
【0019】
【発明の実施の形態】
(第1の実施の形態)図7は本発明の第1の実施の形態
を示すもので、図中、1はシナプス係数メモリ、2はセ
レクタ、3はシナプス演算回路、4は累積回路、5は非
線形回路、6は微分非線形回路、7は学習誤差演算回
路、8はシナプス係数更新回路、9は第1の比較器、1
0は第2の比較器、11は制御回路である。
【0020】シナプス演算回路3の入力にはシナプス係
数メモリ1の出力が接続されるとともにセレクタ2を介
して入力端子が接続されている。シナプス演算回路3の
出力は累積回路4の入力に接続され、累積回路4の出力
は非線形回路5及び微分非線形回路6の入力に接続され
ている。非線形回路5の出力は学習誤差演算回路7の入
力に接続され、微分非線形回路6の出力はシナプス係数
更新回路8及び第1の比較器9に接続されている。
【0021】学習誤差演算回路7の他の入力にはシナプ
ス係数メモリ1の出力及び教師信号が接続され、その出
力はシナプス係数更新回路8及び第2の比較器10に接
続されている。シナプス係数更新回路8の他の入力には
シナプス係数メモリ1の出力が接続されるとともにセレ
クタ2を介して入力端子が接続されている。シナプス係
数更新回路8の出力はシナプス係数メモリ1の入力に接
続されている。
【0022】第1,第2の比較器9,10の他の入力に
はビット“0”がそれぞれ接続され、それらの出力は制
御回路11の入力に接続されている。制御回路11の出
力はシナプス係数メモリ1、セレクタ2及びシナプス係
数更新回路8に接続されている。
【0023】前記構成において、第1の比較器9は微分
非線形回路6から出力される学習係数とビット“0”と
を比較し、学習係数が“0”であれば、これを表す信号
(例えば、ビット“1”)を制御回路11に送出する。
また、第2の比較器10は学習誤差演算回路7から出力
される学習誤差とビット“0”とを比較し、学習誤差が
“0”であれば、これを表す信号を制御回路11に送出
する。制御回路11は第1の比較器9または第2の比較
器10のいずれか一方から信号を受信すると、シナプス
係数更新回路8での演算を停止するように制御する。な
お、その他の動作は従来の場合と同様である。
【0024】このように本形態では、学習係数または学
習誤差のいずれか一方がビット“0”の場合、シナプス
係数の更新演算を省略することができ、その分、演算量
を削減できるとともに、それに伴ってシナプス係数メモ
リへのアクセス回数を削減できる。
【0025】(第2の実施の形態)本形態では、学習係
数がビット“0”となるか否かを、全てのシナプス演算
及び累積加算を実行することなく判定することにより、
演算量及びメモリへのアクセス回数をさらに削減する。
【0026】具体的には、図6に示したように、微分非
線形回路の伝達特性の「飽和領域では出力が“0”とな
る」という特徴を利用する。シナプス演算の結果を累積
加算する際、累積加算値が単調増加あるいは単調減少と
なるように演算を実行することにより、シナプス演算の
結果の累積加算の途中で最終値が伝達特性の飽和領域に
なるか否かを判定し、飽和領域になる場合には残りの演
算及びシナプス係数の読み出しを省略することにより、
演算量及びメモリへのアクセス回数を削減する。
【0027】累積加算の途中結果から最終値が飽和領域
になるか否かを判定するためには、累積加算値が単調増
加あるいは単調減少となる必要がある。通常の演算方法
では入力値とシナプス係数との演算結果は正負共に取り
得るため、単調増加あるいは単調減少の演算を実現する
ことはできない。
【0028】本形態ではこれを解決するため、i番目の
入力からj番目のニューロンへのシナプス係数wijとi
番目の入力xi との係数演算を、wijのMSBからk番
目のビット値を示すwij(k) を用いて下記式(4) のよう
に2の補数で表現し、この2の補数表現の負の部分(第
1項)の合計値を累積演算の初期値として設定し、2の
補数表現の正の部分(第2項)を順次加算することによ
り、累積加算を単調増加演算で実行可能とした。なお、
式(4) 中、mは(シナプス係数のビット長−1)を表
す。
【0029】
【数6】 また、累積加算を単調減少で実現させるためには、
【数7】 というように極性を反転させて演算する。
【0030】図8は前述した演算を可能とする第2の実
施の形態を示すもので、図中、1はシナプス係数メモ
リ、2はセレクタ、3はシナプス演算回路、4は累積回
路、5は非線形回路、6は微分非線形回路、7は学習誤
差演算回路、8はシナプス係数更新回路、9は第1の比
較器、10は第2の比較器、12は飽和領域境界値1保
持用レジスタ、13は飽和領域境界値2保持用レジス
タ、14は第3の比較器、15は第4の比較器、16は
基準出力値1保持用レジスタ、17は基準出力値2保持
用レジスタ、18は基準学習係数(“0”)保持用レジ
スタ、19は第1のスイッチ、20は第2のスイッチ、
21は制御回路である。
【0031】シナプス演算回路3の入力にはシナプス係
数メモリ1の出力が接続されるとともにセレクタ2を介
して入力端子が接続されている。シナプス演算回路3の
出力は累積回路4の入力に接続され、累積回路4の出力
は非線形回路5、微分非線形回路6、第3の比較器14
及び第4の比較器15の入力に接続されている。第3の
比較器14及び第4の比較器15の他の入力には飽和領
域境界値1保持用レジスタ12及び飽和領域境界値2保
持用レジスタ13がそれぞれ接続され、その出力は制御
回路21に接続されている。
【0032】非線形回路5の出力は基準出力値1保持用
レジスタ16及び基準出力値2保持用レジスタ17の出
力とともに第1のスイッチ19を介して学習誤差演算回
路7の入力に接続され、微分非線形回路6の出力は基準
学習係数保持用レジスタ18の出力とともに第2のスイ
ッチ20を介してシナプス係数更新回路8及び第1の比
較器9に接続されている。
【0033】学習誤差演算回路7の他の入力にはシナプ
ス係数メモリ1の出力及び教師信号が接続され、その出
力はシナプス係数更新回路8及び第2の比較器10に接
続されている。シナプス係数更新回路8の他の入力には
シナプス係数メモリ1の出力が接続されるとともにセレ
クタ2を介して入力端子が接続されている。シナプス係
数更新回路8の出力はシナプス係数メモリ1の入力に接
続されている。
【0034】第1,第2の比較器9,10の他の入力に
はビット“0”がそれぞれ接続され、それらの出力は制
御回路21の入力に接続されている。制御回路21の出
力はシナプス係数メモリ1、セレクタ2、第1のスイッ
チ19及び第2のスイッチ20に接続されている。
【0035】前記構成において、シナプス演算回路3及
び累積回路4は入力値全ビットとシナプス係数1ビット
とのシナプス演算及びその累積加算をシナプス係数のM
SBから順番に実行可能な回路とする。この演算法によ
り、入力値全ビットとシナプス係数のMSBとの演算で
式(4) 及び(5) の第1項が計算され、入力値全ビットと
シナプス係数のMSB以外のビットとの演算で第2項が
計算される。従って、累積回路4の出力である累積加算
値は単調増加あるいは単調減少となる。
【0036】累積回路4の出力は、非線形回路5並びに
微分非線形回路6の伝達特性における飽和領域及び過渡
領域の境界値との大小関係が、第3の比較器14及び第
4の比較器15で比較される。
【0037】前記比較結果より、制御回路21は以下の
制御を行う。
【0038】 (1) 累積回路4の出力>飽和領域境界値1の時 ・第1のスイッチ19で基準出力値1保持用レジスタ1
6を選択することにより、基準出力値1を出力とする。 ・第2のスイッチ20で基準学習係数保持用レジスタ1
8を選択することにより、学習係数を“0”とする。 ・以降の演算を省略する。
【0039】 (2) 累積回路4の出力<飽和領域境界値2の時 ・第1のスイッチ19で基準出力値2保持用レジスタ1
7を選択することにより、基準出力値2を出力とする。 ・第2のスイッチ20で基準学習係数保持用レジスタ1
8を選択することにより、学習係数を“0”とする。 ・以降の演算を省略する。
【0040】(3) 飽和領域境界値2<累積回路4の出力
<飽和領域境界値1 ・第1のスイッチ19で非線形回路5を選択する。 ・第2のスイッチ20で微分非線形回路6を選択する。 ・演算を続行する。
【0041】このように本形態では、シナプス演算をシ
ナプス係数の上位ビットから実行させ、累積値が飽和領
域であることが判明した時点で学習係数が“0”となる
か否かを判定し、これによって以降の演算を省略するこ
とができ、演算量をさらに削減できるとともに、それに
伴ってシナプス係数メモリへのアクセス回数をさらに削
減できる。
【0042】
【発明の効果】以上説明したように本発明によれば、学
習係数及び学習誤差が共に“0”でない場合のみシナプ
ス係数の更新演算を実行することにより、必要のないシ
ナプス係数の更新演算を省略することができ、これに伴
ってシナプス係数の読み出しを省略することができ、演
算量を削減できるとともにメモリへのアクセス回数を削
減できる。また、本発明によれば、学習係数が“0”と
なるか否かを、全てのシナプス演算及び累積加算を実行
することなく判定することにより、演算量及びメモリへ
のアクセス回数をさらに削減することもでき、学習演算
の高速化及び演算に要する消費電力の低減が可能とな
り、大規模でかつ高速動作可能なニューラルネットワー
ク回路を実現することが可能となる。
【図面の簡単な説明】
【図1】ニューロン回路の構成図
【図2】非線形回路の伝達特性の説明図
【図3】3層構造のニューラルネットワーク回路の構成
【図4】従来のニューラルネットワーク回路の具体的な
構成図
【図5】学習機能に拘る部分を含むニューロン回路の構
成図
【図6】微分非線形回路の伝達特性の説明図
【図7】本発明の第1の実施の形態を示す構成図
【図8】本発明の第2の実施の形態を示す構成図
【符号の説明】
1…シナプス係数メモリ、2…セレクタ、3…シナプス
演算回路、4…累積回路、5…非線形回路、6…微分非
線形回路、7…学習誤差演算回路、8…シナプス係数更
新回路、9,10,14,15…比較器、11,21…
制御回路、12…飽和領域境界値1保持用レジスタ、1
3…飽和領域境界値2保持用レジスタ、16…基準出力
値1保持用レジスタ、17…基準出力値2保持用レジス
タ、18…基準学習係数保持用レジスタ、19,20…
スイッチ。

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 シナプス係数を格納するシナプス係数メ
    モリと、入力値とシナプス係数とのシナプス演算を行う
    シナプス演算回路と、シナプス演算の結果を累積加算す
    る累積回路と、累積回路の出力に所定の非線形処理を行
    う非線形回路と、累積回路の出力に微分非線形処理を行
    って学習係数を求める微分非線形回路と、非線形回路の
    出力、教師信号及びシナプス係数から学習誤差を求める
    学習誤差演算回路と、入力値、シナプス係数、学習係数
    及び学習誤差からシナプス係数の更新演算を行うシナプ
    ス係数更新回路とを備え、多数の入力値とその入力値に
    対応するシナプス係数とのシナプス演算を行った後、演
    算結果を累積加算し、さらに非線形処理を行ってニュー
    ロン出力を決定するとともに、シナプス係数を更新する
    ことにより学習機能を実現するニューラルネットワーク
    回路において、 学習係数及び学習誤差が“0”か否かを判定する判定手
    段と、 学習係数または学習誤差のいずれか一方が“0”の時は
    シナプス係数更新回路の動作を停止させる制御手段とを
    備えたことを特徴とするニューラルネットワーク回路。
  2. 【請求項2】 入力値とその入力値に対応するシナプス
    係数とのシナプス演算を、入力値の全ビットとシナプス
    係数の任意のビットとの間の部分積の計算並びに得られ
    た部分積の加算に分解して行い、かつ該処理を各入力値
    及びシナプス係数毎に行って累積加算する際、該累積加
    算値が単調増加あるいは単調減少となるように演算を実
    行可能なシナプス演算回路及び累積回路と、 任意のシナプス係数の任意のビットをシナプス演算回路
    及び累積回路に供給可能なシナプス係数メモリとを用い
    るとともに、 非線形特性の飽和領域と過渡領域との境界値を保持し、
    この境界値とシナプス演算回路及び累積回路の出力とを
    比較することにより、該出力が飽和領域に到達したか否
    かを判定する判定手段と、 シナプス演算を上位ビットから実行させ、シナプス演算
    回路及び累積回路の出力が飽和領域に到達した時点で演
    算を停止させる制御手段とを備えたことを特徴とする請
    求項1記載のニューラルネットワーク回路。
  3. 【請求項3】 入力値とその入力値に対応するシナプス
    係数とのシナプス演算及びその演算結果の累積加算を、
    i番目の入力からj番目のニューロンへのシナプス係数
    ijとi番目の入力xi との係数演算を、wijのMSB
    からk番目のビット値を示すwij(k) を用いて 【数1】 のように2の補数で表現し(但し、m=シナプス係数の
    ビット長−1)、この2の補数表現の負の部分(第1
    項)の合計値を累積演算の初期値として設定し、2の補
    数表現の正の部分(第2項)を順次加算することによ
    り、累積加算を単調増加演算で実行可能とすることを特
    徴とする請求項2記載のニューラルネットワーク回路。
  4. 【請求項4】 入力値とその入力値に対応するシナプス
    係数とのシナプス演算及びその演算結果の累積加算を、
    i番目の入力からj番目のニューロンへのシナプス係数
    ijとi番目の入力xi との係数演算を、wijのMSB
    からk番目のビット値を示すwij(k) を用いて 【数2】 のように2の補数で表現し(但し、m=シナプス係数の
    ビット長−1)、この2の補数表現の正の部分(第1
    項)の合計値を累積演算の初期値として設定し、2の補
    数表現の負の部分(第2項)を順次加算することによ
    り、累積加算を単調減少演算で実行可能とすることを特
    徴とする請求項2記載のニューラルネットワーク回路。
JP7260340A 1995-10-06 1995-10-06 ニューラルネットワーク回路 Pending JPH09101944A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7260340A JPH09101944A (ja) 1995-10-06 1995-10-06 ニューラルネットワーク回路

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7260340A JPH09101944A (ja) 1995-10-06 1995-10-06 ニューラルネットワーク回路

Publications (1)

Publication Number Publication Date
JPH09101944A true JPH09101944A (ja) 1997-04-15

Family

ID=17346631

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7260340A Pending JPH09101944A (ja) 1995-10-06 1995-10-06 ニューラルネットワーク回路

Country Status (1)

Country Link
JP (1) JPH09101944A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10175947B1 (en) 2017-09-15 2019-01-08 Kabushiki Kaisha Toshiba Arithmetic device
CN111340200A (zh) * 2016-01-20 2020-06-26 中科寒武纪科技股份有限公司 用于执行人工神经网络正向运算的装置和方法
US10853721B2 (en) 2017-01-25 2020-12-01 Kabushiki Kaisha Toshiba Multiplier accumulator, network unit, and network apparatus
US12093807B2 (en) 2019-06-03 2024-09-17 Kabushikiki Kaisha Toshiba Neural network, method of control of neural network, and processor of neural network

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111340200A (zh) * 2016-01-20 2020-06-26 中科寒武纪科技股份有限公司 用于执行人工神经网络正向运算的装置和方法
CN111340200B (zh) * 2016-01-20 2024-05-03 中科寒武纪科技股份有限公司 用于执行人工神经网络正向运算的装置和方法
US10853721B2 (en) 2017-01-25 2020-12-01 Kabushiki Kaisha Toshiba Multiplier accumulator, network unit, and network apparatus
US10175947B1 (en) 2017-09-15 2019-01-08 Kabushiki Kaisha Toshiba Arithmetic device
US12093807B2 (en) 2019-06-03 2024-09-17 Kabushikiki Kaisha Toshiba Neural network, method of control of neural network, and processor of neural network

Similar Documents

Publication Publication Date Title
JP3634023B2 (ja) ニューラル・ネットワーク用の適応型重み調整回路
JPH0738186B2 (ja) 自己拡張形ニユーラル・ネットワーク
EP0664516A2 (en) Neural network with reduced calculation amount
CN111383157A (zh) 图像处理方法、装置、车载运算平台、电子设备及系统
EP0384709B1 (en) Learning Machine
JPH09101944A (ja) ニューラルネットワーク回路
JP3353786B2 (ja) 情報処理装置
CN106067075B (zh) 一种建筑用能负荷预测模型建立、负荷预测方法及其装置
JP3214876B2 (ja) ニューラルネットワークの構成方法およびニューラルネットワーク構築支援システム
CN108573275B (zh) 一种在线分类微服务的构建方法
US5485548A (en) Signal processing apparatus using a hierarchical neural network
CN116992932A (zh) 一种数据片外分块传输的参数化lstm加速系统及其设计方法
JPH05128284A (ja) ニユーロプロセツサ
CN110110853B (zh) 一种深度神经网络压缩方法、装置及计算机可读介质
JPH0830572A (ja) ニューラルネットワーク回路及びこれを用いた演算方法
CN116384452B (zh) 动态网络模型构建方法、装置、设备及存储介质
CN115238873B (zh) 神经网络模型部署方法、装置、计算机设备
JPH05128285A (ja) ニユーロプロセツサ
CN116484924A (zh) 基于fpga的bert网络推断高精度关键算子实现及其组合方式
CN118398089A (zh) 细胞状态迁移过程中的驱动因子识别方法、装置及设备
JPH0981535A (ja) ニューラルネットワークの学習方法
JPH09138786A (ja) ニューラルネットワークの学習装置
CN117250518A (zh) 一种锂电池荷电状态精确估计方法
CN115511066A (zh) 基于氧化锌忆阻器的储备池计算系统
JPH0683798A (ja) 学習認識装置