JPH02236659A - 半導体情報処理装置 - Google Patents
半導体情報処理装置Info
- Publication number
- JPH02236659A JPH02236659A JP5749489A JP5749489A JPH02236659A JP H02236659 A JPH02236659 A JP H02236659A JP 5749489 A JP5749489 A JP 5749489A JP 5749489 A JP5749489 A JP 5749489A JP H02236659 A JPH02236659 A JP H02236659A
- Authority
- JP
- Japan
- Prior art keywords
- output
- layer
- neuron
- input
- neurons
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000004065 semiconductor Substances 0.000 title claims description 5
- 210000002569 neuron Anatomy 0.000 claims abstract description 62
- 238000012545 processing Methods 0.000 claims abstract description 29
- 210000004027 cell Anatomy 0.000 claims abstract description 18
- 238000013528 artificial neural network Methods 0.000 claims description 17
- 230000009977 dual effect Effects 0.000 claims description 9
- 238000003491 array Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 13
- 238000012546 transfer Methods 0.000 description 11
- 238000000034 method Methods 0.000 description 8
- 230000008901 benefit Effects 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 230000000295 complement effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 125000006248 tosyl amino group Chemical group [H]N(*)S(=O)(=O)C1=C([H])C([H])=C(C([H])=C1[H])C([H])([H])[H] 0.000 description 2
- 102100021851 Calbindin Human genes 0.000 description 1
- 101000898082 Homo sapiens Calbindin Proteins 0.000 description 1
- 101000707951 Homo sapiens Ras and Rab interactor 3 Proteins 0.000 description 1
- 101001130458 Homo sapiens Ras-related protein Ral-B Proteins 0.000 description 1
- 101001021643 Pseudozyma antarctica Lipase B Proteins 0.000 description 1
- 102100031439 Ras and Rab interactor 3 Human genes 0.000 description 1
- 102100031425 Ras-related protein Ral-B Human genes 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 102000016914 ras Proteins Human genes 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000013341 scale-up Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Landscapes
- Complex Calculations (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
(発明の概要〕
チップ上にニューラルネットワークを形成した半導体情
報処理装置に関し、 ニューロンモデルを節素化し、相互結線問題の解決を図
って、極めて多数のニューロンをチップ上に搭載可能な
、多層化も容易な、ニューロチップを提供することを目
的とし、 半導体チップ上に、!Xn個のセルアレイm個を持つデ
ュアルポートRAMと、共通の積和演算及び閾値処理回
路を設け、該セルアレイに、ニューラルネットワークの
1層の各ニューロンの積和演算用の全重みを格納し、ま
た各ニューロンの人2出力は+1, −1, Oの3
値を表わす2ビットとし、前記回路は、入力の2ビット
を3値に変換するデコーダと、前記RAM部の各セルア
レイに対して設けられたシフトレジスタおよび該レジス
タのシフト出力を受けるmビットラッチを通して送られ
る重みと該デコーダの3値出力を乗算する乗算器と、乗
算結果の加算器と、1ニューロン分の加算結果を閾値で
3値に変換する比較器とを備える構成とする。
報処理装置に関し、 ニューロンモデルを節素化し、相互結線問題の解決を図
って、極めて多数のニューロンをチップ上に搭載可能な
、多層化も容易な、ニューロチップを提供することを目
的とし、 半導体チップ上に、!Xn個のセルアレイm個を持つデ
ュアルポートRAMと、共通の積和演算及び閾値処理回
路を設け、該セルアレイに、ニューラルネットワークの
1層の各ニューロンの積和演算用の全重みを格納し、ま
た各ニューロンの人2出力は+1, −1, Oの3
値を表わす2ビットとし、前記回路は、入力の2ビット
を3値に変換するデコーダと、前記RAM部の各セルア
レイに対して設けられたシフトレジスタおよび該レジス
タのシフト出力を受けるmビットラッチを通して送られ
る重みと該デコーダの3値出力を乗算する乗算器と、乗
算結果の加算器と、1ニューロン分の加算結果を閾値で
3値に変換する比較器とを備える構成とする。
本発明は、チップ上にニューラルネットワークを形成し
た半導体情報処理装置に関する。
た半導体情報処理装置に関する。
ニューラルネットワークを実現方式で分類すると■ソフ
トウエアシミュレータ・エミュレータ、■アナログ回路
、■デジタル回路(プロセッサ利用専用ハードウエア、
■のアナログの一部をデジタル化したもの)、■光素子
・光電変換利用のもの、等とすることができる。
トウエアシミュレータ・エミュレータ、■アナログ回路
、■デジタル回路(プロセッサ利用専用ハードウエア、
■のアナログの一部をデジタル化したもの)、■光素子
・光電変換利用のもの、等とすることができる。
またニューラルネットワークを処理のタイプで分類する
と■ホップフィールド(Hopfteld)型ネットワ
ーク、■拡張パーセプトロン型ネットワーク(パックブ
ロパゲーション型)、■その他の連想メモリ型、■構造
化ネットワーク型(コグニトロン・ネオコグニトロン等
、多くの場合■〜■の大規模化、多層化)、などとする
ことができる.本発明は上記■■のタイプのニューロチ
ップに適するものである。
と■ホップフィールド(Hopfteld)型ネットワ
ーク、■拡張パーセプトロン型ネットワーク(パックブ
ロパゲーション型)、■その他の連想メモリ型、■構造
化ネットワーク型(コグニトロン・ネオコグニトロン等
、多くの場合■〜■の大規模化、多層化)、などとする
ことができる.本発明は上記■■のタイプのニューロチ
ップに適するものである。
ニューラノレネットワークは当初ソフトウェアで実現さ
れ、その後ハードウエア化が図られているが、多数のニ
ューロンモデルを持つ大規模回路化はされていないのが
現状である.上記各タイプの特徴を次に列挙する。
れ、その後ハードウエア化が図られているが、多数のニ
ューロンモデルを持つ大規模回路化はされていないのが
現状である.上記各タイプの特徴を次に列挙する。
アナログ型二 ホップフィールドネットワークを実現す
るべく、バイボーラ,MOS,Sol等の種々の技術で
、重みを抵抗で、ニューロンをオペアンプで実現するよ
うなものが多い。空間的並列性と時間的並列性をともに
備えるが、デバイス化に対しては、ニューロン数のドラ
スティックな増加が現状技術ではうまくゆかない。重み
の可変性にも困難がある。
るべく、バイボーラ,MOS,Sol等の種々の技術で
、重みを抵抗で、ニューロンをオペアンプで実現するよ
うなものが多い。空間的並列性と時間的並列性をともに
備えるが、デバイス化に対しては、ニューロン数のドラ
スティックな増加が現状技術ではうまくゆかない。重み
の可変性にも困難がある。
デジタル型: 汎用プロセッサや並列プロセッサ、もし
《はそれらと高速の積和演算能力を有するDSP (デ
ジタルシグナルプロセッサ》等の組みあわせにより、デ
ジタルニエーラルネットを構成する。拡張バーセプトロ
ン・バックブロバゲーション型により、多くの場合、時
間的並列性は犠牲にしてデジタル計算のメリットと重み
値行列の大規模性・可変性を生かす.しかし積和演算の
完璧さを期するあまり、ニューロン数に対するハードウ
エアの規模・複雑さは依然大きい(最大のものは256
kノードがある)。アナログ型とデジタル型の混在のも
のが登場しているが、現段階ではアナログ型の一部をデ
ジタル化したものが大半である.これらは基本的にホッ
プフィールドネットワークを実現しようとしている。特
に、重み可変にRAMを使う事や、実際の神経素子のパ
ルス入力に対する時間的加重性を持つ事などの展開があ
るがニューロン数の規模に関してはアナログ型などの域
を出ない. 光技術型: 大規模な空間並列性をもつ光演算を利用し
ようとするものである。しかしながら、重みの可変性や
システムの規模がいまだ実用的な段階にない。
《はそれらと高速の積和演算能力を有するDSP (デ
ジタルシグナルプロセッサ》等の組みあわせにより、デ
ジタルニエーラルネットを構成する。拡張バーセプトロ
ン・バックブロバゲーション型により、多くの場合、時
間的並列性は犠牲にしてデジタル計算のメリットと重み
値行列の大規模性・可変性を生かす.しかし積和演算の
完璧さを期するあまり、ニューロン数に対するハードウ
エアの規模・複雑さは依然大きい(最大のものは256
kノードがある)。アナログ型とデジタル型の混在のも
のが登場しているが、現段階ではアナログ型の一部をデ
ジタル化したものが大半である.これらは基本的にホッ
プフィールドネットワークを実現しようとしている。特
に、重み可変にRAMを使う事や、実際の神経素子のパ
ルス入力に対する時間的加重性を持つ事などの展開があ
るがニューロン数の規模に関してはアナログ型などの域
を出ない. 光技術型: 大規模な空間並列性をもつ光演算を利用し
ようとするものである。しかしながら、重みの可変性や
システムの規模がいまだ実用的な段階にない。
ホップフィールド型: これは特徴としてはフィードバ
ックルーブをネットワークとして自己完結的に含み、重
み係数に対称性(Wij=Wjl)を有するものと言え
る。時間要素があり、その平衡後の安定状態がある種の
“制限付き最小値問題”の解になることから注目されて
いる。全てのニューロンの出力が全てのニエーロンの入
力にフィードバックされて、自己連想メモリ的な動作で
平衡に達するため、ハードウエアの実型に際しては、ア
ナログ型が最適である(即ち重みW i jをなんらか
の抵抗素子で実現し、ニューロン1個をオペアンプで実
現する等).応用面としてパターン認識や組合せ問題も
あるが、ハード上は従来のノイマン型コンピュータとの
整合性にも難点があり、大規模なものは実現されていな
い。
ックルーブをネットワークとして自己完結的に含み、重
み係数に対称性(Wij=Wjl)を有するものと言え
る。時間要素があり、その平衡後の安定状態がある種の
“制限付き最小値問題”の解になることから注目されて
いる。全てのニューロンの出力が全てのニエーロンの入
力にフィードバックされて、自己連想メモリ的な動作で
平衡に達するため、ハードウエアの実型に際しては、ア
ナログ型が最適である(即ち重みW i jをなんらか
の抵抗素子で実現し、ニューロン1個をオペアンプで実
現する等).応用面としてパターン認識や組合せ問題も
あるが、ハード上は従来のノイマン型コンピュータとの
整合性にも難点があり、大規模なものは実現されていな
い。
拡張パーセブトロン型: 隠れ層と呼ばれるニューロン
層を中間層とする、3層もしくはそれ以上の層数のネッ
トワークである。第14図にその概要を示す.(a)図
のO印はニューロンモデルで、その概要を(b)図に示
す。各層内でのニエーロン相互のフィードバックは全く
ないか、もしくは、全体でごく一部という制限されたフ
ィードバックしかもたない。これによりネットワークと
−しては時間要素がなく、即ち時間的加重性・時間的並
列性という特徴は持たない。この回路は学習型ネットワ
ークとも呼ばれ、ネットワーク内の重みWljを学習に
より最適化し、分散記憶型の認識処理応用を目ざす。特
にパターン認識・文字認識・音声認識で、すでに多くの
応用成果を有する.ただし、学習方法とその学習に費さ
れる時間に難があり、また、適要すべき応用の個々に対
するネットワークの選定方法(層数、各層のニューロン
数、抑制信号の導入、フィードバック)に理論がないた
め、まだ一般に広範に普及したシステムはない.か一る
問題点の解決のみならず応用を広げるためにも、このネ
ットワークをソフトウェアシュミレートするだけでなく
、専用LSI化することが望まれている。特に層数、ニ
ューロン数が増加すると、学習時間は爆発的に増加する
ため、種々の(重み値Wijに対する)学習決定アルゴ
リズムが考察されているが、“バックプロパゲーション
”はそのひとつである。
層を中間層とする、3層もしくはそれ以上の層数のネッ
トワークである。第14図にその概要を示す.(a)図
のO印はニューロンモデルで、その概要を(b)図に示
す。各層内でのニエーロン相互のフィードバックは全く
ないか、もしくは、全体でごく一部という制限されたフ
ィードバックしかもたない。これによりネットワークと
−しては時間要素がなく、即ち時間的加重性・時間的並
列性という特徴は持たない。この回路は学習型ネットワ
ークとも呼ばれ、ネットワーク内の重みWljを学習に
より最適化し、分散記憶型の認識処理応用を目ざす。特
にパターン認識・文字認識・音声認識で、すでに多くの
応用成果を有する.ただし、学習方法とその学習に費さ
れる時間に難があり、また、適要すべき応用の個々に対
するネットワークの選定方法(層数、各層のニューロン
数、抑制信号の導入、フィードバック)に理論がないた
め、まだ一般に広範に普及したシステムはない.か一る
問題点の解決のみならず応用を広げるためにも、このネ
ットワークをソフトウェアシュミレートするだけでなく
、専用LSI化することが望まれている。特に層数、ニ
ューロン数が増加すると、学習時間は爆発的に増加する
ため、種々の(重み値Wijに対する)学習決定アルゴ
リズムが考察されているが、“バックプロパゲーション
”はそのひとつである。
構造化ネットヮ・−ク型; これは一言で言えば大規模
ニューラルネットワークである。種々のアプローチがあ
り、階層化・構造化が提案されている。特に文字認識に
適したコグニトロン・ネオコグニトロンというモデルが
シミュレートされている.これは簡単に言えば拡張パー
セブトロンの階層化・構造化の型をしているが、“教師
なし学習”をめざすために、“最大検出型仮説”を利用
した大規模ネットワークである。
ニューラルネットワークである。種々のアプローチがあ
り、階層化・構造化が提案されている。特に文字認識に
適したコグニトロン・ネオコグニトロンというモデルが
シミュレートされている.これは簡単に言えば拡張パー
セブトロンの階層化・構造化の型をしているが、“教師
なし学習”をめざすために、“最大検出型仮説”を利用
した大規模ネットワークである。
次に公知文献を列挙すると、デジタルニューロンLSI
化については信学技報IC088−124 (1988
) p43−50.同IC08B−130(198B)
p89−96.日経マイクロデバイス1988 7月
号p72−78があり、パックプロバゲーション法につ
いては日経エレクトロニクス1987.8月10日号(
階427)pll5−124, 同1988.9月5
日号(隘455) pl53− 160.信学技報IC
08B−126(1986)p57−64がある. またデジタル方式アーキテクチャとしては情報処理学会
誌Vo1.29Na9(1988)p974−983
、同計算機アーキテクチャ研究会報告71−10(19
88)p69−76、信学技報IC088−129(1
98B)があり、コグ二トロン・ネオコグニトロンにつ
いては信学技報IC088−128(198B) 、信
学会誌Vo1、69 kll(1986)などがある。
化については信学技報IC088−124 (1988
) p43−50.同IC08B−130(198B)
p89−96.日経マイクロデバイス1988 7月
号p72−78があり、パックプロバゲーション法につ
いては日経エレクトロニクス1987.8月10日号(
階427)pll5−124, 同1988.9月5
日号(隘455) pl53− 160.信学技報IC
08B−126(1986)p57−64がある. またデジタル方式アーキテクチャとしては情報処理学会
誌Vo1.29Na9(1988)p974−983
、同計算機アーキテクチャ研究会報告71−10(19
88)p69−76、信学技報IC088−129(1
98B)があり、コグ二トロン・ネオコグニトロンにつ
いては信学技報IC088−128(198B) 、信
学会誌Vo1、69 kll(1986)などがある。
近年、神経回路網を模したニューロチップとして上述の
ように種々のアプローチがとられている.これらは複数
のニューロンに対し、相互結線の重みWtj付けをアナ
ログ的に行なっているものが多い。しかしアナログ回路
方式では精度向上が望めない.また大規模しにく\、多
層構造に対する柔軟性がない. ニューラルネットワークに高度な情報解析を行なわせる
にはニューロン(ノードともいう)数を大にする必要が
あり、ニューロン数が大であると入力層、中間層、・・
・・・・各層間の結線数が膨大になる。ニューロンそれ
自体は禎和回路と閾値処理回路という比較的単純なもの
であるが、それでも個数が数1000以上になるとl゜
チップ上に搭載するのは容易でな《、実現されているの
はせいぜい数10である. 本発明は、ニューロンモデルを簡素化し、相互結線問題
の解決を図って、極めて多数のニューロンをチップ上に
搭載可能な、多層化も容易な、ニューロチップを提供す
ることを目的とするものである。
ように種々のアプローチがとられている.これらは複数
のニューロンに対し、相互結線の重みWtj付けをアナ
ログ的に行なっているものが多い。しかしアナログ回路
方式では精度向上が望めない.また大規模しにく\、多
層構造に対する柔軟性がない. ニューラルネットワークに高度な情報解析を行なわせる
にはニューロン(ノードともいう)数を大にする必要が
あり、ニューロン数が大であると入力層、中間層、・・
・・・・各層間の結線数が膨大になる。ニューロンそれ
自体は禎和回路と閾値処理回路という比較的単純なもの
であるが、それでも個数が数1000以上になるとl゜
チップ上に搭載するのは容易でな《、実現されているの
はせいぜい数10である. 本発明は、ニューロンモデルを簡素化し、相互結線問題
の解決を図って、極めて多数のニューロンをチップ上に
搭載可能な、多層化も容易な、ニューロチップを提供す
ることを目的とするものである。
(課題を解決するための手段〕
第1図に示すように本発明では、半導体チップ上にデュ
アルボートRAMIOと積和演算及び閾値処理回路20
を形成し、該RAMのメモリセルに、ニューラルネット
ワークの1層の各ニューロンの積和演算用の全重みWi
jを格納する.入力層、中間層、・・・・・・のうちの
ある層(こ一では中間層とする)のニューロン数をn、
その前層(本例では入力層)のニューロン数を!とする
と、重みWijはlXn個あり、その各重みをmビット
?表わすと、所要ビット数はj2XnXmである。
アルボートRAMIOと積和演算及び閾値処理回路20
を形成し、該RAMのメモリセルに、ニューラルネット
ワークの1層の各ニューロンの積和演算用の全重みWi
jを格納する.入力層、中間層、・・・・・・のうちの
ある層(こ一では中間層とする)のニューロン数をn、
その前層(本例では入力層)のニューロン数を!とする
と、重みWijはlXn個あり、その各重みをmビット
?表わすと、所要ビット数はj2XnXmである。
これを2×nのセルアレイm個のRAMIOに収容する
。
。
デエアルボートRAMであるからこれらのセルアレイC
AYの他に、1ワード線のメモリセル数に等しいビット
数のシフトレジスタSRを、各セルアレイに対して持つ
.これらのシフトレジスタに対して、mビットラッチ1
2を設ける。RDはワード線WLを選択するローデコー
ダ、CDはビットvABLを選択するコラムデコーダ、
AMPはアンプ、DBはデータバッファである。
AYの他に、1ワード線のメモリセル数に等しいビット
数のシフトレジスタSRを、各セルアレイに対して持つ
.これらのシフトレジスタに対して、mビットラッチ1
2を設ける。RDはワード線WLを選択するローデコー
ダ、CDはビットvABLを選択するコラムデコーダ、
AMPはアンプ、DBはデータバッファである。
演算・処理回路20は乗算回路22、加算器24、閾値
処理回路26を備える。このニューロチップの出力従っ
て入力(各層の入/出力)は±1とOの3値とし、これ
を2ビットS0。.S01とS■。
処理回路26を備える。このニューロチップの出力従っ
て入力(各層の入/出力)は±1とOの3値とし、これ
を2ビットS0。.S01とS■。
とS口で表わす.従って乗算器22は、セルアレイから
読出した重みWijを入力St。+SL+の+1.−1
または0に従ってそのま\または反転して通し、または
0にするゲート回路である.また閾値処理回路26は、
加算器24の出力を、2つの閾値でチェックして大、中
間、小に応じて+1,0,−1にする比較器である。
読出した重みWijを入力St。+SL+の+1.−1
または0に従ってそのま\または反転して通し、または
0にするゲート回路である.また閾値処理回路26は、
加算器24の出力を、2つの閾値でチェックして大、中
間、小に応じて+1,0,−1にする比較器である。
このニューロチップは次のように動作する。説明上この
チップは中間層を構成し、入力層のニューロン数はl1
中間層のニューロン数はnとし、重みWijはmビット
とする。デュアルボート囲^Hでは1ワード線を選択す
るとそのワード線に属する全メモリセルの記憶データが
読出され、トランスファゲー}TGを開くと、それらが
m個のシフトレジスタへ同時に(並列に)ロードされる
。従って本例では1つの中間層のニューロンの重みWi
jが全部m個のシフトレジスタSRヘロードされること
になる。
チップは中間層を構成し、入力層のニューロン数はl1
中間層のニューロン数はnとし、重みWijはmビット
とする。デュアルボート囲^Hでは1ワード線を選択す
るとそのワード線に属する全メモリセルの記憶データが
読出され、トランスファゲー}TGを開くと、それらが
m個のシフトレジスタへ同時に(並列に)ロードされる
。従って本例では1つの中間層のニューロンの重みWi
jが全部m個のシフトレジスタSRヘロードされること
になる。
mビットラッチ12はm個のシフトレジスタSRのシフ
トアウト出力を受け、従って重みWijを1つずつ逐次
取込むことになる。入力層の各ニューロンの出力S五。
トアウト出力を受け、従って重みWijを1つずつ逐次
取込むことになる。入力層の各ニューロンの出力S五。
+Silは中間層へシリアル転送され、これらは逐次ラ
ッチ31.32に取込まれ、デコーダ33で+1,−1
.0のいずれかにデコードされ、乗算器22でWijと
乗算される.この乗算はWiJを、W i j , −
W i j ,または0にする処理であり、高速に行
なえる。LSI化された乗算回路は規模が大きくなり、
チップの一部を借りて搭載することは容易でない。
ッチ31.32に取込まれ、デコーダ33で+1,−1
.0のいずれかにデコードされ、乗算器22でWijと
乗算される.この乗算はWiJを、W i j , −
W i j ,または0にする処理であり、高速に行
なえる。LSI化された乗算回路は規模が大きくなり、
チップの一部を借りて搭載することは容易でない。
加算器24は乗算結果を逐次足し込んで行く.ラッチ3
4はこのためのもので、前の加算結果を保持し、加算器
24はこれと今回の乗算器22の出力とを加算し、結果
をラッチ34に蓄える。加算結果はmより大きいMビッ
トで表わす。
4はこのためのもので、前の加算結果を保持し、加算器
24はこれと今回の乗算器22の出力とを加算し、結果
をラッチ34に蓄える。加算結果はmより大きいMビッ
トで表わす。
シフトレジスタSRに取込んだ、中間層の1ニューロン
の全重みW i jについての積和演算が終わると、比
較器26でその加算結果に対するラッチ35からの比較
レベルB.Bzによる+1,−1.0判定処理が行なわ
れる.結果は、各nビット、2個、のシフトレジスタ3
6にシフトインする.次は、セルアレイで次のワード線
が選択され、中間層の次のニューロンに対する積和演算
、閾値処理が行なわれ、結果(これは当該ニューロンの
出力)がシフトレジスタ36にシフトインされる.以下
同様であり、こうして中間層の各二エーロンの出力がシ
フトレジスタ36に格納され、これらが次層への出力S
0。,S0,になる。
の全重みW i jについての積和演算が終わると、比
較器26でその加算結果に対するラッチ35からの比較
レベルB.Bzによる+1,−1.0判定処理が行なわ
れる.結果は、各nビット、2個、のシフトレジスタ3
6にシフトインする.次は、セルアレイで次のワード線
が選択され、中間層の次のニューロンに対する積和演算
、閾値処理が行なわれ、結果(これは当該ニューロンの
出力)がシフトレジスタ36にシフトインされる.以下
同様であり、こうして中間層の各二エーロンの出力がシ
フトレジスタ36に格納され、これらが次層への出力S
0。,S0,になる。
このニューロチップは、例えばfXn=5 1 2×5
12とすると各層512個のニューロンのニエーラルネ
ットワークを構成でき、ニエーロン数の飛躍的な向上が
望める。シリアル処理するので、この多数のニューロン
に対する積和、閾値処理回路は1つで、しかも出力を±
1, Oにしたので乗算回路が簡単になり、1チップ
化が容易である.重みWijを格納するメモリはデュア
ルポートRAMであるから、並列高速読出しが可能で、
また重みWtjの変更(学習)はRAM側(D B @
)からランダムに1つずつ行なうことができる。
12とすると各層512個のニューロンのニエーラルネ
ットワークを構成でき、ニエーロン数の飛躍的な向上が
望める。シリアル処理するので、この多数のニューロン
に対する積和、閾値処理回路は1つで、しかも出力を±
1, Oにしたので乗算回路が簡単になり、1チップ
化が容易である.重みWijを格納するメモリはデュア
ルポートRAMであるから、並列高速読出しが可能で、
また重みWtjの変更(学習)はRAM側(D B @
)からランダムに1つずつ行なうことができる。
第2図に本発明のニューロチップNCの概要を示す.S
INは前層のニエーロン出力を受ける入力輸子、sou
rは後層へのニエーロン出力端子である。これらは前述
のようにS!。とS!l+ sO。とSolの各2ビ
ットである。SCLKはシフトレジスタ等のシフトクロ
ック、TRはトランスファゲートを開閉する転送信号、
■は演算イネーブル信号の各人力端子である。A O
−A 8はデュアルボートRAMのアドレス信号、DO
〜D8は同入出力データ、RASはローアドレスストロ
ーブ、CASはコラムアドレスストローブ、WEはライ
トイネーブル、OEは出力イネーブル、BSETはラッ
チへの比較レベルB,,B.のセット信号である.本例
ではデュアルボートRAMのセルアレイは512×5
1 2X4としており、従ってロー、コラムともアドレ
スは9ビットである。
INは前層のニエーロン出力を受ける入力輸子、sou
rは後層へのニエーロン出力端子である。これらは前述
のようにS!。とS!l+ sO。とSolの各2ビ
ットである。SCLKはシフトレジスタ等のシフトクロ
ック、TRはトランスファゲートを開閉する転送信号、
■は演算イネーブル信号の各人力端子である。A O
−A 8はデュアルボートRAMのアドレス信号、DO
〜D8は同入出力データ、RASはローアドレスストロ
ーブ、CASはコラムアドレスストローブ、WEはライ
トイネーブル、OEは出力イネーブル、BSETはラッ
チへの比較レベルB,,B.のセット信号である.本例
ではデュアルボートRAMのセルアレイは512×5
1 2X4としており、従ってロー、コラムともアドレ
スは9ビットである。
第3図に、このニューロチップ3個を用いて3層構造の
バックプロパゲーション型ニューラルネットワークを構
成した例を示す.ニューロチップN C +が入力層、
同Netが中間層、同N C sが出力層になる。この
種のネットワークは図形認識などに適しており、本例で
もこれを行なう.即ち41は画像スキャナで、画像を1
ライン512ピクセルのアナログ信号群とし、A/D変
換器42はこれをデジタルに変換し、前処理回路43は
これを1ピクセル2ビットにする(3値化する)。
バックプロパゲーション型ニューラルネットワークを構
成した例を示す.ニューロチップN C +が入力層、
同Netが中間層、同N C sが出力層になる。この
種のネットワークは図形認識などに適しており、本例で
もこれを行なう.即ち41は画像スキャナで、画像を1
ライン512ピクセルのアナログ信号群とし、A/D変
換器42はこれをデジタルに変換し、前処理回路43は
これを1ピクセル2ビットにする(3値化する)。
44はシフトと転送を行なうコントローラで、シフトク
ロックSCLκ、転送信号TR,および演算イネーブル
信号ENを出力する。45は汎用プロセッサとアクセス
コントローラで、アドレスバスAB1システムバスSB
及び制御線CL,を介してニューロチップNC.−NC
.と接続する。C L 2は第2の制御線で、ゲートG
を開いてニューロチップの出力をプロセッサに取込み、
状態のチェックなどを行なう。重みWijの変更はこの
プロセッサ45が、アドレスバスAB,システムバスS
Bを用いて行なう。
ロックSCLκ、転送信号TR,および演算イネーブル
信号ENを出力する。45は汎用プロセッサとアクセス
コントローラで、アドレスバスAB1システムバスSB
及び制御線CL,を介してニューロチップNC.−NC
.と接続する。C L 2は第2の制御線で、ゲートG
を開いてニューロチップの出力をプロセッサに取込み、
状態のチェックなどを行なう。重みWijの変更はこの
プロセッサ45が、アドレスバスAB,システムバスS
Bを用いて行なう。
第4図にニューロチップの内部構成の具体例を示す。企
図を通してそうであるが、他の図と同じ部分には同じ符
号が付してある.セルアレイCAYは本例では5 1
2X5 1 2構成で、4個ある。
図を通してそうであるが、他の図と同じ部分には同じ符
号が付してある.セルアレイCAYは本例では5 1
2X5 1 2構成で、4個ある。
従って4MのデュアルボートRAMである。アドレスは
ロー、コラムとも9ビットで、AO〜A8がそれである
。RALBはローアドレスラッチ&バッファ、CALB
はコラムアドレスラッチ&バッファで、外部から時分割
で送られる9ビットアドレスAO〜A8を取込み、ロー
デコーダRD,コラムデコーダCDへ送る.14は転送
制御回路、l6はI/Oラッチ&バッファ、l8はメモ
リ部全体の制御回路である。
ロー、コラムとも9ビットで、AO〜A8がそれである
。RALBはローアドレスラッチ&バッファ、CALB
はコラムアドレスラッチ&バッファで、外部から時分割
で送られる9ビットアドレスAO〜A8を取込み、ロー
デコーダRD,コラムデコーダCDへ送る.14は転送
制御回路、l6はI/Oラッチ&バッファ、l8はメモ
リ部全体の制御回路である。
演算処理回路20のG..G.はシフトク口ックSCL
Kのゲート回路である。アンドゲートG+ は演算イネ
ーブル信号ENがL(口−)になると開いてSCLκを
通し、これはクロックSHAになってシフトレジスタS
R等へ入力する。ゲー}Gzはこの逆である。このゲー
トG2の出力クロックSH,及び上記SHAなとのタイ
ムチャートを第5図に示す。
Kのゲート回路である。アンドゲートG+ は演算イネ
ーブル信号ENがL(口−)になると開いてSCLκを
通し、これはクロックSHAになってシフトレジスタS
R等へ入力する。ゲー}Gzはこの逆である。このゲー
トG2の出力クロックSH,及び上記SHAなとのタイ
ムチャートを第5図に示す。
転送制御回路l4は転送信号TRと演算イネーブル信号
ENがH(ハイ)のときトランスファゲートTGを開く
制御を行ない、その後TRがHになるとSHAが発生し
て禎和演算が開始する.TRはH,Lを繰り返し、こう
して最後の(512回目の)積和演算まで行なわれる。
ENがH(ハイ)のときトランスファゲートTGを開く
制御を行ない、その後TRがHになるとSHAが発生し
て禎和演算が開始する.TRはH,Lを繰り返し、こう
して最後の(512回目の)積和演算まで行なわれる。
各回の積和演算毎に順序回路37から信号SH,が発生
し、比較器26で閾値処理が行なわれ、この結果がレジ
スタ36に、遅延回路Dによる遅延後に発生する信号S
H.により取込まれる。
し、比較器26で閾値処理が行なわれ、この結果がレジ
スタ36に、遅延回路Dによる遅延後に発生する信号S
H.により取込まれる。
レジスタ36のデータ読出しは、信号ENがHになって
発生するクロックSH.により行なわれる.この512
ビットのシフトレジスタ36は循環型になっており、出
力不要のときは単に巡回している. 第3図のニューラルネットワークでは演算イネーブル信
号は各チップ別に与える。第6図にそのタイムチャート
を示す,EN,〜EN.がニューロチップNC,−NC
.へ供給する演算イネーブル信号であり、図示のように
H,L期間がずれている。TR,SCLKは各チップ共
通である。最終結果は制御線CL.の信号TAがHにな
るときシステムバスSBへ取出される。なお加算器24
では15ビット目のキャリーは切捨てとする。
発生するクロックSH.により行なわれる.この512
ビットのシフトレジスタ36は循環型になっており、出
力不要のときは単に巡回している. 第3図のニューラルネットワークでは演算イネーブル信
号は各チップ別に与える。第6図にそのタイムチャート
を示す,EN,〜EN.がニューロチップNC,−NC
.へ供給する演算イネーブル信号であり、図示のように
H,L期間がずれている。TR,SCLKは各チップ共
通である。最終結果は制御線CL.の信号TAがHにな
るときシステムバスSBへ取出される。なお加算器24
では15ビット目のキャリーは切捨てとする。
デコーダ33と乗算器22で行なわれる処理を次表に示
す。S.SIはデコーダ入力、M0〜MI3は乗算器出
力である. 表 1 表2 ※l:上位lOビットはOにする ※2:上位10ビットはlにする 4ビット入力2進数の14ビット2の補数を次表に示す
. 2の補数をとるのは、減算を加算にするためである.第
7図にか一る処理をするデコーダと乗算器の回路を示す
,デコーダ33は図示の如く排他オアゲートとアンドゲ
ートからなり、2ビット人力S。Slが異なるときFA
=S. 、PB−S,であるPA,PBを出力し、同じ
ときゼロZを出力して14個のアンドゲート群24cを
閉じ、その出力(積の出力)を0にする.乗算器24は
0〜l3で示す14個のデータセレクタ24aと、14
ビット加算器24bと、14個のアンドゲートの群24
cからなる。
す。S.SIはデコーダ入力、M0〜MI3は乗算器出
力である. 表 1 表2 ※l:上位lOビットはOにする ※2:上位10ビットはlにする 4ビット入力2進数の14ビット2の補数を次表に示す
. 2の補数をとるのは、減算を加算にするためである.第
7図にか一る処理をするデコーダと乗算器の回路を示す
,デコーダ33は図示の如く排他オアゲートとアンドゲ
ートからなり、2ビット人力S。Slが異なるときFA
=S. 、PB−S,であるPA,PBを出力し、同じ
ときゼロZを出力して14個のアンドゲート群24cを
閉じ、その出力(積の出力)を0にする.乗算器24は
0〜l3で示す14個のデータセレクタ24aと、14
ビット加算器24bと、14個のアンドゲートの群24
cからなる。
データセレクタは第7図(ト))に示すように2個のア
ンドゲート、1個のオアゲートとインバータを備え、P
B=l,PA=0なら入力INをそのま\、PB=O,
PA=1なら人力INの反転を出力する。またデータセ
レクタの4〜13つまり上位IOピットの入力は0であ
り、0〜3つまり下位4ビットが重みWij(こ\では
W0〜W,で表わす)である。加算器24bの一方の入
力はOO・・・・・・01つまり1である(これは、表
2から明らかなように2の補数が反転+1であり、これ
に対処するもの)。これらにより表1.2の処理が行な
われ、積の演算がなされる.この積演算では繰り返し加
算などはなく、高速処理できる.第8図に閾値処理回路
26の具体例を示す.本発明では積和結果が閾値B+,
Bzと比べて大,中,小で+i,o,−iとするが、コ
ンバレータ26aはB,以上かをチェックし、コンバレ
ータ26bは88以下かをチェックする.前者で出力0
,,08は1,0、後者でO,lであり、いずれでもな
いときは(中間のとき)0.0である。コンバレータ2
6aの出力端A<Bl 、コンバレータ26bの出力端
A≧82は不使用である。
ンドゲート、1個のオアゲートとインバータを備え、P
B=l,PA=0なら入力INをそのま\、PB=O,
PA=1なら人力INの反転を出力する。またデータセ
レクタの4〜13つまり上位IOピットの入力は0であ
り、0〜3つまり下位4ビットが重みWij(こ\では
W0〜W,で表わす)である。加算器24bの一方の入
力はOO・・・・・・01つまり1である(これは、表
2から明らかなように2の補数が反転+1であり、これ
に対処するもの)。これらにより表1.2の処理が行な
われ、積の演算がなされる.この積演算では繰り返し加
算などはなく、高速処理できる.第8図に閾値処理回路
26の具体例を示す.本発明では積和結果が閾値B+,
Bzと比べて大,中,小で+i,o,−iとするが、コ
ンバレータ26aはB,以上かをチェックし、コンバレ
ータ26bは88以下かをチェックする.前者で出力0
,,08は1,0、後者でO,lであり、いずれでもな
いときは(中間のとき)0.0である。コンバレータ2
6aの出力端A<Bl 、コンバレータ26bの出力端
A≧82は不使用である。
14ビットマグニチュードコンバレータ26a.26b
の具体例を第9図に示す。本例では4ビットマグニチュ
ードコンバレー夕を5個、26A〜26Eを使用して1
4ビットマグニチュードコンパレータとする.26Aで
A14とB14(MSB)、26BでA9〜A13とB
9〜B13、26CでA4〜A8とB4〜B8、26D
でAO〜A3とBO〜B3を比較し、これらの結果を2
6Eで比較して、A<B出力とA≧B出力を生じる.閾
値処理は第14図の従来例ではシグモイド関数で行なう
が、本発明では段階関数で行なう。第10図にこの様子
を示す。入力xjがB+以上なら出力yjは+1、入力
xjが82以下なら出力yjは−1、これらの間なら0
である。十αは入力の上限で、本例では11・・・・・
・1 =8192である.B,は011・・・・・・1
= +2048、Bz = 1 0・・・・・・01
・・・・・・1=−256などとする。勿論B+,Bz
は任意に変更できる。この閾値関数(階段関数)をfあ
る。
の具体例を第9図に示す。本例では4ビットマグニチュ
ードコンバレー夕を5個、26A〜26Eを使用して1
4ビットマグニチュードコンパレータとする.26Aで
A14とB14(MSB)、26BでA9〜A13とB
9〜B13、26CでA4〜A8とB4〜B8、26D
でAO〜A3とBO〜B3を比較し、これらの結果を2
6Eで比較して、A<B出力とA≧B出力を生じる.閾
値処理は第14図の従来例ではシグモイド関数で行なう
が、本発明では段階関数で行なう。第10図にこの様子
を示す。入力xjがB+以上なら出力yjは+1、入力
xjが82以下なら出力yjは−1、これらの間なら0
である。十αは入力の上限で、本例では11・・・・・
・1 =8192である.B,は011・・・・・・1
= +2048、Bz = 1 0・・・・・・01
・・・・・・1=−256などとする。勿論B+,Bz
は任意に変更できる。この閾値関数(階段関数)をfあ
る。
通常のニューロンモデルに対して本発明のニューロンモ
デルは次の特徴がある.■ニューロンの状態(出力)は
±1,φの3値をとる。実際には2ビットで表現する.
■重みWljは15〜Oの正整数値とする。実際には2
進数4ビットで表現する.■閾値関数としては、第10
図のような階段関数を用い、そのために2個の閾値パラ
メータB1, B2 (ともに2進14ビット表現)を
与える(−8192≦82<Bl≦+8192)。以上
の事から、積和演算装置の簡易化(規模小)、高速化が
図られる。このメリットを生かして、積和演算の手続き
を各ニューロンに対し完全並列にせずデュアルボートメ
モリからのシリアル読出しサイクルに直列に処理を行な
うこと(直列化)で、積和演算装置を一元化する。この
一元化でもなおスピードがそこなわれない(8+ms,
/1層).シかも、重み行列メモリと積和演算装置が同
一デバイスに一体化されたことで外部から装置に対する
制御は第5図、第6図のごとく簡単になる。
デルは次の特徴がある.■ニューロンの状態(出力)は
±1,φの3値をとる。実際には2ビットで表現する.
■重みWljは15〜Oの正整数値とする。実際には2
進数4ビットで表現する.■閾値関数としては、第10
図のような階段関数を用い、そのために2個の閾値パラ
メータB1, B2 (ともに2進14ビット表現)を
与える(−8192≦82<Bl≦+8192)。以上
の事から、積和演算装置の簡易化(規模小)、高速化が
図られる。このメリットを生かして、積和演算の手続き
を各ニューロンに対し完全並列にせずデュアルボートメ
モリからのシリアル読出しサイクルに直列に処理を行な
うこと(直列化)で、積和演算装置を一元化する。この
一元化でもなおスピードがそこなわれない(8+ms,
/1層).シかも、重み行列メモリと積和演算装置が同
一デバイスに一体化されたことで外部から装置に対する
制御は第5図、第6図のごとく簡単になる。
第12図に他の実施例を示す.第4図と比べて入力ラッ
チ31.32が1ビットでなく、512ビットのシフト
レジスタ31A,32Aである点及びメモリ部のシフト
レジスタSRが各々外部入力端子RIM●〜RIN3と
そのラッチ19を持っている点が異なる。このようにす
ると、■2値化の前処理(第3図の43)を入力層チッ
プNC.で行なわせる。■前処理しないデータをRAM
セルに並列転送して記憶する。このことにより、予め外
部から取り込んだ4ビット/ピクセルの画像データ等を
いつまでも入力層データとして再利用できる(プロセッ
サの他のメモリ空間を消費しない)■このとき乗算器は
全てスルーであるようにSiゆ,Sitを与える(従っ
て出力s0。,s01は3値化出力)。■また、上記手
法時に、入力層のある部分にマスキングを施す時にマス
キングデータをS1。,Sitに与える。■あるいは、
第3図のシステム構成におけるSCLκ,TRという共
通信号を各層ごとに(チップNC1,NCz,・・・・
・・ごとに)分離して供給するようなシステム構成をと
ったときに、ある選択した層のみの解析をする場合、シ
フトレジスタ31A,31Bがあれば、注目層のデバイ
スのみ動作させればよい。(所要入力データはシフトレ
ジスタ31A,31Bに確保されている).そのため、
多層構成時の、デバイス動作によるパワーの低減等がは
かれる、などいくつかの利点やシステム構成に対する柔
軟性がある。
チ31.32が1ビットでなく、512ビットのシフト
レジスタ31A,32Aである点及びメモリ部のシフト
レジスタSRが各々外部入力端子RIM●〜RIN3と
そのラッチ19を持っている点が異なる。このようにす
ると、■2値化の前処理(第3図の43)を入力層チッ
プNC.で行なわせる。■前処理しないデータをRAM
セルに並列転送して記憶する。このことにより、予め外
部から取り込んだ4ビット/ピクセルの画像データ等を
いつまでも入力層データとして再利用できる(プロセッ
サの他のメモリ空間を消費しない)■このとき乗算器は
全てスルーであるようにSiゆ,Sitを与える(従っ
て出力s0。,s01は3値化出力)。■また、上記手
法時に、入力層のある部分にマスキングを施す時にマス
キングデータをS1。,Sitに与える。■あるいは、
第3図のシステム構成におけるSCLκ,TRという共
通信号を各層ごとに(チップNC1,NCz,・・・・
・・ごとに)分離して供給するようなシステム構成をと
ったときに、ある選択した層のみの解析をする場合、シ
フトレジスタ31A,31Bがあれば、注目層のデバイ
スのみ動作させればよい。(所要入力データはシフトレ
ジスタ31A,31Bに確保されている).そのため、
多層構成時の、デバイス動作によるパワーの低減等がは
かれる、などいくつかの利点やシステム構成に対する柔
軟性がある。
第11図に順序回路37の具体例を示す。この回路37
は第4図、第5図に示すように、各回のニューロン計算
サイクルが終ったとき一定幅のバルスSHcを出力する
.この一定幅は第11図ではモノマルチバイブレータ(
MMB)37a,37bで作る。ENがHになったとき
MMB37bはトリガされて1個のSHcを生じる(た
だし、512番目のSR.に相当する)。これはラッチ
38fをトリガして出力をLにし、アンドゲート37d
を閉じる.次にENはし、TRもLになると、アンドゲ
ート37cの出力はHになるが、一発目のTR=Lは3
8gの作用で除去される。EN=L以降の2発目のTR
=Lがラッチ38fをトリガして出力をHにし、アンド
ゲー}37dを開いてMMB37aをトリガし、パルス
S H cを生じさせる(これが一番目のSH.に相当
する)。この経路のSHcは以降TRがH, Lを繰
り返す毎に発生する. MMB37a,37bの時定数(出力パルス幅)は異な
っても、同じでもよい。これらは共通化することも可能
である。
は第4図、第5図に示すように、各回のニューロン計算
サイクルが終ったとき一定幅のバルスSHcを出力する
.この一定幅は第11図ではモノマルチバイブレータ(
MMB)37a,37bで作る。ENがHになったとき
MMB37bはトリガされて1個のSHcを生じる(た
だし、512番目のSR.に相当する)。これはラッチ
38fをトリガして出力をLにし、アンドゲート37d
を閉じる.次にENはし、TRもLになると、アンドゲ
ート37cの出力はHになるが、一発目のTR=Lは3
8gの作用で除去される。EN=L以降の2発目のTR
=Lがラッチ38fをトリガして出力をHにし、アンド
ゲー}37dを開いてMMB37aをトリガし、パルス
S H cを生じさせる(これが一番目のSH.に相当
する)。この経路のSHcは以降TRがH, Lを繰
り返す毎に発生する. MMB37a,37bの時定数(出力パルス幅)は異な
っても、同じでもよい。これらは共通化することも可能
である。
本発明では1層の各ニューロンの積和演算に必要な全重
みWijをデュアルボートRAMに持ち、積和演算及び
閾値処理回路は各ニューロンに共通に1つだけ同じチッ
プに設け、シリアル処理するという方法をとっている。
みWijをデュアルボートRAMに持ち、積和演算及び
閾値処理回路は各ニューロンに共通に1つだけ同じチッ
プに設け、シリアル処理するという方法をとっている。
このため512個という多数のニューロンを1層におく
ことができ、しかも結線は第4図などから明らかなよう
に極めて簡潔である。
ことができ、しかも結線は第4図などから明らかなよう
に極めて簡潔である。
同じシリアル処理でも、各ニューロンに積和回路等を設
けると第13図の如くなり、回路規模は大型化してしま
う。演算、処理回路の共用化の効果は大きい。
けると第13図の如くなり、回路規模は大型化してしま
う。演算、処理回路の共用化の効果は大きい。
本発明は次の考察をベースにしている。ニューロネット
ワークは、簡単な計算をするユニット(ニューロン)を
多数もち、個々が重み(Wij)付きの方向性リンクで
結合され、情報処理を行うものである.ネットワークを
特徴づけるのは、■結合形態、■重み、■ユニットの出
力関数、である。ハードウエア化するための必要機能と
して、■重み値(Wij)の記憶、■リンクの接続情報
の記憶、■出力状態値(関数)の生成・記憶、■積和演
算機能、がある。このうち、いくつかに機能上、固定か
可変かの選択がある。
ワークは、簡単な計算をするユニット(ニューロン)を
多数もち、個々が重み(Wij)付きの方向性リンクで
結合され、情報処理を行うものである.ネットワークを
特徴づけるのは、■結合形態、■重み、■ユニットの出
力関数、である。ハードウエア化するための必要機能と
して、■重み値(Wij)の記憶、■リンクの接続情報
の記憶、■出力状態値(関数)の生成・記憶、■積和演
算機能、がある。このうち、いくつかに機能上、固定か
可変かの選択がある。
本発明では、まず、拡張パーセブトロン型のある一層を
デバイスにLSI化するという前提で、■重み値(Wi
j→Kビット)をデジタルにRAMに記憶し、可変とす
る。層内のニューロン数Nに対しffiXnXmビット
のRAMを持つことで、1層の各ニューロンに対する重
みが全て記憶される。
デバイスにLSI化するという前提で、■重み値(Wi
j→Kビット)をデジタルにRAMに記憶し、可変とす
る。層内のニューロン数Nに対しffiXnXmビット
のRAMを持つことで、1層の各ニューロンに対する重
みが全て記憶される。
■リンクの接続情報としては、全て重み値に反映させ、
かつ層内のフィードバック結合は何らデバイス中で有し
ない.■出力状態値(関数)の生成:積和演算後の2進
ビットの集合に対し、比較処理をデジタルに行い、2ビ
ット3値の出力を得る。それをn個分デジタルに記憶す
る。■積和演算機能;上記2ビットのニューロン出力状
態にmビットの重みを乗算し、それをn個分加算する。
かつ層内のフィードバック結合は何らデバイス中で有し
ない.■出力状態値(関数)の生成:積和演算後の2進
ビットの集合に対し、比較処理をデジタルに行い、2ビ
ット3値の出力を得る。それをn個分デジタルに記憶す
る。■積和演算機能;上記2ビットのニューロン出力状
態にmビットの重みを乗算し、それをn個分加算する。
特にハードウェア規模を抑えるために、mは小さい値と
する.入出力が3値±1,0であれば乗算は簡単で、乗
算器の規模速度ともにLSI化のボトルネックにはなら
ない。■さらに上記の基本的?件に対し、重み行列(W
ij)の記憶とその呼び出しに対して従来からあるビデ
オ用デュアルポートRAMのシフトレジスタ出力機構を
利用する.それに伴い、前層のニューロンの出力情報の
受け、ならびに当該層のニューロンの出力情報の送り出
しに、各々またはいずれか一方にnX2ビットのシフト
レジスタを利用し、デバイス化されたある一層と、他の
デバイス(前後層)との間の通信手段とする。
する.入出力が3値±1,0であれば乗算は簡単で、乗
算器の規模速度ともにLSI化のボトルネックにはなら
ない。■さらに上記の基本的?件に対し、重み行列(W
ij)の記憶とその呼び出しに対して従来からあるビデ
オ用デュアルポートRAMのシフトレジスタ出力機構を
利用する.それに伴い、前層のニューロンの出力情報の
受け、ならびに当該層のニューロンの出力情報の送り出
しに、各々またはいずれか一方にnX2ビットのシフト
レジスタを利用し、デバイス化されたある一層と、他の
デバイス(前後層)との間の通信手段とする。
次に処理速度の考察を行なう。層数がし、各層のニュー
ロン95(N,ビデオRAMの転送サイクルをTo (
nS)、’19小シフトレジスタサイクルをTs(ns
)、加算器の加算時間は最悪でTADD(nS)とする
と、乗算時間T s u tについては、乗算を±1.
0に限ればほぼT■,≦TADDである。もしTADゎ
≦Ts (nS)に回路を構成できれば、一層の積和演
算はN(To+N−Ts)であり、ニューロネット全体
ではα=LN(To+N−Ts)となる。L=5、N=
5 1 2、To=200nS,Ts=30nSならα
=5X512(200+5 1 2X30)#40mS
である.即ち、Ts=30nSとして.も、512−1
−ユーロン×5層の大規模ネットワークがデバイス5個
で実現でき、処理速度も高々40mSで出力が出る。
ロン95(N,ビデオRAMの転送サイクルをTo (
nS)、’19小シフトレジスタサイクルをTs(ns
)、加算器の加算時間は最悪でTADD(nS)とする
と、乗算時間T s u tについては、乗算を±1.
0に限ればほぼT■,≦TADDである。もしTADゎ
≦Ts (nS)に回路を構成できれば、一層の積和演
算はN(To+N−Ts)であり、ニューロネット全体
ではα=LN(To+N−Ts)となる。L=5、N=
5 1 2、To=200nS,Ts=30nSならα
=5X512(200+5 1 2X30)#40mS
である.即ち、Ts=30nSとして.も、512−1
−ユーロン×5層の大規模ネットワークがデバイス5個
で実現でき、処理速度も高々40mSで出力が出る。
以上説明したように本発明によれば、大規模ニューラル
ネットワークを容易に構成でき、画像処理などに有効で
ある。このニューロチップは各層間のニューロンの相互
結線に悩まされることがななく、ニューロン数の増加、
多層化が容易である。
ネットワークを容易に構成でき、画像処理などに有効で
ある。このニューロチップは各層間のニューロンの相互
結線に悩まされることがななく、ニューロン数の増加、
多層化が容易である。
大規模LSIは4Mから16M、64Mと益々増大する
傾向があり、このようなLSIを用いると1層のニュー
ロン数を数千などに拡大できる。
傾向があり、このようなLSIを用いると1層のニュー
ロン数を数千などに拡大できる。
第1図は本発明の原理図、
第2図は本発明のニューロチップの入出力信号の説明図
、 第3図は本発明のニューロチップでニューラルネットワ
ークを構成した例を示すブロック図、第4図は本発明の
実施例を示すブロック図、第5図は第4図の動作説明用
タイムチャート、第6図は第3図の動作説明用タイムチ
ャート、第7図デコーダと乗算器の具体例を示すブロッ
ク図、 第8図は比較器の具体例を示すブロック図、第9図は第
8図の一部の詳細を示すブロック図、第10図は閾値の
説明図、 第11図は順序回路の説明図、 第12図は本発明の他の実施例を示すブロック図、 第13図は個々に積和回路を設けた場合の説明図、 第14図はニューラルネットワークの説明図である。 第1図で10はデュアルポートRAM,20は積和演算
及び閾値処理回路、22は乗算器、24は加算器、26
は比較器、33はデコーダである。 本発明の二為−ロチップの大一力信号の朕明スュ,−ラ
ルネ,トワークを構成した例を示すプロクク図第3図 第8図〇一部の詳細を示すブロック図 y3 や 闘値の説明図 第10因 頑序回路の説明図 第11図 個々に積和回路k設け念場合のしBEI図(a) 人力層 中間層 出力層 偽) 二翼一ク/モデル 二島−テルネットワークの説明図 第14図
、 第3図は本発明のニューロチップでニューラルネットワ
ークを構成した例を示すブロック図、第4図は本発明の
実施例を示すブロック図、第5図は第4図の動作説明用
タイムチャート、第6図は第3図の動作説明用タイムチ
ャート、第7図デコーダと乗算器の具体例を示すブロッ
ク図、 第8図は比較器の具体例を示すブロック図、第9図は第
8図の一部の詳細を示すブロック図、第10図は閾値の
説明図、 第11図は順序回路の説明図、 第12図は本発明の他の実施例を示すブロック図、 第13図は個々に積和回路を設けた場合の説明図、 第14図はニューラルネットワークの説明図である。 第1図で10はデュアルポートRAM,20は積和演算
及び閾値処理回路、22は乗算器、24は加算器、26
は比較器、33はデコーダである。 本発明の二為−ロチップの大一力信号の朕明スュ,−ラ
ルネ,トワークを構成した例を示すプロクク図第3図 第8図〇一部の詳細を示すブロック図 y3 や 闘値の説明図 第10因 頑序回路の説明図 第11図 個々に積和回路k設け念場合のしBEI図(a) 人力層 中間層 出力層 偽) 二翼一ク/モデル 二島−テルネットワークの説明図 第14図
Claims (1)
- 【特許請求の範囲】 1、半導体チップ上に、l×n個のセルアレイm個を持
つデュアルポートRAM(10)と、共通の積和演算及
び閾値処理回路(20)を設け、該セルアレイに、ニュ
ーラルネットワークの1層の各ニューロンの積和演算用
の全重み(Wij)を格納し、また各ニューロンの入、
出力は+1、−1、0の3値を表わす2ビットとし、 前記回路(20)は、入力の2ビット(S_i_0、S
_i_1)を3値に変換するデコーダ(33)と、前記
RAM(10)部の各セルアレイに対して設けられたシ
フトレジスタ(SR)および該レジスタのシフト出力を
受けるmビットラッチ(12)を通して送られる重み(
Wij)と該デコーダの3値出力を乗算する乗算器(2
2)と、乗算結果の加算器(24)と、1ニューロン分
の加算結果を閾値(B_1、B_2)で3値に変換する
比較器(26)とを備えることを特徴とする半導体情報
処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5749489A JPH02236659A (ja) | 1989-03-09 | 1989-03-09 | 半導体情報処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5749489A JPH02236659A (ja) | 1989-03-09 | 1989-03-09 | 半導体情報処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH02236659A true JPH02236659A (ja) | 1990-09-19 |
Family
ID=13057280
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5749489A Pending JPH02236659A (ja) | 1989-03-09 | 1989-03-09 | 半導体情報処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH02236659A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8832004B2 (en) | 2008-12-04 | 2014-09-09 | Canon Kabushiki Kaisha | Convolution operation circuit and object recognition apparatus |
WO2016194248A1 (ja) * | 2015-06-03 | 2016-12-08 | 三菱電機株式会社 | 推論装置及び推論方法 |
CN110651263A (zh) * | 2017-11-21 | 2020-01-03 | 谷歌有限责任公司 | 用于使用具有多个相同的管芯的单片封装处理神经网络任务的设备和机制 |
US10891108B2 (en) | 2018-07-19 | 2021-01-12 | Kabushiki Kaisha Toshiba | Calculation device |
JP2021507349A (ja) * | 2017-12-13 | 2021-02-22 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 抵抗処理ユニット・アレイのクロスポイント・デバイスに重みを記憶するための方法、そのクロスポイント・デバイス、ニューラル・ネットワークを実施するためのクロスポイント・アレイ、そのシステム、およびニューラル・ネットワークを実施するための方法 |
-
1989
- 1989-03-09 JP JP5749489A patent/JPH02236659A/ja active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8832004B2 (en) | 2008-12-04 | 2014-09-09 | Canon Kabushiki Kaisha | Convolution operation circuit and object recognition apparatus |
WO2016194248A1 (ja) * | 2015-06-03 | 2016-12-08 | 三菱電機株式会社 | 推論装置及び推論方法 |
JP6054005B1 (ja) * | 2015-06-03 | 2016-12-27 | 三菱電機株式会社 | 推論装置及び推論方法 |
CN110651263A (zh) * | 2017-11-21 | 2020-01-03 | 谷歌有限责任公司 | 用于使用具有多个相同的管芯的单片封装处理神经网络任务的设备和机制 |
JP2021504770A (ja) * | 2017-11-21 | 2021-02-15 | グーグル エルエルシーGoogle LLC | 複数の同一のダイを有する単一のチップパッケージを用いてニューラルネットワークタスクを処理するための装置および機構 |
JP2022137046A (ja) * | 2017-11-21 | 2022-09-21 | グーグル エルエルシー | 複数の同一のダイを有する単一のチップパッケージを用いてニューラルネットワークタスクを処理するための装置および機構 |
JP2021507349A (ja) * | 2017-12-13 | 2021-02-22 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 抵抗処理ユニット・アレイのクロスポイント・デバイスに重みを記憶するための方法、そのクロスポイント・デバイス、ニューラル・ネットワークを実施するためのクロスポイント・アレイ、そのシステム、およびニューラル・ネットワークを実施するための方法 |
US11875249B2 (en) | 2017-12-13 | 2024-01-16 | International Business Machines Corporation | Counter based resistive processing unit for programmable and reconfigurable artificial-neural-networks |
US10891108B2 (en) | 2018-07-19 | 2021-01-12 | Kabushiki Kaisha Toshiba | Calculation device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7167890B2 (en) | Multiplier-based processor-in-memory architectures for image and graphics processing | |
US5285524A (en) | Neural network with daisy chain control | |
US5138695A (en) | Systolic array image processing system | |
US7043466B2 (en) | Neural network processing system using semiconductor memories | |
US5444822A (en) | Semiconductor integrated circuit device carrying out parallel operational processing with electronically implemented neural network | |
JPH02170263A (ja) | ニユーラルネツト信号処理プロセツサ | |
Burr | Digital neural network implementations | |
JPH02228784A (ja) | ニューロコンピュータにおける学習処理方式 | |
US11157804B2 (en) | Superconducting neuromorphic core | |
Schoenauer et al. | Digital neurohardware: Principles and perspectives | |
JPH05242065A (ja) | 情報処理装置及びシステム | |
Chiang | A CCD programmable signal processor | |
Watanabe et al. | A single 1.5-V digital chip for a 10/sup 6/synapse neural network | |
Graf et al. | A CMOS associative memory chip based on neural networks | |
JPH02236659A (ja) | 半導体情報処理装置 | |
EP4360002A1 (en) | Compute in memory-based machine learning accelerator architecture | |
JPH0567060A (ja) | ニユーロデバイス | |
CA2135857A1 (en) | Neural network utilizing logarithmic function and method of using same | |
EP0841621A1 (en) | Learning methods in binary systems | |
Hasan et al. | A parallel processing VLSI BAM engine | |
Jones et al. | Toroidal neural network: Architecture and processor granularity issues | |
Viredaz | MANTRA I: An SIMD processor array for neural computation | |
JPH04182769A (ja) | デジタル・ニューロプロセッサ | |
Lee et al. | VLSI image processor using analog programmable synapses and neurons | |
JPH06203005A (ja) | 高速区分化ニューラルネットワーク及びその構築方法 |