JPH02236659A - 半導体情報処理装置 - Google Patents

半導体情報処理装置

Info

Publication number
JPH02236659A
JPH02236659A JP5749489A JP5749489A JPH02236659A JP H02236659 A JPH02236659 A JP H02236659A JP 5749489 A JP5749489 A JP 5749489A JP 5749489 A JP5749489 A JP 5749489A JP H02236659 A JPH02236659 A JP H02236659A
Authority
JP
Japan
Prior art keywords
output
layer
neuron
input
neurons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5749489A
Other languages
English (en)
Inventor
Junji Ogawa
淳二 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP5749489A priority Critical patent/JPH02236659A/ja
Publication of JPH02236659A publication Critical patent/JPH02236659A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Complex Calculations (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 (発明の概要〕 チップ上にニューラルネットワークを形成した半導体情
報処理装置に関し、 ニューロンモデルを節素化し、相互結線問題の解決を図
って、極めて多数のニューロンをチップ上に搭載可能な
、多層化も容易な、ニューロチップを提供することを目
的とし、 半導体チップ上に、!Xn個のセルアレイm個を持つデ
ュアルポートRAMと、共通の積和演算及び閾値処理回
路を設け、該セルアレイに、ニューラルネットワークの
1層の各ニューロンの積和演算用の全重みを格納し、ま
た各ニューロンの人2出力は+1, −1,  Oの3
値を表わす2ビットとし、前記回路は、入力の2ビット
を3値に変換するデコーダと、前記RAM部の各セルア
レイに対して設けられたシフトレジスタおよび該レジス
タのシフト出力を受けるmビットラッチを通して送られ
る重みと該デコーダの3値出力を乗算する乗算器と、乗
算結果の加算器と、1ニューロン分の加算結果を閾値で
3値に変換する比較器とを備える構成とする。
〔産業上の利用分野〕
本発明は、チップ上にニューラルネットワークを形成し
た半導体情報処理装置に関する。
ニューラルネットワークを実現方式で分類すると■ソフ
トウエアシミュレータ・エミュレータ、■アナログ回路
、■デジタル回路(プロセッサ利用専用ハードウエア、
■のアナログの一部をデジタル化したもの)、■光素子
・光電変換利用のもの、等とすることができる。
またニューラルネットワークを処理のタイプで分類する
と■ホップフィールド(Hopfteld)型ネットワ
ーク、■拡張パーセプトロン型ネットワーク(パックブ
ロパゲーション型)、■その他の連想メモリ型、■構造
化ネットワーク型(コグニトロン・ネオコグニトロン等
、多くの場合■〜■の大規模化、多層化)、などとする
ことができる.本発明は上記■■のタイプのニューロチ
ップに適するものである。
〔従来の技術〕
ニューラノレネットワークは当初ソフトウェアで実現さ
れ、その後ハードウエア化が図られているが、多数のニ
ューロンモデルを持つ大規模回路化はされていないのが
現状である.上記各タイプの特徴を次に列挙する。
アナログ型二 ホップフィールドネットワークを実現す
るべく、バイボーラ,MOS,Sol等の種々の技術で
、重みを抵抗で、ニューロンをオペアンプで実現するよ
うなものが多い。空間的並列性と時間的並列性をともに
備えるが、デバイス化に対しては、ニューロン数のドラ
スティックな増加が現状技術ではうまくゆかない。重み
の可変性にも困難がある。
デジタル型: 汎用プロセッサや並列プロセッサ、もし
《はそれらと高速の積和演算能力を有するDSP (デ
ジタルシグナルプロセッサ》等の組みあわせにより、デ
ジタルニエーラルネットを構成する。拡張バーセプトロ
ン・バックブロバゲーション型により、多くの場合、時
間的並列性は犠牲にしてデジタル計算のメリットと重み
値行列の大規模性・可変性を生かす.しかし積和演算の
完璧さを期するあまり、ニューロン数に対するハードウ
エアの規模・複雑さは依然大きい(最大のものは256
kノードがある)。アナログ型とデジタル型の混在のも
のが登場しているが、現段階ではアナログ型の一部をデ
ジタル化したものが大半である.これらは基本的にホッ
プフィールドネットワークを実現しようとしている。特
に、重み可変にRAMを使う事や、実際の神経素子のパ
ルス入力に対する時間的加重性を持つ事などの展開があ
るがニューロン数の規模に関してはアナログ型などの域
を出ない. 光技術型: 大規模な空間並列性をもつ光演算を利用し
ようとするものである。しかしながら、重みの可変性や
システムの規模がいまだ実用的な段階にない。
ホップフィールド型: これは特徴としてはフィードバ
ックルーブをネットワークとして自己完結的に含み、重
み係数に対称性(Wij=Wjl)を有するものと言え
る。時間要素があり、その平衡後の安定状態がある種の
“制限付き最小値問題”の解になることから注目されて
いる。全てのニューロンの出力が全てのニエーロンの入
力にフィードバックされて、自己連想メモリ的な動作で
平衡に達するため、ハードウエアの実型に際しては、ア
ナログ型が最適である(即ち重みW i jをなんらか
の抵抗素子で実現し、ニューロン1個をオペアンプで実
現する等).応用面としてパターン認識や組合せ問題も
あるが、ハード上は従来のノイマン型コンピュータとの
整合性にも難点があり、大規模なものは実現されていな
い。
拡張パーセブトロン型: 隠れ層と呼ばれるニューロン
層を中間層とする、3層もしくはそれ以上の層数のネッ
トワークである。第14図にその概要を示す.(a)図
のO印はニューロンモデルで、その概要を(b)図に示
す。各層内でのニエーロン相互のフィードバックは全く
ないか、もしくは、全体でごく一部という制限されたフ
ィードバックしかもたない。これによりネットワークと
−しては時間要素がなく、即ち時間的加重性・時間的並
列性という特徴は持たない。この回路は学習型ネットワ
ークとも呼ばれ、ネットワーク内の重みWljを学習に
より最適化し、分散記憶型の認識処理応用を目ざす。特
にパターン認識・文字認識・音声認識で、すでに多くの
応用成果を有する.ただし、学習方法とその学習に費さ
れる時間に難があり、また、適要すべき応用の個々に対
するネットワークの選定方法(層数、各層のニューロン
数、抑制信号の導入、フィードバック)に理論がないた
め、まだ一般に広範に普及したシステムはない.か一る
問題点の解決のみならず応用を広げるためにも、このネ
ットワークをソフトウェアシュミレートするだけでなく
、専用LSI化することが望まれている。特に層数、ニ
ューロン数が増加すると、学習時間は爆発的に増加する
ため、種々の(重み値Wijに対する)学習決定アルゴ
リズムが考察されているが、“バックプロパゲーション
”はそのひとつである。
構造化ネットヮ・−ク型; これは一言で言えば大規模
ニューラルネットワークである。種々のアプローチがあ
り、階層化・構造化が提案されている。特に文字認識に
適したコグニトロン・ネオコグニトロンというモデルが
シミュレートされている.これは簡単に言えば拡張パー
セブトロンの階層化・構造化の型をしているが、“教師
なし学習”をめざすために、“最大検出型仮説”を利用
した大規模ネットワークである。
次に公知文献を列挙すると、デジタルニューロンLSI
化については信学技報IC088−124 (1988
) p43−50.同IC08B−130(198B)
 p89−96.日経マイクロデバイス1988 7月
号p72−78があり、パックプロバゲーション法につ
いては日経エレクトロニクス1987.8月10日号(
階427)pll5−124,  同1988.9月5
日号(隘455) pl53− 160.信学技報IC
08B−126(1986)p57−64がある. またデジタル方式アーキテクチャとしては情報処理学会
誌Vo1.29Na9(1988)p974−983 
、同計算機アーキテクチャ研究会報告71−10(19
88)p69−76、信学技報IC088−129(1
98B)があり、コグ二トロン・ネオコグニトロンにつ
いては信学技報IC088−128(198B) 、信
学会誌Vo1、69 kll(1986)などがある。
〔発明が解決しようとする課題〕
近年、神経回路網を模したニューロチップとして上述の
ように種々のアプローチがとられている.これらは複数
のニューロンに対し、相互結線の重みWtj付けをアナ
ログ的に行なっているものが多い。しかしアナログ回路
方式では精度向上が望めない.また大規模しにく\、多
層構造に対する柔軟性がない. ニューラルネットワークに高度な情報解析を行なわせる
にはニューロン(ノードともいう)数を大にする必要が
あり、ニューロン数が大であると入力層、中間層、・・
・・・・各層間の結線数が膨大になる。ニューロンそれ
自体は禎和回路と閾値処理回路という比較的単純なもの
であるが、それでも個数が数1000以上になるとl゜
チップ上に搭載するのは容易でな《、実現されているの
はせいぜい数10である. 本発明は、ニューロンモデルを簡素化し、相互結線問題
の解決を図って、極めて多数のニューロンをチップ上に
搭載可能な、多層化も容易な、ニューロチップを提供す
ることを目的とするものである。
(課題を解決するための手段〕 第1図に示すように本発明では、半導体チップ上にデュ
アルボートRAMIOと積和演算及び閾値処理回路20
を形成し、該RAMのメモリセルに、ニューラルネット
ワークの1層の各ニューロンの積和演算用の全重みWi
jを格納する.入力層、中間層、・・・・・・のうちの
ある層(こ一では中間層とする)のニューロン数をn、
その前層(本例では入力層)のニューロン数を!とする
と、重みWijはlXn個あり、その各重みをmビット
?表わすと、所要ビット数はj2XnXmである。
これを2×nのセルアレイm個のRAMIOに収容する
デエアルボートRAMであるからこれらのセルアレイC
AYの他に、1ワード線のメモリセル数に等しいビット
数のシフトレジスタSRを、各セルアレイに対して持つ
.これらのシフトレジスタに対して、mビットラッチ1
2を設ける。RDはワード線WLを選択するローデコー
ダ、CDはビットvABLを選択するコラムデコーダ、
AMPはアンプ、DBはデータバッファである。
演算・処理回路20は乗算回路22、加算器24、閾値
処理回路26を備える。このニューロチップの出力従っ
て入力(各層の入/出力)は±1とOの3値とし、これ
を2ビットS0。.S01とS■。
とS口で表わす.従って乗算器22は、セルアレイから
読出した重みWijを入力St。+SL+の+1.−1
または0に従ってそのま\または反転して通し、または
0にするゲート回路である.また閾値処理回路26は、
加算器24の出力を、2つの閾値でチェックして大、中
間、小に応じて+1,0,−1にする比較器である。
〔作用〕
このニューロチップは次のように動作する。説明上この
チップは中間層を構成し、入力層のニューロン数はl1
中間層のニューロン数はnとし、重みWijはmビット
とする。デュアルボート囲^Hでは1ワード線を選択す
るとそのワード線に属する全メモリセルの記憶データが
読出され、トランスファゲー}TGを開くと、それらが
m個のシフトレジスタへ同時に(並列に)ロードされる
。従って本例では1つの中間層のニューロンの重みWi
jが全部m個のシフトレジスタSRヘロードされること
になる。
mビットラッチ12はm個のシフトレジスタSRのシフ
トアウト出力を受け、従って重みWijを1つずつ逐次
取込むことになる。入力層の各ニューロンの出力S五。
+Silは中間層へシリアル転送され、これらは逐次ラ
ッチ31.32に取込まれ、デコーダ33で+1,−1
.0のいずれかにデコードされ、乗算器22でWijと
乗算される.この乗算はWiJを、W i j , −
 W i j ,または0にする処理であり、高速に行
なえる。LSI化された乗算回路は規模が大きくなり、
チップの一部を借りて搭載することは容易でない。
加算器24は乗算結果を逐次足し込んで行く.ラッチ3
4はこのためのもので、前の加算結果を保持し、加算器
24はこれと今回の乗算器22の出力とを加算し、結果
をラッチ34に蓄える。加算結果はmより大きいMビッ
トで表わす。
シフトレジスタSRに取込んだ、中間層の1ニューロン
の全重みW i jについての積和演算が終わると、比
較器26でその加算結果に対するラッチ35からの比較
レベルB.Bzによる+1,−1.0判定処理が行なわ
れる.結果は、各nビット、2個、のシフトレジスタ3
6にシフトインする.次は、セルアレイで次のワード線
が選択され、中間層の次のニューロンに対する積和演算
、閾値処理が行なわれ、結果(これは当該ニューロンの
出力)がシフトレジスタ36にシフトインされる.以下
同様であり、こうして中間層の各二エーロンの出力がシ
フトレジスタ36に格納され、これらが次層への出力S
0。,S0,になる。
このニューロチップは、例えばfXn=5 1 2×5
12とすると各層512個のニューロンのニエーラルネ
ットワークを構成でき、ニエーロン数の飛躍的な向上が
望める。シリアル処理するので、この多数のニューロン
に対する積和、閾値処理回路は1つで、しかも出力を±
1,  Oにしたので乗算回路が簡単になり、1チップ
化が容易である.重みWijを格納するメモリはデュア
ルポートRAMであるから、並列高速読出しが可能で、
また重みWtjの変更(学習)はRAM側(D B @
)からランダムに1つずつ行なうことができる。
〔実施例〕
第2図に本発明のニューロチップNCの概要を示す.S
INは前層のニエーロン出力を受ける入力輸子、sou
rは後層へのニエーロン出力端子である。これらは前述
のようにS!。とS!l+  sO。とSolの各2ビ
ットである。SCLKはシフトレジスタ等のシフトクロ
ック、TRはトランスファゲートを開閉する転送信号、
■は演算イネーブル信号の各人力端子である。A O 
−A 8はデュアルボートRAMのアドレス信号、DO
〜D8は同入出力データ、RASはローアドレスストロ
ーブ、CASはコラムアドレスストローブ、WEはライ
トイネーブル、OEは出力イネーブル、BSETはラッ
チへの比較レベルB,,B.のセット信号である.本例
ではデュアルボートRAMのセルアレイは512×5 
1 2X4としており、従ってロー、コラムともアドレ
スは9ビットである。
第3図に、このニューロチップ3個を用いて3層構造の
バックプロパゲーション型ニューラルネットワークを構
成した例を示す.ニューロチップN C +が入力層、
同Netが中間層、同N C sが出力層になる。この
種のネットワークは図形認識などに適しており、本例で
もこれを行なう.即ち41は画像スキャナで、画像を1
ライン512ピクセルのアナログ信号群とし、A/D変
換器42はこれをデジタルに変換し、前処理回路43は
これを1ピクセル2ビットにする(3値化する)。
44はシフトと転送を行なうコントローラで、シフトク
ロックSCLκ、転送信号TR,および演算イネーブル
信号ENを出力する。45は汎用プロセッサとアクセス
コントローラで、アドレスバスAB1システムバスSB
及び制御線CL,を介してニューロチップNC.−NC
.と接続する。C L 2は第2の制御線で、ゲートG
を開いてニューロチップの出力をプロセッサに取込み、
状態のチェックなどを行なう。重みWijの変更はこの
プロセッサ45が、アドレスバスAB,システムバスS
Bを用いて行なう。
第4図にニューロチップの内部構成の具体例を示す。企
図を通してそうであるが、他の図と同じ部分には同じ符
号が付してある.セルアレイCAYは本例では5 1 
2X5 1 2構成で、4個ある。
従って4MのデュアルボートRAMである。アドレスは
ロー、コラムとも9ビットで、AO〜A8がそれである
。RALBはローアドレスラッチ&バッファ、CALB
はコラムアドレスラッチ&バッファで、外部から時分割
で送られる9ビットアドレスAO〜A8を取込み、ロー
デコーダRD,コラムデコーダCDへ送る.14は転送
制御回路、l6はI/Oラッチ&バッファ、l8はメモ
リ部全体の制御回路である。
演算処理回路20のG..G.はシフトク口ックSCL
Kのゲート回路である。アンドゲートG+ は演算イネ
ーブル信号ENがL(口−)になると開いてSCLκを
通し、これはクロックSHAになってシフトレジスタS
R等へ入力する。ゲー}Gzはこの逆である。このゲー
トG2の出力クロックSH,及び上記SHAなとのタイ
ムチャートを第5図に示す。
転送制御回路l4は転送信号TRと演算イネーブル信号
ENがH(ハイ)のときトランスファゲートTGを開く
制御を行ない、その後TRがHになるとSHAが発生し
て禎和演算が開始する.TRはH,Lを繰り返し、こう
して最後の(512回目の)積和演算まで行なわれる。
各回の積和演算毎に順序回路37から信号SH,が発生
し、比較器26で閾値処理が行なわれ、この結果がレジ
スタ36に、遅延回路Dによる遅延後に発生する信号S
H.により取込まれる。
レジスタ36のデータ読出しは、信号ENがHになって
発生するクロックSH.により行なわれる.この512
ビットのシフトレジスタ36は循環型になっており、出
力不要のときは単に巡回している. 第3図のニューラルネットワークでは演算イネーブル信
号は各チップ別に与える。第6図にそのタイムチャート
を示す,EN,〜EN.がニューロチップNC,−NC
.へ供給する演算イネーブル信号であり、図示のように
H,L期間がずれている。TR,SCLKは各チップ共
通である。最終結果は制御線CL.の信号TAがHにな
るときシステムバスSBへ取出される。なお加算器24
では15ビット目のキャリーは切捨てとする。
デコーダ33と乗算器22で行なわれる処理を次表に示
す。S.SIはデコーダ入力、M0〜MI3は乗算器出
力である. 表  1 表2 ※l:上位lOビットはOにする ※2:上位10ビットはlにする 4ビット入力2進数の14ビット2の補数を次表に示す
. 2の補数をとるのは、減算を加算にするためである.第
7図にか一る処理をするデコーダと乗算器の回路を示す
,デコーダ33は図示の如く排他オアゲートとアンドゲ
ートからなり、2ビット人力S。Slが異なるときFA
=S. 、PB−S,であるPA,PBを出力し、同じ
ときゼロZを出力して14個のアンドゲート群24cを
閉じ、その出力(積の出力)を0にする.乗算器24は
0〜l3で示す14個のデータセレクタ24aと、14
ビット加算器24bと、14個のアンドゲートの群24
cからなる。
データセレクタは第7図(ト))に示すように2個のア
ンドゲート、1個のオアゲートとインバータを備え、P
B=l,PA=0なら入力INをそのま\、PB=O,
PA=1なら人力INの反転を出力する。またデータセ
レクタの4〜13つまり上位IOピットの入力は0であ
り、0〜3つまり下位4ビットが重みWij(こ\では
W0〜W,で表わす)である。加算器24bの一方の入
力はOO・・・・・・01つまり1である(これは、表
2から明らかなように2の補数が反転+1であり、これ
に対処するもの)。これらにより表1.2の処理が行な
われ、積の演算がなされる.この積演算では繰り返し加
算などはなく、高速処理できる.第8図に閾値処理回路
26の具体例を示す.本発明では積和結果が閾値B+,
Bzと比べて大,中,小で+i,o,−iとするが、コ
ンバレータ26aはB,以上かをチェックし、コンバレ
ータ26bは88以下かをチェックする.前者で出力0
,,08は1,0、後者でO,lであり、いずれでもな
いときは(中間のとき)0.0である。コンバレータ2
6aの出力端A<Bl 、コンバレータ26bの出力端
A≧82は不使用である。
14ビットマグニチュードコンバレータ26a.26b
の具体例を第9図に示す。本例では4ビットマグニチュ
ードコンバレー夕を5個、26A〜26Eを使用して1
4ビットマグニチュードコンパレータとする.26Aで
A14とB14(MSB)、26BでA9〜A13とB
9〜B13、26CでA4〜A8とB4〜B8、26D
でAO〜A3とBO〜B3を比較し、これらの結果を2
6Eで比較して、A<B出力とA≧B出力を生じる.閾
値処理は第14図の従来例ではシグモイド関数で行なう
が、本発明では段階関数で行なう。第10図にこの様子
を示す。入力xjがB+以上なら出力yjは+1、入力
xjが82以下なら出力yjは−1、これらの間なら0
である。十αは入力の上限で、本例では11・・・・・
・1 =8192である.B,は011・・・・・・1
 = +2048、Bz = 1 0・・・・・・01
・・・・・・1=−256などとする。勿論B+,Bz
は任意に変更できる。この閾値関数(階段関数)をfあ
る。
通常のニューロンモデルに対して本発明のニューロンモ
デルは次の特徴がある.■ニューロンの状態(出力)は
±1,φの3値をとる。実際には2ビットで表現する.
■重みWljは15〜Oの正整数値とする。実際には2
進数4ビットで表現する.■閾値関数としては、第10
図のような階段関数を用い、そのために2個の閾値パラ
メータB1, B2 (ともに2進14ビット表現)を
与える(−8192≦82<Bl≦+8192)。以上
の事から、積和演算装置の簡易化(規模小)、高速化が
図られる。このメリットを生かして、積和演算の手続き
を各ニューロンに対し完全並列にせずデュアルボートメ
モリからのシリアル読出しサイクルに直列に処理を行な
うこと(直列化)で、積和演算装置を一元化する。この
一元化でもなおスピードがそこなわれない(8+ms,
/1層).シかも、重み行列メモリと積和演算装置が同
一デバイスに一体化されたことで外部から装置に対する
制御は第5図、第6図のごとく簡単になる。
第12図に他の実施例を示す.第4図と比べて入力ラッ
チ31.32が1ビットでなく、512ビットのシフト
レジスタ31A,32Aである点及びメモリ部のシフト
レジスタSRが各々外部入力端子RIM●〜RIN3と
そのラッチ19を持っている点が異なる。このようにす
ると、■2値化の前処理(第3図の43)を入力層チッ
プNC.で行なわせる。■前処理しないデータをRAM
セルに並列転送して記憶する。このことにより、予め外
部から取り込んだ4ビット/ピクセルの画像データ等を
いつまでも入力層データとして再利用できる(プロセッ
サの他のメモリ空間を消費しない)■このとき乗算器は
全てスルーであるようにSiゆ,Sitを与える(従っ
て出力s0。,s01は3値化出力)。■また、上記手
法時に、入力層のある部分にマスキングを施す時にマス
キングデータをS1。,Sitに与える。■あるいは、
第3図のシステム構成におけるSCLκ,TRという共
通信号を各層ごとに(チップNC1,NCz,・・・・
・・ごとに)分離して供給するようなシステム構成をと
ったときに、ある選択した層のみの解析をする場合、シ
フトレジスタ31A,31Bがあれば、注目層のデバイ
スのみ動作させればよい。(所要入力データはシフトレ
ジスタ31A,31Bに確保されている).そのため、
多層構成時の、デバイス動作によるパワーの低減等がは
かれる、などいくつかの利点やシステム構成に対する柔
軟性がある。
第11図に順序回路37の具体例を示す。この回路37
は第4図、第5図に示すように、各回のニューロン計算
サイクルが終ったとき一定幅のバルスSHcを出力する
.この一定幅は第11図ではモノマルチバイブレータ(
MMB)37a,37bで作る。ENがHになったとき
MMB37bはトリガされて1個のSHcを生じる(た
だし、512番目のSR.に相当する)。これはラッチ
38fをトリガして出力をLにし、アンドゲート37d
を閉じる.次にENはし、TRもLになると、アンドゲ
ート37cの出力はHになるが、一発目のTR=Lは3
8gの作用で除去される。EN=L以降の2発目のTR
=Lがラッチ38fをトリガして出力をHにし、アンド
ゲー}37dを開いてMMB37aをトリガし、パルス
S H cを生じさせる(これが一番目のSH.に相当
する)。この経路のSHcは以降TRがH,  Lを繰
り返す毎に発生する. MMB37a,37bの時定数(出力パルス幅)は異な
っても、同じでもよい。これらは共通化することも可能
である。
本発明では1層の各ニューロンの積和演算に必要な全重
みWijをデュアルボートRAMに持ち、積和演算及び
閾値処理回路は各ニューロンに共通に1つだけ同じチッ
プに設け、シリアル処理するという方法をとっている。
このため512個という多数のニューロンを1層におく
ことができ、しかも結線は第4図などから明らかなよう
に極めて簡潔である。
同じシリアル処理でも、各ニューロンに積和回路等を設
けると第13図の如くなり、回路規模は大型化してしま
う。演算、処理回路の共用化の効果は大きい。
本発明は次の考察をベースにしている。ニューロネット
ワークは、簡単な計算をするユニット(ニューロン)を
多数もち、個々が重み(Wij)付きの方向性リンクで
結合され、情報処理を行うものである.ネットワークを
特徴づけるのは、■結合形態、■重み、■ユニットの出
力関数、である。ハードウエア化するための必要機能と
して、■重み値(Wij)の記憶、■リンクの接続情報
の記憶、■出力状態値(関数)の生成・記憶、■積和演
算機能、がある。このうち、いくつかに機能上、固定か
可変かの選択がある。
本発明では、まず、拡張パーセブトロン型のある一層を
デバイスにLSI化するという前提で、■重み値(Wi
j→Kビット)をデジタルにRAMに記憶し、可変とす
る。層内のニューロン数Nに対しffiXnXmビット
のRAMを持つことで、1層の各ニューロンに対する重
みが全て記憶される。
■リンクの接続情報としては、全て重み値に反映させ、
かつ層内のフィードバック結合は何らデバイス中で有し
ない.■出力状態値(関数)の生成:積和演算後の2進
ビットの集合に対し、比較処理をデジタルに行い、2ビ
ット3値の出力を得る。それをn個分デジタルに記憶す
る。■積和演算機能;上記2ビットのニューロン出力状
態にmビットの重みを乗算し、それをn個分加算する。
特にハードウェア規模を抑えるために、mは小さい値と
する.入出力が3値±1,0であれば乗算は簡単で、乗
算器の規模速度ともにLSI化のボトルネックにはなら
ない。■さらに上記の基本的?件に対し、重み行列(W
ij)の記憶とその呼び出しに対して従来からあるビデ
オ用デュアルポートRAMのシフトレジスタ出力機構を
利用する.それに伴い、前層のニューロンの出力情報の
受け、ならびに当該層のニューロンの出力情報の送り出
しに、各々またはいずれか一方にnX2ビットのシフト
レジスタを利用し、デバイス化されたある一層と、他の
デバイス(前後層)との間の通信手段とする。
次に処理速度の考察を行なう。層数がし、各層のニュー
ロン95(N,ビデオRAMの転送サイクルをTo (
nS)、’19小シフトレジスタサイクルをTs(ns
)、加算器の加算時間は最悪でTADD(nS)とする
と、乗算時間T s u tについては、乗算を±1.
0に限ればほぼT■,≦TADDである。もしTADゎ
≦Ts (nS)に回路を構成できれば、一層の積和演
算はN(To+N−Ts)であり、ニューロネット全体
ではα=LN(To+N−Ts)となる。L=5、N=
5 1 2、To=200nS,Ts=30nSならα
=5X512(200+5 1 2X30)#40mS
である.即ち、Ts=30nSとして.も、512−1
−ユーロン×5層の大規模ネットワークがデバイス5個
で実現でき、処理速度も高々40mSで出力が出る。
〔発明の効果〕
以上説明したように本発明によれば、大規模ニューラル
ネットワークを容易に構成でき、画像処理などに有効で
ある。このニューロチップは各層間のニューロンの相互
結線に悩まされることがななく、ニューロン数の増加、
多層化が容易である。
大規模LSIは4Mから16M、64Mと益々増大する
傾向があり、このようなLSIを用いると1層のニュー
ロン数を数千などに拡大できる。
【図面の簡単な説明】
第1図は本発明の原理図、 第2図は本発明のニューロチップの入出力信号の説明図
、 第3図は本発明のニューロチップでニューラルネットワ
ークを構成した例を示すブロック図、第4図は本発明の
実施例を示すブロック図、第5図は第4図の動作説明用
タイムチャート、第6図は第3図の動作説明用タイムチ
ャート、第7図デコーダと乗算器の具体例を示すブロッ
ク図、 第8図は比較器の具体例を示すブロック図、第9図は第
8図の一部の詳細を示すブロック図、第10図は閾値の
説明図、 第11図は順序回路の説明図、 第12図は本発明の他の実施例を示すブロック図、 第13図は個々に積和回路を設けた場合の説明図、 第14図はニューラルネットワークの説明図である。 第1図で10はデュアルポートRAM,20は積和演算
及び閾値処理回路、22は乗算器、24は加算器、26
は比較器、33はデコーダである。 本発明の二為−ロチップの大一力信号の朕明スュ,−ラ
ルネ,トワークを構成した例を示すプロクク図第3図 第8図〇一部の詳細を示すブロック図 y3 や 闘値の説明図 第10因 頑序回路の説明図 第11図 個々に積和回路k設け念場合のしBEI図(a) 人力層 中間層 出力層 偽) 二翼一ク/モデル 二島−テルネットワークの説明図 第14図

Claims (1)

  1. 【特許請求の範囲】 1、半導体チップ上に、l×n個のセルアレイm個を持
    つデュアルポートRAM(10)と、共通の積和演算及
    び閾値処理回路(20)を設け、該セルアレイに、ニュ
    ーラルネットワークの1層の各ニューロンの積和演算用
    の全重み(Wij)を格納し、また各ニューロンの入、
    出力は+1、−1、0の3値を表わす2ビットとし、 前記回路(20)は、入力の2ビット(S_i_0、S
    _i_1)を3値に変換するデコーダ(33)と、前記
    RAM(10)部の各セルアレイに対して設けられたシ
    フトレジスタ(SR)および該レジスタのシフト出力を
    受けるmビットラッチ(12)を通して送られる重み(
    Wij)と該デコーダの3値出力を乗算する乗算器(2
    2)と、乗算結果の加算器(24)と、1ニューロン分
    の加算結果を閾値(B_1、B_2)で3値に変換する
    比較器(26)とを備えることを特徴とする半導体情報
    処理装置。
JP5749489A 1989-03-09 1989-03-09 半導体情報処理装置 Pending JPH02236659A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5749489A JPH02236659A (ja) 1989-03-09 1989-03-09 半導体情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5749489A JPH02236659A (ja) 1989-03-09 1989-03-09 半導体情報処理装置

Publications (1)

Publication Number Publication Date
JPH02236659A true JPH02236659A (ja) 1990-09-19

Family

ID=13057280

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5749489A Pending JPH02236659A (ja) 1989-03-09 1989-03-09 半導体情報処理装置

Country Status (1)

Country Link
JP (1) JPH02236659A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8832004B2 (en) 2008-12-04 2014-09-09 Canon Kabushiki Kaisha Convolution operation circuit and object recognition apparatus
WO2016194248A1 (ja) * 2015-06-03 2016-12-08 三菱電機株式会社 推論装置及び推論方法
CN110651263A (zh) * 2017-11-21 2020-01-03 谷歌有限责任公司 用于使用具有多个相同的管芯的单片封装处理神经网络任务的设备和机制
US10891108B2 (en) 2018-07-19 2021-01-12 Kabushiki Kaisha Toshiba Calculation device
JP2021507349A (ja) * 2017-12-13 2021-02-22 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 抵抗処理ユニット・アレイのクロスポイント・デバイスに重みを記憶するための方法、そのクロスポイント・デバイス、ニューラル・ネットワークを実施するためのクロスポイント・アレイ、そのシステム、およびニューラル・ネットワークを実施するための方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8832004B2 (en) 2008-12-04 2014-09-09 Canon Kabushiki Kaisha Convolution operation circuit and object recognition apparatus
WO2016194248A1 (ja) * 2015-06-03 2016-12-08 三菱電機株式会社 推論装置及び推論方法
JP6054005B1 (ja) * 2015-06-03 2016-12-27 三菱電機株式会社 推論装置及び推論方法
CN110651263A (zh) * 2017-11-21 2020-01-03 谷歌有限责任公司 用于使用具有多个相同的管芯的单片封装处理神经网络任务的设备和机制
JP2021504770A (ja) * 2017-11-21 2021-02-15 グーグル エルエルシーGoogle LLC 複数の同一のダイを有する単一のチップパッケージを用いてニューラルネットワークタスクを処理するための装置および機構
JP2022137046A (ja) * 2017-11-21 2022-09-21 グーグル エルエルシー 複数の同一のダイを有する単一のチップパッケージを用いてニューラルネットワークタスクを処理するための装置および機構
JP2021507349A (ja) * 2017-12-13 2021-02-22 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 抵抗処理ユニット・アレイのクロスポイント・デバイスに重みを記憶するための方法、そのクロスポイント・デバイス、ニューラル・ネットワークを実施するためのクロスポイント・アレイ、そのシステム、およびニューラル・ネットワークを実施するための方法
US11875249B2 (en) 2017-12-13 2024-01-16 International Business Machines Corporation Counter based resistive processing unit for programmable and reconfigurable artificial-neural-networks
US10891108B2 (en) 2018-07-19 2021-01-12 Kabushiki Kaisha Toshiba Calculation device

Similar Documents

Publication Publication Date Title
US7167890B2 (en) Multiplier-based processor-in-memory architectures for image and graphics processing
US5285524A (en) Neural network with daisy chain control
US5138695A (en) Systolic array image processing system
US7043466B2 (en) Neural network processing system using semiconductor memories
US5444822A (en) Semiconductor integrated circuit device carrying out parallel operational processing with electronically implemented neural network
JPH02170263A (ja) ニユーラルネツト信号処理プロセツサ
Burr Digital neural network implementations
JPH02228784A (ja) ニューロコンピュータにおける学習処理方式
US11157804B2 (en) Superconducting neuromorphic core
Schoenauer et al. Digital neurohardware: Principles and perspectives
JPH05242065A (ja) 情報処理装置及びシステム
Chiang A CCD programmable signal processor
Watanabe et al. A single 1.5-V digital chip for a 10/sup 6/synapse neural network
Graf et al. A CMOS associative memory chip based on neural networks
JPH02236659A (ja) 半導体情報処理装置
EP4360002A1 (en) Compute in memory-based machine learning accelerator architecture
JPH0567060A (ja) ニユーロデバイス
CA2135857A1 (en) Neural network utilizing logarithmic function and method of using same
EP0841621A1 (en) Learning methods in binary systems
Hasan et al. A parallel processing VLSI BAM engine
Jones et al. Toroidal neural network: Architecture and processor granularity issues
Viredaz MANTRA I: An SIMD processor array for neural computation
JPH04182769A (ja) デジタル・ニューロプロセッサ
Lee et al. VLSI image processor using analog programmable synapses and neurons
JPH06203005A (ja) 高速区分化ニューラルネットワーク及びその構築方法