JPH03250244A - 情報処理装置 - Google Patents

情報処理装置

Info

Publication number
JPH03250244A
JPH03250244A JP2119828A JP11982890A JPH03250244A JP H03250244 A JPH03250244 A JP H03250244A JP 2119828 A JP2119828 A JP 2119828A JP 11982890 A JP11982890 A JP 11982890A JP H03250244 A JPH03250244 A JP H03250244A
Authority
JP
Japan
Prior art keywords
circuit
neuron
value
information processing
output value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2119828A
Other languages
English (en)
Other versions
JP3260357B2 (ja
Inventor
Takao Watabe
隆夫 渡部
Katsutaka Kimura
木村 勝高
Kiyoo Ito
清男 伊藤
Yoshiki Kawajiri
良樹 川尻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP11982890A priority Critical patent/JP3260357B2/ja
Priority to US07/634,046 priority patent/US5165009A/en
Priority to EP90125680A priority patent/EP0438800B1/en
Priority to DE69028617T priority patent/DE69028617T2/de
Priority to KR1019910001014A priority patent/KR0178878B1/ko
Publication of JPH03250244A publication Critical patent/JPH03250244A/ja
Priority to US07/938,755 priority patent/US5426757A/en
Priority to US08/369,163 priority patent/US5594916A/en
Priority to US08/723,012 priority patent/US5875347A/en
Priority to US09/198,658 priority patent/US6205556B1/en
Priority to US09/739,758 priority patent/US7043466B2/en
Application granted granted Critical
Publication of JP3260357B2 publication Critical patent/JP3260357B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Memory System (AREA)
  • Dram (AREA)
  • Complex Calculations (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、大規模かつ高速な並列分散処理を実現するた
めのメモリ回路を内蔵した情報処理装置に関するもので
ある。特にニューラルネットワーク情報処理を行なう情
報処理装置に関するものである。
〔従来の技術〕
ニューロコンピユーテイングとよばれるニューラルネッ
トワークを用いた並列分散型情報処理(以下ニューラル
ネットワーク情報処理)は、コンプレックスシステムズ
1 (1987年)第145頁から第168頁(Sej
nowski、 T、 J、、 andRosenbe
rg、 C,R,1987、Parallel net
worksthat 1earn to pronou
nce English text、complexS
ystems 1. pp、145−168)あるいは
ニューラルネットワーク情報処理(産業図書、麻生英樹
著)などに述べられているように音声あるいは画像処理
などの分野において注目を集めている。ニューラルネッ
トワーク情報処理では、ネットワーク状に結合した多数
のニューロンと呼ばれる演算要素が、結合と呼ばれる伝
達線を通じて情報をやりとりして高度な情報処理を行な
う。各々のニューロンでは他のニューロンから送られて
きた情報にニューロン出力値)に対して積あるいは和な
どの単純な演算が行なわれる。各々のニューロン内の演
算、さらには、異なるニューロンの演算も並列に行なう
ことが可能なため、原理的には、高速に情報処理を行な
うことができる特長を持っている。また、ネイチャー3
23−9、(1986年a)第533頁から第535頁
(Rumelhart、 D。
E、、 Hinton、 G、 E、、 and Wi
lliams、 R,J、 1986a。
Learning representations 
by back−propagationerrors
、 Nature 323−9 、 pp、 533−
536 )、あるいはニューラルネットワーク情報処理
(産業図書、麻生英樹著)第2章などに述べられている
ように、望ましい情報処理を行なわせるためにニューロ
ン同志をつなぐ結合の重み値を設定するアルゴリズム(
学習)も提案されているため、目的に応じた様々な情報
処理をさせることができる。
〔発明が解決しようとする課題] まず、ニューラルネットワークの動作原理を2種類の代
表的なネットワークである階層型ネットワークとホップ
フィールド型ネットワークについて説明する。第2図(
a)は、階層型ネットワーク、第3図(a)は、ホップ
フィールド型ネットワークの構造を示したものである。
これらは、どちらもニューロンとニューロン同士をつな
ぐ結合から構成されている。ここでは、ニューロンとい
う用語を用いるが、場合によってはノード、あるいは演
算要素などと呼ばれることもある。結合の矢印の向きは
、ニューロン出力値の伝わる方向を示している。階層型
ネットワークは、第2図(a)に示したように、ニュー
ロンが複数の階層をなすように並び、入力層から出力層
へ向かう方向にのみニューロン出力値が伝わるものであ
る。一方、ホップフィールド型ネットワークは、第3図
(a)に示したように、同じニューロンにニューロン出
力値がフィードバックされるほか、任意の2つのニュー
ロン間で両方向にニューロン出力値が伝わるものである
第2図(b)、第3図(b)にニューロン内で行なわれ
る演算の原理を示した。演算の原理はどちらのネットワ
ークでも同様なので、第2図(b)を用いて階層型ネッ
トワークについて説明する。
第2図(b)は、S+1番目の層内のj番目のニューロ
ンを拡大して示したものである。このニューロン内には
結合を通じて前層、すなわちS番目の層内のニューロン
の出力値V 1 s 、・・・HV I S +・・V
nssが入力される。ここで、nsはS番目の層内のニ
ューロンの数を示している。ニューロン内では入力され
たニューロンの出力値V 1s 、・・・Vss、 ・
・・、V n s sと結合重み値TsJI、’・Ts
a at ”’+ TsJ  nsト(7)積V1sT
S< 11 +++VisT!′i 1+ −t Vn
s 3TSJ nsが乗算機MTにより計算される。つ
ぎに、これらの積とオフセットe J5+lとの和を加
算機ADDにより計算する。
オフセットeJS+xは場合によっては、省略してもよ
い。さらに、その結果を非線形関数回路りに入力してニ
ューロンの出力値VJsesを得る。非線形関数回路り
は第2図(c)あるいは、(d)に示したような特性を
持ち、入力Xに対して出力g(x)を出力する。第2図
(C)は、入力Xがあるしきい値xthを越えるか否か
により2値の出力g1あるいはg2を出力する非線形関
数の例であり、第2図(d)は、シグモイド関数を用い
た例で連続的な出力を出す。非線形関数回路りには、必
要に応じてこの他の特性を持たせることもある。
また、場合によっては、線形の特性を持たせてもよい。
上記の演算の原理は、第3図(b)に示したようにポツ
プフィールド型ネットワークでも同様である。ただし、
ホップフィールド型ネットワークでは、1つのニューロ
ンに1層前のニューロンだけでなく、すべてのニューロ
ンの出力値が入力される。
第2図(a)、(b)より判るように1階層型ネットワ
ークでは、まず、入力層のニューロンの出力値を与えた
あと次の層内のニューロンの出力値が更新され、さらに
次の層内のニューロンの出力値が更新されて1つの処理
が終了する。一方、第3図(a)のようにホップフィー
ルド型ネットワークでは、層というものがないため、そ
れぞれのニューロンは、適当なタイミングで出力値を更
新することができる。このホップフィールド型ネットワ
ークでは、すべてのニューロン出力値を適当に与え、ニ
ューロン出力値が平衡状態となるまでニューロン出力値
の更新を続ける。すべてのニューロンの出力値を同時に
更新するものを同期的なホップフィールド型ネットワー
ク、それぞれのニューロンが5勝手なタイミングで出力
値を更新するものを非同期的なホップフィールド型ネッ
トワークと呼んで区別する。
上記のようなニューラルネットワークの演算を行なうた
めにソフトウェアを用いる方法とハードウェアを用いる
方法とが用いられてきた。ソフトウェアを用いる方法で
は、計算機言語で書かれたプログラムによりニューロン
の演算を行なうので目的に応じてニューロンの数を変え
たりネツトワーりの構造を容易に変えることができる。
しかし、演算を逐次的に行なうためニューロンの数を増
やすと情報処理時間が急激に増加するという欠点があっ
た。たとえば、n個のニューロンを用いたホップフィー
ルド型ネットワークでは、1つのニューロンの出力値を
更新するのにn回の積を計算しなければならない、した
がって、すべてのニューロンの出力値を少なくとも1回
更新するためには、n2回の積を計算する必要がある。
すなわち、ニューロン数nの増大とともに計算量はn2
のオーダーで増加する。その結果、乗算を逐次的に行な
うと情報処理時間もn9のオーダーで増加してしまう。
ハードウェアを用いる方法では、乗算などの演算を行な
うニューロンをハードウェア化することによって、演算
の時間を短縮できる。さらに、ハードウェア化したニュ
ーロンを多数用いることによって演算を並列に行ないさ
らに高速化を図る試みもなされてきた。しかし、ニュー
ロンの数を増やすとニューロン間の信号線にあたる配線
の本数がn8のオーダーで増加するため、大規模なネッ
トワークを実現するのが困難であった。
配線の問題を解決する方法の一例として日経マイクロデ
バイス1989年3月号p、123−129に記載され
たものの原理を第4図に示す。
第4図はアナログニューロプロセッサANPとSRAM
とを用いて3層で各層に3つのニューロンを用いた階層
型ネットワークを構成した例を示している。ANPは、
第2図(b)における乗算機MTと加算機ADDが1つ
ずつと非線形関数回路りなどが1チツプに集積されても
のである。別のチップであるSRAMには、各ニューロ
ンに属する結合重み値が記憶されている。異なる層のニ
ューロンとは、アナログコモンバスと呼ばれる1本の信
号線を使って結合されている。入力層のニューロン出力
値は外部から入力するため、入力層のニューロンに相当
するANPとSRAMは省略されている。
動作は次のようになる。まず、所望の情報処理に必要な
各ANP用の結合重み値を外部から、それぞれのSRA
Mに読み込む9次に入力信号線から、入力層内の1つの
ニューロンの出力値にあたる入力アナログ信号を入力す
る。入力信号は、中間層のニューロンに相当するANP
に直接、並列に入る。入力信号に同期させて、重みデー
タをSRAMから各ANPにデータを読出す。次に2つ
の信号の積を計算しその結果を各ANPに記憶する。つ
づいて、入力層の別のニューロンの出力値にあたる入力
アナログ信号を入力して同様に積を計算しその結果を中
間層の各ANPに記憶されている値に足し合わせる。入
力層の最後のニューロンの出力値にあたる入力アナログ
信号について同様の演算を行なった後に、中間層のニュ
ーロン出力値V x z + V z z + V x
 zをANP内の非線形関数回路により順番に中間層ア
ナログコモンバスに出力し上記と同様の演算を続ける。
最後に出力層のANP内の非線形関数回路により出力層
のニューロン出力値V13. V23. V23を出力
層アナログコモンバスに順番に出力する。
上記のように第4図に示した従来例に依れば、コモンバ
スを時分割で駆動することにより配線の問題を回避する
ことができる。また、1層内のニューロンの数だけの乗
算を並列に行なうことができるので、ハードウェア化に
よる演算スピードの高速化とあいまって情報処理速度を
ソフトウェアによる方法と比べて大幅に上げることがで
きる。
しかし、ANPとSRAMとを別々のチップとしている
ため大規模なネットワークを高密度に実現するのは、困
難である。上記の日経マイクロデバイス1989年3月
号p、129に記載されているように10m角のチップ
上に32ニユーロンを集積することが可能だとしても1
つのニューロンについて加算器2乗算器、非線形関数回
路を1つずつ用意する必要があるため、数百、数千のニ
ューロンを1つのチップ上に集積することば困難である
また、上記従来例では、実際の問題に適用する際に次の
ような問題がある。階層型ネットワークの応用例として
3層のネットワークに英文字を入力してその発音、アク
セントを出力する例がコンブレックスシステムズ1 (
1987年)第145頁から第168頁(Sejnow
ski、 T、 J、、 andRosenberg、
 C,R,1987、Parallel networ
ksthat 1earn to pronounce
 English text、complexSyst
ems 1. pp、 145−168)に述べられて
いる6第1層のニューロン出力値として英文字7文字の
コードが設定され、第3層の26個のニューロンの出力
値として上記7文字の中央の文字の発音、アクセントに
対応するコードを出力するというものである。このよう
な例では、入力によっては、出力層のニューロンの出力
値が、あらかじめ定義しておいた発音、アクセントのコ
ードに一致せずあいまいな値が得られることがある。し
たがって、得られた出力と、すべての発音、アクセント
のコードを比較して最も近いコードを見つけてそれを正
解とする必要がある。このような出力値と出力の期待値
(上記例では発音、アクセントのコード)との比較は、
ニューラルネットワークによるパターン認識などでも同
様に必要となる。上記の従来例ではこの点が考慮されお
らず、実際の問題に適用する際に不便であった。
さらに上記従来例では所望の情報処理に必要な結合重み
値を外部のコンピュータで求めてその結果を第4図のS
RAMに書き込んでいる。従って学習をソフトウェアで
すべて行うため、学習を高速に行うことは困難であった
本発明の目的は、多数のニューロンを含むネットワーク
においてニューロン出力値の計算を、少数の回路を用い
て高速に行なう装置を提供することにある。また、本発
明の他の目的は、ニューロン出力値と期待値を高速に比
較する機能を上記装置に持たせることにある。さらに、
本発明の更に他の目的は学習に必要な演算の少なくとも
1部を処理する機能を上記装置に持たせることにある。
本発明の他の目的は以下の説明及び図面によって、明ら
かにされる。
〔課題を解決するための手段〕
上記課題を解決するために、本発明では、ニューロン出
力値、結合重み値、出力の期待値ならびに学習に必要な
データなどを記憶するメモリ回路。
該メモリ回路に情報を書き込んだり、該メモリ回路より
情報を読出したりするための入出力回路。
該メモリ回路に記憶されている情報を用いて積和および
非線形変換等ニューロン出力値を求めるための演算なら
びに出力値とその期待値の比較、学習に必要な演算など
を行なう演算回路、上記メモリ回路、入出力回路、演算
回路の動作を制御するための制御回路を設けた。上記演
算回路は加算器。
乗算器、非線形関数回路、比較器などのいずれかを少な
くとも1つ以上含んで構成され、積和等ニューロン出力
値を求めるために必要な演算の少なくとも1部を並列に
行なえるようにした。しかも、これらの回路を複数のニ
ューロンで共用させ、時分割で動作させることによって
、複数のニューロン出力値を求めるようにした。また、
上記比較器は、求めたニューロン出力値と出力の期待値
とを並列に比較するようにした。
〔作用〕
上記のように演算回路に含まれる加算器、乗算器、非線
形関数回路を複数のニューロンについて共用したため、
多数のニューロンを用いたニューラルネットワークにお
いてニューロン出力値を計算する装置を少数の回路で実
現することができる。
また、上記演算回路で積和等ニューロン演算の少なくと
も1部を並列に行なうため、情報処理を高速に行なうこ
とができる。また、上記比較器により、得られた出力値
と出力の期待値とを並列に比較することができるため、
得られた出力値と期待値との距離(得られた出力値と期
待値との一致度。
いわゆるハミング距離)を高速に求めることができる。
さらに、学習に必要な演算の少なくとも1部を装置のハ
ードウェアで行うため学習の高速化を図ることができる
〔実施例〕
第1図は、本発明による情報処理装置を半導体チップ上
に集積化した場合の1実施例である。
情報を記憶するメモリ回路、該メモリ回路に情報を書き
込み、及び、該メモリ回路より情報を読出す動作の少な
くとも一方を行なう入出力回路。
ニューロン出力値を求めるための演算、出力値と期待値
との比較(得られた出力値と期待値との一致度、いわゆ
るハミング距離の算定)、あるいは学習に必要な演算な
どを該メモリ回路に記憶されている情報を用いて行う演
算回路、上記メモリ回路、入出力回路、演算回路の動作
を制御するための制御回路を半導体チップ上に集積しで
ある。各ブロックを結ぶバスは1本の配線とは限らず必
要な複数の配線で構成される。上記メモリ回路には、ニ
ューラルネットワーク情報処理に必要な結合重み値、ニ
ューロン高力値、出力の期待値あるいは学習に必要なデ
ータなどを記憶することができる。
本実施例により次のようにしてニューロン出力値の計算
、出力値と期待値との比較、あるいは学習に必要な計算
などニューラルネットワーク情報処理を行なうことがで
きる。
初めにニューロン出力値を計算する方法について述べる
。まず、制御回路により、メモリ回路から演算回路にバ
ス1を通じてニューラルネットワーク情報処理のための
演算を行うのに必要な結合重み値ならびにニューロン出
力値あるいは、オフセットなどを並列に読出す。次に演
算回路によりニューロン出力値を求めるのに必要な積和
、非線形変換などの演算を並列に行ない、得られた結果
を入出力回路を通じてメモリ回路へ書込む。以上の動作
を必要な回数続けてニューロン出力値を求めていく。演
算回路では1回の動作で1つあるいは複数のニューロン
出力値を同時に求めてもよいし、あるいはニューロン出
力値を求める計算の1部を行ってもよい。このようにす
れば、階層型ネットワーク、あるいは同期型、非同期型
のホップフィールド型ネットワークなど様々なニューラ
ルネットワークによる情報処理を行なうことができる。
なお同期型のホップフィールド型ネットワークでは、す
べてのニューロンの出力値を同期的に更新するため、す
べてのニューロンの出力値の更新が終わるまで前回のす
べてのニューロンの出力値を記憶しておく必要がある。
この場合には、前回のすべてのニューロンの出力値をメ
モリ回路に記憶しておいてニューロンの出力値の更新に
使用すればよい。
本実施例によれば、ニューロン出力値を計算するのに必
要な乗算器、加算器、非線形関数回路を必要な個数だけ
演算回路に設けて反復使用すればよいため各ニューロン
毎にこれらの回路を用意する場合に比べて大幅に回路数
を削減できる。例えば、各層が100個のニューロンか
らなる3層の階層型ネットワークを実現するのに第6図
の従来例では5乗算器と加算器ならびに非線形関数回路
を200個ずつ用意しなくてはならないのに対して本実
施例では、最低1つの乗算器と1つの加算器ならびに1
つの非線形関数回路を用意すればよい。速度を上げるた
めに1つのニューロン出力値を更新するのに必要な乗算
を並列に行なうとしても100個の乗算器と1つの加算
器ならびに1つの非線形関数回路を用意すればよい。し
たがって本実施例に依れば従来例に比べて回路数を削減
できる。なお、上記の差はネットワークが大規模になる
ほど大きくなる。ホップフィールド型等他のネットワー
クでも事情は同じである。
ニューロン出力値を求める場合の情報処理速度は、乗算
等の演算速度の他に並列に行なう演算の量が大きく寄与
する。前記したように、たとえば、n個のニューロンを
用いたホップフィールド型ネットワークは、すべてのニ
ューロンの出力値を更新するのにn2回の積を計算しな
くてはならない。
したがって、乗算を逐次的に行なうとすべてのニューロ
ンの出力値を更新するのに少なくとも1回の乗算に要す
る時間のn2倍の時間を要してしまう。その結果、乗算
に要する時間がニューロン数の増大と共にニューロン数
の2乗のオーダーで急速に増加してしまう。階層型ネッ
トワークでも事情は同じである。従って数多くの乗算を
並列に計算することが望ましい。以下では、第1図の実
施例においてニューロン出力値を求めるために乗算を並
列化して情報処理速度を上げるための演算方式の実施例
について説明する。
第5図は演算を並列に行なう1方式について、階層型ネ
ットワーク(a)とホップフィールド型ネットワーク(
b)について説明したものである。
本実施例では、図に示したように1つのニューロン出力
値を求めるために必要な積を並列に計算する。つまり、
1つのニューロンに入力されるニューロン出力値と結合
重み値とを並列にメモリ回路から読出し、それらの積を
並列に計算する。このため、乗算に要する時間はニュー
ロン数の増大と共にニューロン数の1乗のオーダーで増
加する。
したがって、乗算を逐次的に行なう場合に比べて情報処
理時間を大幅に短縮できる。第5図では1つのニューロ
ンの出力値の更新に必要な乗算のみを並列に行なうとし
たが、第1図の実施例は、これに限定されるものではな
く、集積度が許容される範囲で演算回路を追加して複数
のニューロンの出力値の更新を並列に行なってもよいこ
とはもちろんである。その場合は、より高速に情報処理
を行なうことができる。その他第6図に示したように他
の方式で並列に演算を行なうこともできる。
第6図は、階層型ネットワーク(a)とホップフィール
ド型ネットワーク(b)について1つのニューロンの出
力値が入力される複数のニューロンについて乗算を並列
に行なう1実施例を示したものである。この方法では、
ニューロン出力値と結合重み値を並列にメモリ回路から
読出し2ニユーロン出力値の更新に必要な演算を複数の
ニューロンについて少しずつ行なうことになる。そのた
め、非同期型のホップフィールド型ネットワークを実現
することはできないが、第5図の方式と同様に乗算に要
する時間はニューロン数の増大と共にニューロン数のお
よそ1乗のオーダーで増加するため乗算を逐次的に行な
う場合に比べて情報処理時間を大幅に短縮できる。
第4図の従来例でもこの方式で演算を並列に行なってい
るが、以下に述べるように、第1図の構成によれば従来
例に比べてより少数の回路で実現することができる。第
6図に示した方式においては、図中に斜線で示したよう
に各ニューロンにおいて1つの乗算器だけが並列に動作
する。したがって、第1図の実施例では1度に演算を行
なうニューロンの数だけの乗算器を演算回路に設ければ
よく、従来例のようにニューロン毎にすべての乗算器を
設ける場合に比べて少数の回路でこの方式を実現するこ
とができる。例えば、3層で各層に3つのニューロンを
もつ階層型ネットワークでは、乗算器、加算器、非線形
関数回路を6個ずつ設ける従来例に比べて第1図の実施
例を用いると例えば乗算器、加算器、非線形関数回路を
3個ずつ用いるだけで同様の並列化を実現できる。
このように第1図に示した実施例に依れば、演算回路に
含まれる加算器、乗算器、非線形関数回路を複数のニュ
ーロンについて共用することにより、多数のニューロン
を用いたニューラルネットワークと同様な情報処理を行
なう装置を必要最小限の回路で実現することができる。
また、上記演算回路で積和等の演算を並列に行なうこと
により、情報処理を高速に行なうことができる。なお、
演算を並列化するとメモリ回路と演算回路の間のバスの
配線本数を増加して1度に多くのデータを演算回路に送
る必要が生じるが、第1図では、同一のチップ上にメモ
リと演算器を配置しているため、バスの配線本数を増加
することは容易にできる。
これまではニューロン出力値を計算する方法について述
べたが、第1図の実施例によれば、ニューロン出力値と
その期待値との比較を行うこともできる。そのためには
、あらかじめ期待値をメモリ回路に記憶しておき、上記
の方法で得られた出力値との距離の計算を演算回路で行
えばよい。この計算は、期待値と計算値の一致度を計算
するものである。このとき、バス1の本数を増加するこ
とにより、多数のビットからなる期待値と出力値とを同
時に演算回路に読出して並列に処理することは容易にで
きる。このように第1図の実施例によれば外部のコンピ
ュータを用いて1ビツトずつシリアルに比較を行う場合
に比べてパターン認識などの情報処理を高速に行うこと
ができる。
さらに、第1図の実施例によれば学習に必要な演算を演
算回路で行うことにより、ソフトウェアで行う場合に比
べて高速に学習を行うことができる。具体的な実施例に
ついては、後述する。
ニューラルネットワーク情報処理は、結合重み値を換え
ることにより様々な情報処理を行なうことができるとい
う利点を持つ。第1図に示した実施例に依ればメモリ回
路に記憶した結合重み値を書き換えることにより容易に
この利点を活かすことができる。また、メモリ回路の容
量をニューロン出力値の計算に必要な量より大きくして
おくことにより、異なる情報処理に必要な何種類かの結
合重み値をあらかじめ記憶しておくこともできる。
その場合には結合重み値を書き替える時間を失うことな
く連続して異なる種類の情報処理を行うことができると
いうメリットがある。その他、続けて数多くの入力デー
タについて情報処理を行なう場合には、あらかじめ必要
な入力データや、得られたデータをメモリ回路の1部に
記憶しておくこともできる。このようにすれば、1つの
入力データ毎にメモリ回路にデータを読み込み、演算を
行ってその結果を装置外へ出力するという動作を繰り返
す場合に比べて読み込み、演算、出力の動作モードを切
り替える回数が少なく処理時間を短縮することができる
次に、第1図の実施例を基にしたより具体的な実施例に
ついて説明する。説明を簡単にするため、まず、演算回
路にニューロン出力値を計算する機能を持たせる場合に
ついて説明し、最後に比較、あるいは学習の機能を持た
せる方法について述べる。
第7図(a)は、第1図の実施例においてメモリ回路に
格子状のメモリセルアレーを有するものを用いた場合の
1実施例である。第7図(a)においてAは、メモリセ
ルアレーで、複数のデータ線とそれと交差するように配
置した複数のワード線とそれらの所望の交差部に配置さ
れたメモリセルを有し、上記ワード線の1本を選択する
ことにより、上記具なる複数のメモリセルの信号を複数
のデータ線上に読みだすことができる。12は、演算回
路である。10,11,13,14,15゜16は、第
1図の制御回路に相当するものである。
10.15は、それぞれX系アドレス、Y系アドレス用
のアドレスバッファ、11.14は、それぞれX系アド
レス、Y系アドレス用のデコーダ。
ドライバである。13は、メモリセルアレーを制御する
ためのアレー制御回路、16はクロック発生回路であり
、外部から入力される信号をもとにメモリの動作を制御
するためのクロックを発生する。OUTとWRは、それ
ぞれ読出し回路、書込み回路である。チップセレクト/
CSは、このチップの選択信号である。書込み制御信号
/WEは、書込み、読出し動作の切り換え用信号であり
、低レベルで書込み動作、高レベルで読出し動作となる
。/NEは、演算回路制御信号であり、低レベルで演算
回路が起動され、高レベルで演算回路が停止して通常の
メモリとして動作する。以下では。
/NEを高レベルとした状態をメモリモード、低レベル
としたときを演算モードということにする。
メモリモードでは、X系アドレス、Y系アドレスにより
所望のメモリセルを選択し、そのセルに対して書込みデ
ータDIを書き込んだり、セルから情報を読出して読出
しデータDOとして出力することができる。演算モード
では、メモリセルに記憶されている情報を演算回路12
へ読出し、演算回路12の演算の結果もしくは演算の結
果に応じたデータを入力回路を通じてメモリセルへ書き
込むことができる0本実施例によれば、ワード線の1本
を選択することにより、そのワード線上のすべてのメモ
リセルの情報がデータ線に出力される。
したがって、容易に多数の情報を演算回路12に取り込
むことができ、多くの演算を並列に行なうことができる
。本実施例によりニューロン出力値の計算を行うには、
まず、メモリモードとして演算回路を停止し、必要な結
合重み値、ニューロン出力値、オフセットなどをメモリ
回路に書き込んでおく、つぎに演算モードとして演算回
路を起動し、1本のワード線を選択することにより必要
な情報を演算回路に読出す。次にその結果をメモリ回路
に書き込む、さらに演算に必要な情報の読出しと結果の
書込みを必要な回数だけ続ければ、ニューラルネットワ
ーク情報処理を高速に容易に行なうことができる。上記
のように第7図(a)に示した実施例によれば1度に多
くの情報を演算回路に読み込むことができるので、例え
ば、第5図あるいは第6図に示したような方式の並列演
算を行なうのに適している。このように、本実施例によ
れば並列に演算を行なうため高速にニューラルネットワ
ーク情報処理を行なうことができる。さらに、演算回路
12を反復使用することにより複数のニューロンで出力
値の計算回路を共用することができ、容易に高集積化で
きる。
また、複数のワード線上のメモリセルに蓄えた情報を使
って並列に演算を行なう場合には、演算回路内に1次記
憶のためのレジスタを設けておきワード線を持ち上げて
得た情報を1度レジスタに収納して、別のワード線を立
ち上げてその結果読出した情報と合わせて演算を行なう
こともできる。
さらに、第7図(b)に示した実施例のようにメモリ回
路をA、Bの2つ設けることもできる。
第7図(b)において13A、13Bはそれぞれメモリ
セルアレーA、Bを制御するアレー制御回路である。デ
コーダなど他の回路は、図には示していない。第7図(
b)の構成によればメモリセルアレーAとBにおいてワ
ード線を1本ずつ選択することにより両方のワード線上
のメモリセルの情報を演算回路に読み込むことができる
。第7図(b)の構成を用いれば、メモリセルアレーA
にはニューロン出力値、メモリセルアレーBには結合重
み値を収納するなど情報の種類によりメモリアレーを使
いわけることもできるので、読出し、書込みなどの制御
を簡単化することができる。なお、第7図(a)、(b
)の実施例においては。
書き込みデータDIと読出しデータD○を並列に複数扱
えるようにしたり、アレーAとBとで別々に読出し回路
OUTと書込み回路WRを設けてもよい。
第7図(a)、(b)の実施例においてはワード線ある
いは、特定のメモリセルの選択はアドレスにより通常の
メモリと同様に行なうことができる。したがって、アド
レスの選択順を変えることによりさまざまな型のネット
ワークあるいは様々な並列演算の方式などに柔軟に対応
できる。
第7図(a)、(b)の実施例においてメモリ回路とし
てDARMあるいは、SRAMなどの高集積半導体メモ
リを用いることができる。この場合にはメモリ回路に多
くの情報を蓄えることができるので、gt模の大きいネ
ットワークを1チツプに集積化できる。
次に、第7図(b)の構成を用いて階層型ネットワーク
を実現する方法について詳細に述べる。
並列演算の方式としては、第5図(a)の方式を例にと
る0層の数はm層で各層のニューロンの数はn個とする
。なお、説明を簡単にするために第2図(b)あるいは
第3図(b)に示した各ニューロンのオフセットθにつ
いては、ここでは省略する。しかし、第2図(b)ある
いは第3図(b)より明らかなように、各ニューロンの
オフセットθは、各ニューロン毎に入力されるニューロ
ン出力値を1つ増やしてその値を各ニューロンのオフセ
ットθ、対応する結合重み値を1と置き、その積を他の
ニューロン出力値と結合重み値の積の総和に足すことに
よって通常の他のニューロンからの出力値と同様に扱う
ことができる。
第8図(a)はメモリセルと、結合重み値およびニュー
ロン出力値との対応の1実施例を示したものである。D
は非線形関数回路であり、cl。
02 g・・・cnは加算器、ml、m2.・・・mn
は乗算器である。cl、c2.・・・cnは合わせて第
2図(b)における多入力の加算器ADDを構成してい
る。メモリセルアレーAにはニューロン出力値、メモリ
セルアレーBには結合重み値を収納する。図にはニュー
ロン出力値、結合重み値を収納する分のメモリセルのみ
しか示していないが各ニューロンのオフセットθや学習
に必要なデータなどその他のデータを収納する分のメモ
リセルを必要に応じて設けてもよいのはもちろんである
。図に示したように、メモリセルアレーA内のワードi
1sとデータ線iの交差部にあるメモリセルにニューロ
ン出力値VISを収納する。すなわち同じワード線には
、同じ層のニューロン出力値が配置される。メモリセル
アレーBでは、ワードg(s。
j)とデータliの交差部にあるメモリセルに結合重み
値T ’ I Jを収納する。第8図(b)、(C)に
は、非線形関数回路りの入出力特性の1実施例を示しで
ある。第8図(b)は、glとg2の2値の出力を持つ
実施例である。xl+ x2はそれぞれ人力Xの下限値
および上限値を表している。
第8図(b)では、入力Xがxthを越えると出力がg
2でそれ以下だとglになるので、メモリセルとして2
値のものを使うときに適している。
第8図(c)は、glとg2の間にgaとgbの出力を
持つ4値の実施例である6本実施例は、メモリセルとし
て4値のものを使うときに適した例である。gly g
at gby g2の間隔は5図では等間隔としたが必
要に応じて間隔を変えてもよいことはもちろんである。
メモリセルとして連続値の情報、所謂アナログ値を記憶
できるようなものを使う場合には非線形関数回路りとし
て第2図(d)のような特性を持つものを使用してもよ
い。
第8図(d)には、第8図(a)の実施例において入力
層のニューロン出力値から最終層のニューロン出力値を
求めるためのワード線の選択法および書込み先のアドレ
スの対応の1実施例を示しである。以下、第8図(a)
の動作を第8図(d)を用いて説明する。まず、アレー
Aのs = 1のワード線とアレーBの(s、j)= 
(1,1)のワード線を同時に立ち上げる。するとアレ
ーAのデータ&1i=1.2.・・・、nには、入力層
のニューロン出力値V0..V2□、・・・、vn工が
出力される。
一方アレーBのデータ線i=1.2.・・・、nには、
結合重み値T ”xxv T”1□、・・・tT”in
が出力される。それらが乗算器m 1 v m 2 T
・・、mnに入力されてT1□1V、、* T”1□v
、、、”’t T”1nVn1 となりこれらが加算器
c 1 r c 2 e・・、Onに入力される。その
結果(T”□□Vよ、+ T”1゜V21+・・・+T
1□nVnl)が非線形関数回路りに入力される。非線
形関数の出力は書込み回路WR(図では省略)を通じて
アレーA内の書込み先アドレス(s、i)= (2,1
)に対応するメモリセルに書き込まれる。このようにし
て2層目の1番目のニューロン出力値v21の値が計算
される。次に、アレーAのs=1のワード線とアレーB
の(s、j)=(1゜2)のワード線を同時に立ち上げ
る。するとアレーAのデータ線1==1.2.・・・、
nには、入力層のニューロン出力値Villv、□、・
・・、■、1が出力される。一方アレーBのデータ線i
=1.2.・・・nには、結合重み値T1□it  ’
221・・・、Ti□。がT 出力される。それらが乗算器ml、m2.・・・mnに
入力されてT”、、V、1. T”2.Vt□、 −・
・T 1z fiV nlとなりこれらが加算器cl、
c2.・・・cnに入力される。その結果(T”□、V
工、+T1zz Vz□+ ・= + T”zn V 
nWが非線形関数回路りに入力される。非線形関数回路
の出力は書込み回路(図では省略)を通じてアレーA内
の書込み先アドレス(s、i)= (2,2)に対応す
るメモリセルに書き込まれる。こうして2層目の2番目
のニューロン出力値v2□の値が計算される。以上のよ
うな動作を第8図(d)に従って続けていくことにより
すべてのニューロン出力値を求めることができる0本実
施例によれば、演算モードにおいて読出しと書込み動作
を1回ずつ行なうことにより1つのニューロン出力値を
求めることができるため高速にニューラルネットワーク
情報処理を行なうことができる。また、演算回路をすべ
てのニューロンで共用できるため高集積化が可能である
。なお、第8図(d)はメモリセルの割当ての1例を示
したものであり、これに限定されることなく種々の変形
が可能である1例えば、前記したように複数の入力デー
タを連続して処理することもできる。この場合には、入
力層のニューロン出力値は複数組必要である。このため
、アレーAの異なる複数のワード線上に複数の入力デー
タに相当する入力層のニューロン出力値をあらかじめ書
き込んでおいて、順番に使用してもよい。このようにす
れば情報処理の度に入力層のニューロン出力値を読み込
まなくてよいため、連続して高速に情報処理を行なうこ
とができる。
ここではニューロン出力値、結合重み値を蓄えるのに1
つのメモリセルを使用した。したがって、2値のメモリ
セルを使用した場合にはニューロン高力値、結合重み値
として2値の値しか取れないことになる。前記したよう
に多値のメモリセルを使用することによって、ニューロ
ン出力値、結合重み値の値を増やすこともできるが、多
値のメモリセルでは、S/N比の問題などにより信頼性
にかける場合もあり得る。そのような場合には、次に述
べるように、ニューロン出力値、結合重み値を蓄えるの
に複数のメモリセルを使用することもできる。
第9図(a)は、1つのニューロン出力値を蓄えるのに
2個のメモリセル、1つの結合重み値登蓄えるのにq個
のメモリセルを使用した場合の1実施例である0図中の
ly j+ Sなどのニューロン出力値、結合重み値を
示す添字は第8図に示した実施例における添字と対応し
ている。第9図(、)の実施例ではアレーA内の1本の
ワード線上の連続する2個のメモリセルで1つのニュー
ロン出力値を表し、アレーB内の1本のワード線上の連
続するq個のメモリセルで1つの結合重み値を表す。ニ
ューロン出力値の計算は次のように行なわれる。まず、
第8図の実施例と同様に、アレーAのs=1のワード線
とアレーBの(s、j)= (1,1)のワード線を同
時に立ち上げる。するとアレーAの2本のデータ線より
なるデータ線群i=L 21・・・、nには、入力層の
ニューロン出力値v1□、v2□、・・・、■□、を表
す情報が出力され、それらが群ごとに加算器al、a2
.・・・anに入力される。一方アレーBのq本のデー
タ線よりなるデータ線群i=1.2.・・・、nには、
結合重み値T 11.、 Tx、□、・・・、T11n
 を表す情報が出力され、それらが群ごとに加算器bl
、b2゜・・・、bnに入力される。上記した加算器a
l。
a2.−、an、bl、b2. ・・・+ bnにより
、ニューロン出力値V 11 + VZ、+・・・lV
n工、結合重み値T1□0.T’、□、・・・、”rl
lnが合成され図示したように乗算器ml、m2.・・
・、mnに入力されてT11、V 11 F ’r’、
、 vzx l ”’ f T1znvn□を得る。
これらが加算器cl、c2.・・・、cnに入力され、
その結果、CT”□> ■x1”T”zzVzz+”’
+T11□vnよ)が非線形関数回路りに入力される。
非線形関数回路の出力は書込み回路WR(図では省略)
を通じてアレーA内の書込み先アドレス(s、i)= 
(2,1)に対応する2個のメモリセル群に書き込まれ
る。同様な動作を第8図(d)と同じアドレスを用いて
続けることによりすべてのニューロンの出力値を求める
ことができる。上記の実施例によればアレーA内の1本
のワード線上の連続する2個のメモリセルで1つのニュ
ーロン出力値を表し、アレーB内の1本のワード線上の
連続するq個のメモリセルで1つの結合重み値を表すこ
とにより2値のメモリセルを使用して多値の値のニュー
ロン出力値、結合重み値を表現できることになる。この
ため、ニューロン出力値。
結合重み値として多値の値を用いる場合でも2値のメモ
リセルを用いて実現することができる。また、上記の実
施例においては、アドレスの切り換えの回数は第8図の
実施例と同じであるため第8図の実施例と同様に高速に
情報処理を行なうことができる。なお、非線形関数回路
の結果をニューロン出力値を表す2個のメモリセルへ書
込むには、2回の書込み動作を連続して行なってもよい
が、書込み回路を2個設けることにより並列に行なうこ
とも容易にできる。この場合には、複数のメモリセルへ
書込むことによる時間の損失をさけることができる。ま
た、読出し回路を複数設けることにより読出し動作の速
度を上げることもできるのはもちるんである。なお、第
9図(a)の実施例において、乗算器ml、・・・、m
nとして多入力の回路を用いれば加算器al、・・・g
 a n g b 1 t・・bnを設けることなく同
様の回路を実現できる。
その他、演算回路の構成は、種々の変形が可能である。
第9図(a)の実施例では、ニューロン出力値を蓄える
のに2個のメモリセル、結合重み値を蓄えるのにq個の
メモリセルを使用した。つまり、ニューロン出力値をp
ピント、結合重み値をqビットで表していることになる
。複数のビットで情報を表現する方法はいろいろあるの
で必要に応じて表現方法を選び、それにあわせて加算器
、乗算器、あるいは、非線形関数回路の特性を設計すれ
ばよい・例えば、ニューロン出力値を表すpビットのメ
モリセルのうちその内容が1であるメモリセルの数によ
ってニューロン出力値を表すこともできる、第9図(b
)の実施例は、そのような場合に適した非線形関数回路
りの人出力特性の1実施例である。第9図(b)におい
てg12g2゜・・・、gpは、非線形関数回路りの1
本の出力を示している。それぞれの出力は、0または1
の値を取り、書込み回路WR(図では、省略)を通じて
対応する2個のメモリセルにOまたは1を書き込む。g
l+g2.・・・+gPは、それぞれ入力がxthl、
xth2+ ・・・、xthpを越えたときに1それ以
外では0となる。xthl、xth2゜・・・、xth
pは、入力の上限x1.下限x2の間で等間隔に設定し
てもよいしあるいは任意の間隔で設定してもよい。たと
えばxthkとxthk十1 (k=1.−、p−1)
の間隔を第9図(c)のようにすれば非線形関数回路g
としてシグモイド状の特性を持つものを実現できる。本
実施例によれば、2個のメモリセルによって1つのニュ
ーロン出力値に2個の値を持たせることができる。
本実施例では、ニューロン出力値を表す2個のメモリセ
ルは、等価に扱われる。すなわち、2個のうちどのメモ
リセルの情報が反転あるいは固定されたとしてもニュー
ロン出力値への影響は等しい。
したがって、一般的な2進表現と較べて1つのメモリセ
ルの情報の破壊によるニューロン出力値への影響を小さ
くすることができる。以下では、このような表現法を等
価的な表現と記すことにする。
ここでは、ニューロン出力値についてのべたが、結合重
み値についても上記の等価的な表現を使えるのはもちろ
んである。
もちろん、2進表現を使うこともできる。この場合には
、pビットで2P個の値を表現できるので少ないメモリ
セルで多くの値を表現するのに適している。第10図(
a)は、ニューロン出力値と結合重み値に2進表現を使
った場合の1実施例を示したものである。アレーAでは
、i=h (h=1,2.・・・n)であるデータ線上
のメモリセルのみ、アレーBでは、i=hであるデータ
線とS= f (f = 1 、2 、− 、 m −
1)であるワード線上のメモリセルのみを示しである。
第10図(a)においてWTは重み付は回路であり、メ
モリセルの信号を重み付けして加算器ah、bhに伝え
る。
ここで重み付けの係数は図示したようにニューロン出力
値については1から2Pまで結合重み値については1か
ら29までメモリセル毎に変えである。これにより乗算
器mhに入力されるニューロン出力値と結合重み値は、
それぞれ2P個、21個の値を取ることができる。ニュ
ーロン出力値を計算するためのアドレスの選択法は、第
9図の実施例と同じように第8図(d)に従えばよい。
第10図(b)は、第10図(a)の実施例における非
線形関数回路りの特性の1実施例である。
glは、(x2−xi)/2Pだけ入力が変化する毎に
Oと1を交互に繰り返し、g2は、glの2倍の周期で
Oと1を交互に繰り返す。以下同様に周期を倍ずつ変え
てgpでは、(X2−xl)/2を境として0から1に
なるように設定する。すなわち、A/Dコンバータとし
て動作するように非線形関数回路りを設計すればよい。
なお、本実施例においても入力にたいしてニューロン出
力値が非線形に増加するように非線形関数回路りを設計
することもできる。例えば、入力に対してシグモイド関
数状にニューロン出力値を増加させるには、異なるgの
間の周期の比を一定にしたまま、各出力が変化する周期
を入力の増加゛にともなって減少させ、入力が(X2−
XI)/2を越えたところから入力の増加にともなって
周期を増加させてやればよい。以上説明したように第1
0図(a)。
(b)に示した実施例によれば、ニューロン出力値と結
合重み値を表現するのに、それぞれ2個とq個のメモリ
セルを用いて、ニューロン出力値と結合重み値にそれぞ
れ2P個、29個の値を持たせることができる。したが
って、少ないメモリセルでニューロン出力値と結合重み
値に多数の値を持たせるのに適している。なお、本実施
例においても、乗算器ml、・・・、mnとして多入力
の回路を用いて、重み回路WT、加算器al、・・・、
an。
bl、・・・、bnの機能を乗算器に持たせるなど種種
の変形が可能なのは、もちろんである。ここでは、等価
的な表現と2進数表示による実施例を示したが、この他
にもたとえば、符号ビットを用いて負の数を表現したり
、複数のビットで情報を表現する方法はいろいろあるの
で必要に応じて使いわけることができる。
次に1つのMOSトランジスタおよび1つの容量より構
成されるダイナミックメモリセル(DRA月セル)をメ
モリ回路に用いた実施例を示す。
第11図は、第8図(a)に示した実施例をDRAMセ
ルを用いて構成した実施例である。第11図においてア
レーA、アレーBは、互いに交差する複数のデータ線対
DAI、/DAI、・・・DAn、/DAn、DB1+
 /DB1t ・DBn+/ D B nと複数のワー
ド線WAI、WA2.−・・WAm、WBI、1.WB
I、2.−、WBI、n。
WB2,1.WB2,2.−、WBm−1,nおよび、
それらの交差部に設けられたメモリセルMCより構成さ
れている。メモリセルMCは対をなすデータ線とワード
線との交差部のいずれか一方に設けられている1図にお
いてPR,SA、R5A、WSは、プリチャージ回路、
センスアンプ、読出しセンスアンプ、書込みスイッチで
あり、第7図(b)のアレー制御回路13A、13Bに
相当する。演算回路の中のMTは1乗算回路である。1
6は、クロック発生回路で、チップ外部より与えるアド
レスADDA、ADDBおよび、チップセレクト信号/
CSA、/C5Bなどより、他の回路を制御するための
クロックΦ^、ΦBなどを発生する。
以下では、上記第11図の実施例の動作を第12図、第
13図(a)、(b)を用いて説明する。第12図は、
動作モードと外部信号との関係の一実施例を示したもの
である。前記したように、演算モード前半では、メモリ
セルアレーA、Bのワード線を1本ずつ立ち上げ、後半
では、メモリセルアレーAのワード線を1本立ち上げる
。また、メモリモードでは、メモリセルアレーAとBと
で独立に読出し、書き込みを行なう。第12図では、こ
れらの制御を、容易に行なうために、動作モードをさら
に細分した。メモリモード中のAR。
AW、BR,BWは、それぞれ、アレーAからの読出し
、アレーAへの書き込み、アレーBからの読出し、アレ
ーBへの書き込みを行なうモードである。また、演算モ
ード中のNR,NWは、それぞれデータを読出して演算
するまでの前半部分と、演算結果を書き込む後半部分で
ある6本実施例では、これら6つのモードを切り替える
ために、チップセレクト信号/C8A、/C3B、書き
込み制御信号/WE、演算回路制御信号/NEの4つの
外部入力信号を用いた。チップセレクト信号/C8A、
/C5Bは、チップの選択及び、アレーA、Bの選択を
指定する。/C3A、/C3Bが両方H(高レベル)で
、チップが非選択となり、/C5AがL(低レベル)で
アレーAが、/C5BがL(低レベル)でアレーBが、
選択状態となる。
書き込み制御信号/WEは、前記したように書き込み、
読みだしを切り替える信号で、Hで読出し、Lで書き込
み動作となる。/NEについても、前記したとおりで、
Hでメモリモート、Lで演算モードとなる。したがって
、例えば/C3A、/C8Bが共にし、/WEがH1/
NEをLとすれば、アレーAとB両方から読みだしを行
なう演算モード前半のモードNRとなる。アドレス信号
については、チップセレクト信号でアレーA、Bの切り
替えを指定したため、アレーAのメモリセルを選択する
アドレス群ADDAとアレーBのメモリセルを選択する
アドレス群ADDBとに分けることができる。ここで、
アドレス群ADDAはアレーAのワード線を選択するた
めのX系アドレスとアレーへのデータ線を選択するため
のY系アドレスの集まりを総称したものである。同様に
、アドレス群ADDBはアレーBのワード線を選択する
ためのX系アドレスとアレーBのデータ線を選択するた
めのY系アドレスの集まりを総称したものである。各動
作モードにおいては、第12図に従ってこれらのアドレ
ス群をアドレスピンへ印加する。以上説明した第12図
の実施例によ九ば、チップセレクト信号を2つ設けてア
レーA、Bの切り替えを行ない、アドレスをアレーAと
Bとで分離した。このため、アレーAとBを独立に選択
できるため、アレーAとBの両方、あるいは片方を選択
する必要のある各動作モードを容易に制御できる。なお
、第12図以外にも、動作モードと外部信号の関係は種
々変形して実現可能であるのはもちろんである。たとえ
ば、チップセレクト信号を/C8のみとして、アレーA
とBの切り替え用のアドレスを加える、あるいは、アド
レスをアレーAとBで分けずにアレーAまたはBのどち
らかのみを選択するようにしておいて5モードNRにお
けるアレーBのワード線を選択するXアドレスは、チッ
プ内部に設けたカウンタにより発生してもよい。
第13図(a)はメモリモードにおける第11図の波形
、第13図(b)は演算モードにおける第11図の波形
の実施例である。
メモリモードの動作は通常のDRAMの読出し、書き込
み動作と同様である。第13図(a)には。
メモリモードにおいてアレーA内のワード線WA 1と
データ線DAIの交差部にあるメモリセルに対して読出
し動作(モードAR)と書込み動作(モードAW)を続
けて行なう場合の電圧波形を示しである。図においてV
ccは、正電位を示している。メモリモードであるため
演算回路制御信号/NEが高レベルであり、これにより
演算回路起動信号ΦNは、低電位に固定され演算回路1
2はオフしている。読出し動作を始める前には、PPA
とPNAがV c c / 2に設定されており、この
ためセンスアンプSAは、オフしている。また、プリチ
ャージ信号ΦP^が高電位にあるため、プリチャージ回
路PRがオンしてDAI、/DAI。
・・・、DAn、/DAnのデータ線対は短絡されると
共にプリチャージ電位VHに電位が設定される。
VHは、V c c / 2に設定しておく。チップセ
レクト信号/C5Aが低電位になると、プリチャージ信
号ΦP^を立ち下げ、プリチャージ回路PRをオフして
、アドレス信号ADDAによって選択されたワード線W
AIと読出しY選択信号YRAIを高電位に遷移させる
。その結果ワード線WAIに接続されたすべてのメモリ
セルMCのMOSトランジスタが導通し、容量に蓄積さ
れた電荷に応じて、データ線対DA1./DAI、−,
DAn。
/ D A nにそれぞれ微妙な電位差が生じる。この
電位差を読出しY選択信号YRAIの入力された読出し
センスアンプRSAで検出して読出し線OA、10Aの
インピーダンスの差に変換する。
入出力回路では、これを電圧差に変換後、増幅してメモ
リセルの内容である1もしくは0に対応する電位を読出
しデータDoとして出力する。これらの動作と並行して
次のようにして所謂再書込み動作が行なわれる。データ
線対DAI、/DAI。
・・・、DAn、/DAnにそれぞれ微妙な電位差が生
じたのち、PPAを高電位に、PNAを低電位に遷移さ
せてセンスアンプSAを起動させる。そのためデータ線
対に生じた微妙な電位差が増幅されて、高電位側のデー
タ線をVccに低電位側のデータ線をOvに遷移する。
その結果、ワード線WAIに接続されたすべてのメモリ
セルMCの容量に読出し前の情報に対応する電位が再び
書き込まれる。再書込み動作の終了後、チップセレクト
信号/C8Aが高電位になると、選択されたワード線W
AIと読出しY選択信号YRAIを低電位に遷移し、そ
の後PPA、PNAをV c c / 2に遷移させ、
センスアンプSAをオフさせるとともにプリチャージ信
号Φp^を高電位に遷移させる。
この結果、データ線対は短絡されると共にプリチャージ
電位VHに電位が設定されて再びもとの状態に戻る。以
上が読出し動作である。
続いて同じセルへの書込み動作(モードAW)に移る。
書込み動作では、チップセレクト信号/C8Aが低電位
となりさらに書込み制御人力/WEが低電位となること
によって、書込みデータDIに与えら九た情報がアレー
A内の選択されたメモリセルに書き込まれる。書込み動
作でもまず。
チップセレクト信号/C5Aが低電位になると、プリチ
ャージ信号ΦP^を立ち下げ、プリチャージ回路PRを
オフする。次に、アドレス信号ADDAによって選択さ
れたワード線WAIと読出しY選択信号YRAIが高電
位に遷移する。その結果、ワードl@WA 1に接続さ
れたすべてのメモリセルMCのMOS)−ランジスタが
導通し、容量に蓄積された電荷に応じて、データ線対D
A 1 、 /DAI 。
・・・、DAn、/DAnにそれぞれ微妙な電位差が生
じる。データ線対に生じた微妙な電位差は、センスアン
プSAによって増幅されていく。つづいて書込み制御入
力/WEが低電位に遷移したことにより発生された入力
回路起動信号ΦIIR^が高電位に遷移する。これによ
って書込みデータDIに与えられた情報が、書込み線対
IA、/IAへ差動信号として伝えられる。また、書込
みY選択信号YWAIが高電位に遷移して書込み先のメ
モリセルが接続された書込みスイッチWSがオンする。
これにより書込み線対IA、/IAはそれぞれデータ線
対DAI、/DAIと導通する。この結果データ線対D
AI、/DAIは書込みデータDIに与えられた情報に
対応した電位に設定される。
その後入力回路起動信号ΦWR^は低電位に遷移するが
データ線対の電位はセンスアンプSAによって保たれる
。書込みスイッチWSがオンしなかったデータ線対では
初めに読出した信号がそのままセンスアンプにより増幅
されて再書込みが行なわれる。再書込み動作の終了後、
チップセレクト信号/C8Aが高電位になると、選択さ
れたワード線WAIと書込みY選択信号YWAIが低電
位に遷移し、その後PPA、PNAをV c c / 
2に遷移させセンスアンプSAをオフさせるとともにプ
リチャージ信号Φp^を高電位に遷移させる。この結果
、データ線対は短絡されると共にプリチャージ電位VH
に電位が設定されて再びもとの状態に戻る。以上が書込
み動作である。
ここでは、アレーA内の同一のメモリセルに続けて読出
し動作と書込み動作を行なう場合について説明したが、
読出し動作あるいは書込み動作をそれぞれ続けて行なう
こともできるし、また、モードAR,AW、BR,BW
を切り換えることにより読出し動作あるいは書込み動作
の度に異なるメモリアレー内の所望の位置にあるメモリ
セルについて読出し動作あるいは書込み動作を行なうこ
とができるのは、もちろんである。
次に演算モードの動作について説明する。第13図(b
)は、ニューロン出力値v1□を得るための動作波形を
示したものである。すでにメモリモードにおける書込み
動作により必要な結合重み値、ニューロン出力値等は書
き込まれているものとする。まず、モードNRとするた
めにチップセレクト信号/C3Aと/C5Bを低レベル
とし、書き込み制御信号/WEを高レベル、演算回路制
御信号/NEを低レベルとする。アドレス^DDA 。
ADDBは、アレーAのワード線WAIとアレーBのワ
ード線WBIを選択するように設定する。
/C8Aと/C5Bが低レベルになることによりプリチ
ャージ信号ΦP^、ΦPBが低レベルに、/NEが低レ
ベルになることにより演算回路起動信号ΦNが高レベル
に遷移する。続いてワード線WAIとWBIとが立ち上
がりWAI上のメモリセルに蓄えられていたニューロン
出力値v1□。
V 21t ”’ t Vnlと結合重み値T1□、t
 ’r”1□、 ”’T1.nがデータ線上に読み出さ
れる。こうして、アレーAから読出されたニューロン出
力値とアレーBから読出された結合重み値は、第11図
に示したように演算回路起動信号ΦNにより起動されて
いる乗算回路MTに入力される。乗算回路MTでは、ア
レーA側のデータ線とアレーB側のデータ線は、MoS
トランジスタのゲートにつながれており、それらのMO
Sトランジスタは演算回路起動信号ΦNが入力されてい
るスイッチ用のMOSトランジスタを通じて積和出力線
NOとダミー線DMとにつながれている。積和出力線N
Oの一端は負荷RMIを通して電源VMに接続されてお
り、ダミー線DMの一端は接地されている。データ線に
読出された信号がセンスアンプSAによってVc c、
あるいは、Ovに増幅されるとニューロン出力値と結合
重み値の積が1である乗算器では、負荷RMIを通じて
電源VMより接地電極へ電流が流れる。したがってニュ
ーロン出力値と結合重み値の積が1であるような組合せ
の数に比例して積和出力線Noの電位は下降する。積和
出力線Noは、非線形関数回路りに入力されている。非
線形関数回路りではニューロン出力値と結合重み値の積
の合計が大きく積和出力線Noの電位が参照電圧VRよ
り下がるかどうか検知して結果をNVへ出力する。第1
3図(b)に示した積和出力線NOの波形のうち実線が
積和の結果が小さかった場合であり破線が積和の結果が
大きかった場合である。入出力回路では非線形関数回路
りの結果を検知して書込み線対IA、/IAに次にメモ
リセルに書き込むべきニューロン出力値v1□を出力す
る。第13図(b)にはIAの波形を示した。
IAは、積和が大きい場合には破線のように高レベルに
、積和が小さい場合には実線のように低レベルになる。
/IAはIAと逆相となる。書込み線対IA、/IAに
ニューロン出力値が出力された時点でラッチ信号ΦLを
高電位に遷移する。この結果、書込み線対IA、/IA
に出力された電位は、入出力回路IO内に設けたラッチ
回路によりラッチされる。ラッチ信号ΦLは、演算回路
起動信号/NEの立ち下がりを受けてIA、/IAに信
号がでるまで遅延させて立ち上げればよい。
つづいて、演算回路起動信号ΦNが低電位に遷移して演
算回路をオフし、ワード線が立ち下がった後にメモリモ
ード時と同様にデータ線のプリチャージを行なう、この
ときラッチ信号ΦLは高電位のままにして、書込み線対
IA、/IAに出力されたニューロン出力値を保ってお
く。
次に演算モードの後半であるモードNWに移る。
まず、チップセレクト信号/C8Aおよび書込み制御信
号/WEを低レベル、チップセレクト信号/C8Bを高
レベルとしてアレーA内のニューロン出力値を書込むべ
きメモリセルが選択されるようにアドレスADDAを切
り換える。演算回路起動信号/NEは低レベルのままに
しておく、/C5Aを立ち下げた結果、プリチャージ信
号ΦP^が低レベルとなりアレーAに書き込みができる
状態となる。つづいて、選択されたワード線WA2゜書
込みY選択信号YWAIが立ち上がる。これにより、書
込み線対IA、/IAに出力されたニューロン出力値v
1□は、ワード線WA2とデータ線DAIとに接続され
たメモリセルに書き込まれる。
最後にワード線をすべて立ち下げてプリチャージを行な
う。また、演算回路制御信号/NEを立ち上げることに
より、ラッチ信号ΦLが立ち下がりラッチがはずれる。
こうして、次の動作に備える。
以上が演算モードの動作である。同様の動作を第8図(
d)に従ってアドレスを変えて続けることによりすべて
のニューロン出力値を計算できる。
以上において乗算器M、Tのうちダミー、IXDMに接
続された側の回路は、省いてもよいが乗算器MTのMO
Sトランジスタのゲート容量等が片方のデータ線のみに
付くとデータ線容量がアンバランスとなり場合によって
はセンスアンプの動作などに支障を来すこともある。そ
のような場合には第11図のようにしておけばデータ線
容量がアンバランスとなることによる悪影響を避けるこ
とができる。
次に、第11図に用いるのに好適な回路の実施例を示す
。第14図(a)は、非線形関数回路りの1実施例であ
る。本実施例は、バイポーラトランジスタQ720.Q
719.抵抗R72およびMoSトランジスタQ721
よりなる差動アンプと、インバータINV75およびM
OSトランジスタQ715.Q716.Q717.Q7
18゜抵抗R71,ダイオードD71よりなるインバー
タにより構成される。本回路は信号ΦNが高電位になる
ことにより起動される。第14図(b)に非線形関数回
路りの入力である積和出力線Noの電位と出力NVの電
位の関係を示す。積和出力線Noの電位が参照電位VR
より低いと出力NVが高電位にNoの電位が参照電位V
Rより高いと出力NVが低電位となる8本実施例によれ
ば差動アンプにバイポーラトランジスタを用いているた
め入力の変化にたいして立上りの急峻な特性を持つ非線
形回路を実現できる。また、参照電位VRを所望の値に
設定することにより容易に非線形関数回路りの特性を変
えることができる。なお、差動アンプの出力はバイポー
ラトランジスタQ719の飽和を避けるためにあまり大
きくとることができない。そのため後段のインバータに
直接差動アンプの出力を接続するとインバータが動作し
ないことがありうる。そこで、抵抗R71,ダイオード
071を設けてMOSトランジスタQ717に入力され
る電位を降下させている。
第14図(c)は入出力回路10の1実施例である。第
14図(C)に示したように書込み回路WRは入力バッ
ファINBUF、書込み切り替えスイッチSWA、SW
B、ラッチ回路LATおよびインバータINVIA、I
NVIBより構成されている。書込み切り替えスイッチ
SWA、SVBは、書き込みデータDIをアレーAある
いは、アレーBのどちらのメモリセルに書き込むか切り
替えるためのものである。切り替え信号Φ邦^が高電位
のときには、書き込みデータDIは入力バッファINB
UFを通じて書き込み線対IA、/IAよりアレーA内
のメモリセルに書き込まれる。
切り替え信号ΦWRBが高電位のときには、書き込みデ
ータDIは入力バッファINBUFを通じて書き込み線
対IB、/IBよりアレーB内のメモリセルに書き込ま
れる。ラッチ回路LATは、演算モードにおいて非線形
回路りの出力NVに出力された情報をラッチして、書き
込み線対IA、/IAよりアレーA内のメモリセルに書
き込むためのものである6図より明らかなように、非線
形回路りの出力NVと書き込み線対IA、/IAの電位
関係は同相関係になるので、非線形関数回路りの積和出
力線Noと入力コモン線IAの電位の関係は、第14図
(d)に示したように反転関係となる。前記したように
第11図の実施例では積和出力線Noの電位はニューロ
ン出力値と結合重み値との積和が大きいほど低下するの
で、積和出力線Noと入力コモン線IAの電位の関係が
反転関係となるように回路を構成した。積和出力線N。
の電位がニューロン出力値と結合重み値との積和が大き
いほど上昇するように設計した場合には積和出力線No
と入力コモン線IAの電位の関係を同相関係となるよう
に回路を構成すればよいのはもちろんである。
第14図(e)は読出し回路OUTの1実施例である。
読出し回路OUTは電流電圧変換回路IVOUTI 、
レベルシフト回路LS、読出しラッチ回路0UTLTお
よび出力バッファBUFOUTにより構成される。電流
電圧変換回路IVOUT1では、読出し線OA、10A
あるいは読出し線OB、10Bにインピーダンスの差と
して読出された情報をそれぞれ、OA’ 、/、OA’
あるいは読出し線OB’ 、10B’の電圧の差に変換
する。レベルシフト回路LSでは、電流電圧変換回路I
VOUTIより読出された情報の電圧を後段の読出しラ
ッチ回路0UTLT内のバイポーラトランジスタが飽和
しないレベルにシフトして読出しランチ回路0UTLT
に伝達する。
読出しラッチ回路0UTLTの詳細な実施例を第14図
(f)に示した。読出しラッチ回路0UTLT内の読出
し差動7”プAMPA、AMPBは、アレーAのメモリ
セルから読出し線○A、10Aを通じてLl、L2に読
出された情報とアレーBのメモリセルから読出し線OB
、10Bを通じてL3.L4に読出された情報のどちら
を読出しデータDoとして読出すか切り替えるためのも
のである。切り替え信号Φ^が高電位のときには、アレ
ーAのメモリセルから読出された情報が、切り替え信号
ΦBが高電位のときには、アレーBのメモリセルから読
出された情報が読出しデータDoとして出力される。読
出しラッチ回路0UTLTでは、読出しラッチ信号ΦL
Rを電圧Vazより高電位に遷移するとバイポーラトラ
ンジスタQIAがオフし、QIBがオンする。そのため
、差動アンプAMPA、AMPBがオフし、AMPCが
オンする。その結果差動アンプAMPCとレベルシフト
回路LSCにより、読出し情報がラッチされる。
すなわち、本実施例によれば、読出し情報が確定した後
、読出しラッチ信号ΦLRを電圧VB2より高電位に遷
移することによって所望の期間だけ読出しデータDOを
ラッチして出力しつづけることができる。
なお、第11図に示した乗算機MTの実施例では、アレ
ーAのデータ線対がアレーBのデータ線対より接地電極
から遠い方のMOSトランジスタのゲートに接続されて
いる。このため、積をとるときにニューロン出力値と結
合重み値とは等価に扱われない。このことが問題となる
ときには、第15図の実施例を用いればよい。第15図
では、データ線DAiはMoSトランジスタQ7C3と
Q7C6,DB iはQ7C5とQ7C4のゲートに接
続されている。両者共、接地電極に近い方のMOSトラ
ンジスタと遠い方のMOSトランジスタに接続されてい
るので、積をとるときに、ニューロン出力値と結合重み
値とが等価に扱われることになる。
以上説明したように第11図に示した実施例によれば1
つのMOSトランジスタおよび1つの容量より構成され
るDRAMセルを用いて第8図(a)に示した実施例を
実現できる。DRAMセルは、占有面積を非常に小さく
できるのでチップ上に高集積に実現できるというメリッ
トがある。
なお、以上の説明では触れなかったが、よく知られてい
るように1トランジスタ、1キヤパシタを用いたDRA
Mセルでは、キャパシタの電流リークによる蓄積電荷の
減少を補償するために一定時間内にリフレッシュ動作が
必要である。本発明においても、メモリモード、演算モ
ードにかかわらず必要に応じてリフレッシュ動作を行う
ことは通常のDRAMと同様にして容易にできる。
上記の実施例では、メモリセルとしてDRAMセルを用
いたがこれに限定されることはなく、他のメモリセルを
用いても同様の情報処理装置を実現できる0次にSRA
Mセルを用いた実施例を示す。第16図(a)、(b)
は、SRAMセルの実施例であり、両者共DRAMセル
と異なり再書込みあるいはリフレッシュ動作が不要なた
めDRAMセル゛を用いた場合に比べて制御が容易にで
きるという利点がある。第16図(c)は、第16図(
a)あるいは(b)等のSRAMセルを用いて第8図(
a)の実施例を実現するための1実施例である。第16
図(c)において、MCSはSRAMセル、LDは、デ
ータ線負荷である。第17図(a)、(b)に動作波形
の例を示す。第17図(a)は、メモリモードにおいて
データ線DAI。
/DA1とワード線WAIに接続されたセルに対して読
出し動作と書込み動作を連続して行なう場合の例であり
、第17図(b)は演算モードにおいてワード線WAI
上のメモリセルに記憶されたニューロン出力値V00.
V、□、・・・、vn、とワード線WBI上のメモリセ
ルに記憶された結合重み値T1□1.T1□1.・・・
lT”n4 からニューロン出力値v1□を計算する場
合の動作波形の例である。基本的な動作は前記のDRA
Mセルの場合と同様であるので説明は省略する。SRA
Mセルは、再書込み動作、リフレッシュ動作が不要なた
めDRAMセルに比べて制御が簡単であるというメリッ
トがある。さらに、再書込み動作が不要なため、メモリ
モードにおける読出し、書込みの速度および演算モード
のサイクルを高速にできるというメリットがある。
以上、DRAMセルとSRAMセルを用いて第8図(a
)の実施例を実現するための回路構成例を説明してきた
。次にニューロン出力値、結合重み値を複数のメモリセ
ルを用いて表現するためのを回路構成例につき説明する
。以下では、DRAMセルを用いた実施例を示すが、S
RAMセルを用いても同様に実現できることはもちろん
である。
次に、DRAMセルを用いてニューロン出力値。
結合重み値を複数のメモリセルを用いて表現するための
回路構成例について説明する。
第18図(a)において、アレーA内のデータ線対DA
II、/DA11.DA12./DA12゜−、DA 
I P、 /DA I Pは、第9図(a)において加
算器a1に入力されるアレーA内のデータ線対に対応し
ている。また、アレーA内のデータ線対D A n 1
 + / D A n 1 r D A n 2 g 
/ DAn2 +−,DA n P 、 / DA n
 Pは、第9図(a)において加算器anに入力される
アレーA内のデータ線対に対応している。アレーBにつ
いても同様である。入出力回路DIOIOに示したよう
に入力端子をDol、・・・、DOrのr本、出力端子
をDll、・・・、DIrのr本設けて(ここでrはP
またはqのどちらか大きい方の数)メモリモード時にニ
ューロン出力値または結合重み値を表すPビットあるい
はqビットの情報を同時に読出し。
あるいは書込みできるようにしている。演算モードにお
いてアレーAでは、ワード線を立ち上げることによって
データ線に読出されたPビット毎の情報が加算器ADD
によって合成され、ニューロン出力値出力線VOI、V
O2,・・・、V、Onにニューロン出力値が出力され
る。また、アレーBでも、ワード線を立ち上げることに
よってデータ線に読出されたqビットの情報が加算器A
DDによって合成されて、結合重み値出力線TOI、T
O2゜・・・、Tonに結合重み値が出力される。これ
らはBLK2に入力され、積和演算が行なわれて非線形
関数回路DIOに入力される。ニューロン出力値に相当
する非線形関数回路DIOの出力は入出力回路DIOI
Oへ伝えられてラッチ信号ΦLによってラッチされる。
つづいて、求めたニューロン出力値を書き込むべきp個
のセルを選択するようにアドレスを切り換えて、書き込
みY選択信号YWAiを立ち上げ、ラッチしておいたニ
ューロン出力値を選択した2個のセルへ並列に書き込む
このような動作を続けることにより第11図(a)の実
施例と同様にしてニューロン出力値を更新していくこと
ができる。本実施例によれば、加算器ADDに入力され
た複数のメモリセルの情報を等価に加算することによっ
て第9図(a)の実施例を実現することができる。また
、加算器ADDに入力された複数のメモリセルの情報を
ビット毎に重み付けして加算することによってニューロ
ン出力値、結合重み値を複数のビットによる2進数によ
って表す第10図(a)の実施例も実現することができ
る。この他ニューロン出力値、結合重み値を他の方法で
複数のビットで表す場合にも容易に対処できるので目的
に応じて多様な情報処理を行なうことができる。本実施
例では、DRAMセルを用いているので高集積化を図る
ことができる。
さらに、メモリモード、あるいは演算モードともに複数
のメモリセルの情報を並列に扱っているためニューロン
出力値、結合重み値を複数のビットで表しているにもか
かわらず、1ビツトで表した場合と同様の高速な情報処
理を行なうことができる。ここでは、BLKIにおいて
加算器により複数のメモリセルの信号を合成し、その結
果を積和回路であるBLK2に入力するようにした。し
かし、BLKlにおける加算を省略してニューロン出力
値あるいは、結合重み値をあられす複数のメモリセルの
情報を並列に積和回路BLK2へ入力して積和演算を行
なうなど種々の変形も可能である。
以下では、まず、第18図(a)に示した実施例により
ニューロン出力値、結合重み値を複数の等測的なビット
で表す第9図の実施例を実現する方法についてのべる。
第18図(b)は、第18図(a)のBLKIの1実施
例である。ここでは。
アレーAのデータ線DAII、・・・DAIPに接続さ
れたBLKIを示した。アレーAの他のBLK 1にも
同じ回路が使える。アレーBでもデータ線対。
読出し線対、あるいは書込み線対の本数を2本からq本
に変更しプリチャージ回路PRなど2個設けた回路をq
個にすれば、本実施例の回路を使うことができる。本実
施例では、並列に2個のメモリセルへの書込み、あるい
は読出しができるように、p対の読出し線対OAI、1
0AI、・・・OA p + /○Apおよびp対の書
込み線対IAI。
/IAI、・・・・・・ IAp、/IApを設けた。
読出しセンスアンプRSAと書込みスイッチWSは、図
に示したように同一のBLKI内では順番に読出し線対
OA 1 、10A 1 、 ・、 OA p 、 1
0APおよびp対の書込み線対IAI、/IAI、・・
・I A p v / I A pに接続されている。
すなわち1対の読出し線あるいは書込み線についてみる
とp対毎にデータ線対に接続されていることになる。
加算回路ADDは、負荷回路LD103および2個の電
圧電流変換器VIより構成されている。電圧電流変換器
VIでは、データ線DA l l 、 DA12゜・・
・、DAlpがMOSトランジスタのゲートに接続され
ており、上記MO5)−ランジスタは、演算回路起動信
号ΦNがゲートに入力されているMOSトランジスタと
直列に接続されて接地電極とニューロン出力値出力線V
OIとを結んでいる。ニューロン出力値出力線V○1は
負荷回路において抵抗を通じて電源VMOIにつながっ
ている。したがって、演算回路起動信号ΦNにより起動
された状態でデータ線電位の増幅が終了すると、ニュー
ロン出力値出力線vO1の電位は、高電位つまりVce
となったデータ線の本数に比例した電圧だけ低下する。
したがって、本実施例によれば、ニューロン出力値出力
線VOIの電位低下によってニューロン出力値を表すこ
とができる。なお、データ線の片側、/DAII、・・
・、/DAIPにも同様の回路を設けたのは、第11図
(a)の乗算器MTと同様の理由でデータ線容量のアン
バランスを避けるためである。上記の実施例によれば複
数のメモリセルによって表したニューロン出力値あるい
は、結合重み値をニューロン出力値出力線あるいは結合
重み値出力線に読みだすことができる。
第18図(c)はニューロン出力値と結合重み値の積和
を計算するためのブロックBLK2と非線形関数回路D
IOの1実施例を示したものである。第18図(C)に
おいてブロックB L K 2は、負荷回路LD102
と乗算器MTIOより構成されている。ニューロン出力
値出力線VO1、VO2゜・・・、■oおよび結合重み
値出力線TOI、TO2゜・・・、TonはMTIO内
のMOSトランジスタM 16 c 1 、 M 16
 c 2のゲートに接続されており、上記MOSトラン
ジスタは、演算回路起動信号ΦNがゲートに入力されて
いるMOSトランジスタM 16 c 3と直列に接続
されて接地電極と積和出力線NOとを結んでいる。一方
、積和出力線Noは負荷回路LD102において抵抗R
O2を通じて電源VMO2につながっている。したがつ
て、演算回路起動信号ΦNが高レベルになり、本回路が
起動された状態では、対応するニューロン出力値出力線
VOI、VO2,・・・、vOと結合重み値出力線TO
I、TO2,・・・、Tonの電位の積の総和が大きい
ほど積和出力線Noの電位が低下する。前記したように
ニューロン出力値出力線VOI、VO2,・・・、vO
と結合重み値出力線TOI、T○2.・・・、Tonの
電位は、ニューロン出力値と結合重み値の大きさにほぼ
比例して低下するため、ニューロン出力値と結合重み値
の積和が、大きいほど積和出力線Noの電位は高電位と
なる。積和出力線Noは非線形関数回路D10に入力さ
れる。非線形関数回路D 1.0は、第18図(d)に
示したような回路をn個並列に接続して構成することが
できる。第18図(d)の回路は、第14図(a)の非
線形関数回路りと同じように差動アンプとインバータを
組合せたものである。ただし、積和出力線Noとニュー
ロン出力値と結合重み値の積和との極性が第11図と第
18図(a)、(b)、(c)の実施例では異なるので
、第18回(d)では差動アンプの抵抗Rxを第14図
(a)の抵抗R72とは、逆の位置に付けている。この
ため、第18図(d)では積和出力線Noが参照電圧v
Rx (X=112+ ・・・t p)を越えると出力
NVxが高電位に遷移する。このような非線形関数回路
DSxを2個設けておき第18図(e)のように参照電
圧VRxを変えておけば2本の出力N V xのうち高
電位になっているものの本数で積和出力、1iNoの変
化量を示すことができる。本実施例によれば参照電圧V
Rxの値を変えることによって非線形関数回路の特性を
容易に変化させることができる。なお、第18図(c)
に示したの回路を乗算器MTIOとして用いる場合など
にはMoSトランジスタの特性などにより積和出力線N
Oの電位変化はニューロン出力値と結合重み値の積和の
大きさに対して一般的には線形にはならない。したがっ
て、非線形関数回路の特性が所望の形状になるように、
乗算器あるいは、加算器の特性も考慮してVRxの値を
設定すればよい。場合によっては、製造条件の変動など
により個々のチップの特性を精度よく知ることが国璽な
場合もある。そのような場合には、実際にアレーA、B
に既知のニューロン出力値と結合重み値を書込み、演算
モードで動作させて積和出力線NOの電位を計測しその
結果に応じてVRxの値をトリミングして所望の特性に
合わせればよい。
なお、ここでは第18図(a)における入出力回路DI
OIOの詳細については省略するが、第14図(C)、
(e)、(f)に示した読出し回路OUT、あるいは書
き込み回路WRと同様な回路を複数用いることにより複
数のメモリセルへ並列に読出しあるいは書き込みを行な
う回路は容易に実現できる。また、クロック発生回路1
6の構成についても省略するが、通常のメモリに用いる
回路と同様にして容易に実現できる。
次に、第18図(a)の実施例を用いて、ニューロン出
力値、結合重み値を複数のビットによる2進表示によっ
て表す第10図の実施例を実現するための方法について
説明する。第10図(a)に示したように複数のビット
による2進表示で表された情報を加算するには複数のメ
モリセルの情報をビット毎に重み付けして加算する必要
がある。
このためには第18図(b)において電圧電流変換器V
I 1.VI 2.−、VI p内のデータ線に接続さ
れたMOS)−ランジスタのゲート幅の比を1:2:4
:・・=2Pとすれば、ニューロン出力値出力1!VO
Iの電位は、2進表示によるニューロン出力値の大きさ
に比例して降下する。したがって、同様の回路を他のニ
ューロン出力値、あるいは結合重み値に対して使用すれ
ば第10図(a)に示したような重み付けした加算を実
現できる。
乗算器については、第18図(c)に示したブロックB
LK2をそのまま用いることができる。非線形関数回路
については、積和出力gN○に出力された演算結果を再
び2進表示にして複数のメモリセルへ書き込むためにA
Dコンバータの機能を持たせる必要がある。そのために
は、第19図(a)に示したような実施例を用いること
ができる。第19図(a)の実施例は、2個(以下2=
2Pとする。)の非線形関数回路DSL、DS2゜・・
・、DSzとエンコーダとを組合せたものである。
非線形関数回路DSL、DS2.・・・、DSzには第
18図(d)の回路を使用し参照電圧VRxを調整する
ことにより第19図(b)に示したような特性を持たせ
ておく。すると、第18図(c)実施例と同様に出力N
AI、NA2.・・・、NAzのうち高電位であるもの
の本数によりニューロン出力値と結合重み値の積和の大
きさを知ることができる。このままでは、2ビツトの等
価表示であるためエンコーダによりpビットの2進表示
にして2本の出力線NVI、NV2.=−,NVpによ
り書き込み回路へ伝達する必要がある。したがって、第
19図(a)のエンコーダには第19図(c)に示した
ような入出力関係を持たせればよい。このようなエンコ
ーダは、容易に実現できる。
p=3のときの構成例を第19図(d)に示す。
本実施例は、p=3以外のときにも容易に拡張すること
ができる。
以上では、階層型のニューラルネットワークを例にとっ
て説明してきた。しかし本発明は1階層型のニューラル
ネットワークに限定されるものではなく、これまで述べ
てきた実施例を用いて他のタイプのネットワークにも適
用できる。第20図(a)、(b)および、第21図(
a)、(b)の実施例は、第5図(b)のアルゴリズム
によってホップフィールド型のネットワークによる情報
処理を実現するための実施例である。第20図(a)は
ニューロン出力値、結合重み値を表現するのに1つづつ
のメモリセルを用いて非同期型のホップフィールド型の
ネットワークを実現するための実施例である。第2図、
第3図を用いて説明したように階層型のニューラルネッ
トワークでもホップフィールド型のネットワークでも基
本的な演算法は同じである。ただし、ホップフィールド
型のネットワークでは自身を含めてすべてのニューロン
からのニューロン出力値を用いて演算を行なう。そこで
、第20図(a)では、アレーA内の1本のワード線に
すべてのニューロン出力値を収納する0図に示したよう
にアレーBには、1つのニューロン出力値を計算するの
に必要な結合重み値が同じワード線上に並ぶように収納
する。ニューロン出力値の更新は、次のようにして行な
うことができる2例えば、ニューロン出力値V13更新
するには、アレーAのワード線WAとアレーBのJ=1
のワード線を立ち上げる。この結果、新しい■1である
g (TttV1+T□zVz+・・+T1nVn)が
計算される。これをアレーAのワード線WA上のi=1
の位置にあるメモリセルに書き込めばよい。その他のニ
ューロン出力値の更新も同様であり、例えば、■、を更
新するには、アレーAのワード線WAとアレーBのj=
4のワード線を立ち上げる。この結果、新しいV4であ
るg(T4、V、+T42V2+ ・+T、nV、)が
計算される。これをアレーAのワード線WA上のi=4
の位置にあるメモリセルに書き込めばよい。このように
して所望の順番でニューロン出力値■、を更新していく
ことによって非同期型のホップフィールド型ネットワー
クの演算を行なうことができる。
同期型のホップフィールド型ネットワークの演算を行な
うには、第20図(b)のようにアレーAにおいてワー
ド線WAI上のメモルセルを現在のニューロン出力値を
記憶するために用いて、ワード線WAZ上のメモルセル
を新しいニューロン出力値を記憶するために用いれば容
易に実現できる。
まず、アレーAのワード線WAIとアレーBのj=1の
ワード線を立ち上げる。この結果、新しいv1テあるg
(Tz、V1+ T1□V2+−+ T1.Vn)が計
算される。これをアレーAのワード線WA2上のi=1
の位置にあるメモリセルに書き込めばよい。つづいて、
ニューロン出力値V、、v、、・・・■oを更新してア
レーAのワード線WAZ上のメモリセルに書き込む。す
べてのニューロン出力値の更新が終わったところで今度
は、アレーAのワード線WAIとWA2の役割を変えて
、ニューロン出力値の計算時には、ワード線WA2を立
ち上げ、ニューロン出力値を収納するときにはワード線
WAIを立ち上げるようにしてニューロン出力値の更新
を続ける。以下、同様にしてアレーAのワード線WAI
とWA2の役割を変えながら処理を進める。このように
第20図(b)の実施例によれば、同期型のホップフィ
ールド型ネットワークの演算を行なうことができる。
同様にしてニューロン出力値、結合重み値を表現するの
に複数のメモリセルを用いてホップフィールド型のネッ
トワークを実現することもできる。
第21図(a)はニューロン出力値、結合重み値を表現
するのにそれぞれ2個、q個づつのメモリセルを等価に
用いて非同期型のホップフィールド型のネットワークを
実現するための実施例である。
第20図(a)と同様に、アレーA内の1本のワード線
にすべてのニューロン出力値を収納する。
ただし、2個のセルで1つのニューロン出力値を表して
いる。アレーBには、1つのニューロン出力値を計算す
るのに必要な結合重み値がq個のセル毎に同じワード線
上に並ぶように収納する。ニューロン出力値の更新は、
第20図(a)の実施例と同様にすればよい。ただし、
ニューロン出力値を表現するのにそれぞれ2個づつのメ
モリセルを用いているので演算結果を2個のセルに並列
に書き込めるように、非線形関数回路りの呂力線をP本
設けである。同期型ホップフィールドネットワークにつ
いても第20図(b)と同様にアレーAの2本のワード
線を用いれば第21図(b)のようにして容易に実現で
きる。同様にして第10図(、)のようにニューロン出
力値、結合重み値を表現するのにそれぞれ2個、9個づ
つのメモリセルによる2進表現を用いて同期型、非同期
型のホップフィールド型のネットワークを実現すること
もできることはもちろんである。
第8図(a)と第20図(a) 、  (b)ならびに
第9図(a)と第21図(a)、(b)とは基本的な構
成は同一である。したがって、第11図から第19図ま
での実施例を用いれば、第20図(a)、(b)および
、第21図(a)、(b)の実施例による情報処理を容
易に実現することができる。なお、ホップフィールド型
のネットワークにおいては、ニューロン出力値の更新を
続ける過程において、エネルギーを最小とする状態でな
く極小とする状態、所謂ローカルミニマムに落ちこんで
ニューロン出力値が変化しなくなってしまうことがあり
うる。それを避けるにはよく知られている擬似焼き鈍し
法を用いることができる。ニューラルネットワーク情報
処理(産業図書、麻生英樹著)122ページに述べられ
ているように、擬似焼き鈍し法を実現するために非線形
関数の形を徐々に変えるという方法が、知られている。
本発明によれば特性の異なる非線形関数回路りを複数設
けて切り替えたり、あるいは、外部より非線形関数回路
りの特性をコントロールするなどによって容易に上記の
方法が実現できる。
これまでは、主に階層型、あるいはホップフィールド型
ネットワークにおいてニューロン出力値。
結合重み値を正の数として扱う例を述べてきたが、応用
対象によってはこれらの両方あるいは片方が正の値も負
の値も取り得るとした方が便利な場合もある。そのよう
な場合にも本発明は容易に適用できる。第22図はニュ
ーロン出力値、結合重み値ともに正、負の値を取ること
ができるように構成した本発明の1実施例である。第2
2図においてニューロン出力値はメモリセルアレーA、
結合重み値はメモリセルアレーBに蓄えられている。
それぞれの値は絶対値の大きさを表すpあるいはqビッ
トと符号を表す1ビツトにより表されている。符号を表
す(以下、符号ビット)は、/l l +1で正“0″
で負を表す。これまで述べてきたのと同様の方法で読出
されたニューロン出力値と結合重み値のうち絶対値の大
きさを表すpあるいはqビットの部分は加算器、al、
・・・、anおよびbl、・・・、bnに入力され、ア
ナログ値となって乗算器ml、・・・、mnに入力され
る。なお、ニューロン出力値、結合重み値を2進表現で
表すときには、上記の加算器al、・・・、anおよび
bl。
・・・、bnに入力される各々p+ qビットのデータ
を第10図に示したのと同じように重み付けして入力す
ればよい。一方、符号ビットは、第22図に示したよう
に排他的OR(エクスクル−シブオア)回路EORI、
・・、EORnに入力される。
符号ビットが一致しない場合、すなわち乗算の結果が負
のときには上記排他的OR回路の出力は高レベルとなり
、一致した場合すなわち1乗算の結果が正のときには上
記排他的OR回路の出力は低レベルとなる。スイッチS
WI、・・・、SWnは、排他的OR回路の出力が低レ
ベルの時には乗算器の出力を加算器cl、・・・、On
に、高レベルのときには乗算器の出力を加算器cl’ 
 ・・・、cnに伝えるように動作する。この結果、積
和出力線Noには、乗算の結果が正のものの総計が、積
和出力線NO’には、乗算の結果が負のものの総計が出
力される。非線形回路りでは積和出力線N。
と積和出力線No′との信号の差をPビットのデジタル
値に変換してバスABSに、積和出力線Noと積和出力
線NO′との信号の大小で符号ビットを決定してバス5
IGNへ出力する。なお、ニューロン出力値の表現にあ
わせて第9図、あるいは第10図に示したような非線形
特性を持たせることは、これまで述べたのと同様な方法
で容易に実現できる。本実施例によれば、ニューロン出
力値、結合重み値ともに正、負の値をとることができる
。したがって、情報処理の適用範囲が広がるという利点
がある。ここでは、ニューロン出力値、結合重み値とも
に正、負の値をとるようにしたが、どちらか片方のみを
正の値に限るなどの変形は容易に実現できる。
これまでは、演算回路としてニューロン出力値を計算す
るのに必要な積和機能と非線形関数回路を実現する実施
例を説明してきた。しかし、演算回路にさらに他の演算
を行なう回路を追加することもできる。たとえば、本発
明による情報処理装置は階層型ネットワークを用いた音
声認識9文字認識など入力されたパターンをいくつかの
組に分けるような所謂クラス分は問題に適用することが
できる。このような場合には前記したように演算回路内
に比較器があると便利である。クラス分は問題では、入
力されたパターンが、明らかにあるクラスに分類される
場合には、出力としてクラスに対応する期待値を得るこ
とができる。しかし、入力されたパターンが、複数のい
ずれかのクラスに分類されるか微妙な場合には、複数の
クラスの期待値の中間的なものとなることがある。例え
ば、音声認識において入力された音声がt K Jのと
きには、符号化して入力層に与えた音声波形に対して出
力層に1111というニューロン出力値(期待値)が得
られるように、また、入力がI CIのときには、00
00という出力値(期待値)を出すように結合重み値を
設定した場合に、t K +″C′の中間的な音声波形
が与えられると出力層のニューロン出力値は、0001
とか1110など中間的な値を出すことがある。このよ
うな場合には出力層のニューロン出力値とt K + 
に対する期待値1111あるいはl Cl に対する期
待値ooooとの距離が入力音声のl K + あるい
はC′に対する近さを与える尺度と解釈することができ
る。したがって、演算回路に出力層のニューロン出力値
とクラスの期待値を比較する回路を設けて出力結果と期
待値の距離を求める機能がある便利である。
第23図は1つの半導体チップにニューロン出力値と期
待値の比較を行なう演算回路12aと、ニューロン出力
値を計算するための演算回路12bとを集積した1実施
例である。第23図において、期待値はメモリ回路TG
に、ニューロン出力値はメモリ回路Aに結合重み値はメ
モリ回路Bに記憶されている。ニューロン出力値を計算
するには、これまで述べてきたのと同様な方法でメモリ
回路Aからニューロン出力値をメモリ回路Bから結合重
み値を読出して演算回路12bによってニューロン出力
値を計算し、その結果をメモリ回路Aに書き込めば良い
。比較を行うには、メモリ回路Aからニューロン出力値
をメモリ回路TGから期待値を読出して演算回路12b
により並列に距離を求めてその結果をメモリ回路TOに
書き込むかあるいは、入出力装置を通じて出力する。本
実施例ではメモリ回路TG、Aならびに演算回路12a
ともに同一チップ上にあるため、バス1,2の本数を容
易に増やすことができ、多数のビットを並列に処理でき
る。このため高速に距離の計算ができるという利点があ
る。なお、このような構成においては、演算モードをニ
ューロン出力値を計算するニューロン出力値計算モード
とニューロン出力値と期待値を比較して距離を求める比
較モードとに分けると便利である。演算モードの切り換
えは、例えば2つの演算回路制御信号/NE 1と/N
E2とにより容易に行なうことができる。すなわち、/
NE 1 、 /NE 2ともに高レベルのときにはメ
モリモード、/NEIが低レベル、/NE2が高レベル
でニューロン出力値計算モード、/NEIが高レベル、
/NE2が匠レベルで比較モードなどとすればよい。な
お、第23図では、メモリ回路を3つに、演算回路を2
つに分けたが、これらはチップ上に混在して構成しても
良いことはもちろんである。以上述べたように本実施例
によればニューロン出力値と期待値との距離を高速に求
めることができる。このため、階層型ネットワークを用
いたパターン託Rなどのようにニューロン出力値と各期
待値とを比較してその距離を求める必要がある場合に情
報処理速度を上げることができる。
第24図は、第23図の演算回路12aの1実施例であ
り、出力層のニューロン出力値と期待値を比較してその
ハミング距離の大きさを計算する回路である。以下では
第23図のメモリ回路TG。
Aは第11図、第16図あるいは第18図のようにデー
タ線対にメモリセルの情報が読出される形式のものであ
り、それぞれアレーTG、アレーAを有しているとする
。第24図は、比較器CMPと比較結果変換回路COM
POUTより構成されている。比較器CMPは並列に設
けた比較回路CMPUと負荷抵抗RCMPより構成され
比較結果変換回路COMPOUTは差動アンプAMP2
11. AMP212゜・・・、 ANP21Zより構
成されている。比較器CMPには、アレーTGのデータ
線DTG 1 、 /DTG 1 。
・・・HD T G r t / D T G rおよ
びアレーAのデータ線DAI、/DAI、−,DAr、
/DArが入力されている。ここでrは1本のワード線
上のメモリセルの数で、ニューロン出力値を1ビツトで
表すときにはnyPビットで表すときにはnとPの積に
等しい。本実施例によれば、アレーTGのデータ!!D
TGI、/DTGI、−、DTGr。
/DTGr上に読出した情報とアレーAのデータ線D 
A 1 、 / D A 1 、 ”・、 D A r
 、 / D A r上に読出した情報とのハミング距
離を計算することができる。本実施例の動作は、以下の
通りである。
まず、あらかじめクリア信号ΦCを立ち上げMOSトラ
ンジスタQ216をオンさせて、MOSトランジスタQ
215のゲート電圧を立ち下げておく。
クリア信号ΦCを立ち下げてデータ線に信号が読出され
データ線電位がVccあるいはOVになった後、比較器
起動信号ΦCMPにより比較器を起動する。すると比較
回路に入力されたデータ線(DTGI、DAI)、(D
TG2.DA2)。
・・・、(DTGr、DAr)のそれぞれの組で排他的
オア(EXCLUSIVE −OR)の論理がとられる
。その結果、アレーTG側のデータ線とA側のデータ線
とで情報が一致している場合にはMoSトランジスタQ
215のゲートが低電位のままであるが、一致していな
い場合には高電位に遷移する。このため、アレーTG側
のデータ線とA側のデータ線とで情報が一致しない比較
器CM 、P、 UではMOSトランジスタQ215が
オンする。この結果、データ線(DTGI、DAI)、
(DTG2.DA2)。
・・・、(D T G r 、 D A r )のそれ
ぞれの組で不一致の数が多いほど電源VCMPから負荷
抵抗RC?4Pを通じて接地電極へ向けて電流が流れる
。そのため、比較線COの電位は一致しないものが多い
ほど低下する。比較線COは、比較結果変換回路COM
POUTに設けられた差動アンプAMP211. AM
P212゜・・、AMP21Zに接続されている。これ
らの差動アンプの参照電圧VRCI、VRC2,・・V
RCZを適当な値に設定しておけば、比較線COの電位
低下が大きいほど比較結果出力線DCOI。
DCOZ、・・・、DCOZのうち高電位になる本数が
増加する。すなわち、比較結果変換回路COMPOUT
は1種のAD変換器として動作する。このように第24
図の実施例によればアレーTGの複数のデータ線に読出
された情報とアレーAの複数のデータ線に読出された情
報を比較してそのハミング距離の大きさを求めることが
できる。したがって、アレーTGとアレーAで1本ずつ
ワード線を選択すれば1選択されたワード線上のメモリ
セルに記憶された情報同士を比較することができる。こ
のため各期待値をそれぞれアレーTGのワード線上のメ
モリセルに記憶しておけば、アレーAの1本のワード線
上のメモリセルに記憶されたニューロン出力値と比較し
て、そのニューロン出力値がどの期待値にどのくらい近
いのか知ることができる。したがって、得られたニュー
ロン出力値がクラスに対応する期待値と一致しないよう
な場合でも高速にどのクラスにどのくらい近いのが知る
ことができる。
なお、第24図の実施例において比較結果出力線に出力
された結果は、比較の度に入出力回路を通じてチップ外
へ出力してもよいし、メモリ回路TGの容量を期待値を
記憶するのに必要な量よりも大きくとっておき、そこに
書き込んでおいて、まとめて出力してもよい。
最後にレジスタを用いて本発明の装置をさらに高速化す
る実施例について述べる。これまで述べてきたように本
発明では、ニューロン出力値を計算するのに、必要なデ
ータをメモリ回路から続出し、演算回路でニューロン出
力値を求め、その結果を再びメモリ回路へ書き込むとい
う動作を続ける。すなわち、1回の演算モードにューロ
ン出力値演算モード)サイクルは読出し動作と書込み動
作よりなり、書込み動作中には演算回路が休止している
ことになる。したがって、演算回路が休止している時間
を短くすれば、より一層の演算モードの高速化を図るこ
とができる。第25図は上記の観点に基づいて演算モー
ドの高速化を図ったl実施例である。第25図は第7図
の実施例にレジスタ14とスイッチSW1.・・・、S
Wrとを付加したものである。第25図の実施例によれ
ば第5図のアルゴリズムを用いて高速にニューロ出力値
を計算することが8来る。以下では、階層型のネットワ
ークを例にとって説明を行うが、ホップフィールド型ネ
ットワークにおいても同様の効果がある。第25図の実
施例では第S層の第1ニユーロンの出力値を計算するに
のに、メモリセルアレーAのワード線を1本立ち上げて
第s−1層のニューロン出力値を読出し、スイッチSW
I、・・・SWrを閉じて第s−1層のニューロン出力
値をレジスタ14に書き込み、スイッチSWI、・・・
SWrを開ける。次に、メモリセルアレーBのワード線
を1本立ち上げて第s−1層のニューロンと第5層の第
1ニユーロンの間の結合重み値を読出すとともにレジス
タ14より、第s−1層のニューロン出力値を読出して
演算回路12により第S層の第1ニユーロンの出力値を
計算する。その結果をメモリセルアレーAへ書き込む。
このとき同時にセルアレーBのワード線を1本立ち上げ
て第s −1層のニューロンと第5Mの第2ニユーロン
の間の結合重み値を読出すとともにレジスタ14より、
第s−1層のニューロン出力値を読出して演演算回路1
2により第S層の第2ニユーロンの出力値を計算する。
以下同様にして第S層のニューロンの出力値を計算して
いく。次に第S+1層のニューロンの出力値を計算する
にはメモリセルアレーAのワード線を1本立ち上げて先
に求めた第S層のニューロン出力値を読出し、スイッチ
SWI、・・・、SWrを閉じて第S層のニューロン出
力値をレジスタ14に書き込み、以下同様にして計算を
進める。以上のように本実施例によれば、レジスタ14
を設けたことにより書込みと読出しとを同時に行う事が
できるため、高速の動作を実現する。
これまでは、本発明を用いておもにニューロン出力値を
計算する方法について説明し、必要な結合重み値は、す
でに与えられていると仮定してきた。必要な結合重み値
は、課題によっては、初めから容易に与えられることも
あるが、所謂学習によって求める必要のあることもある
。たとえば、パックプロパゲーションとよばれる階層型
のネットワークのための学習では、あらかじめ入力層の
ニューロン出力値(テストパターン)をいくつか用意し
ておき、そのテストパターンに対して所望のニューロン
出力値が出力層に得られるような結合重み値を求めるこ
とができる。また、ニューラルネットワーク情報処理(
産業図書、麻生英樹著)第2章に記載されているように
ホップフィールド型のネットワークでもニューロン出力
値の平衡状態が所望の状態になるように結合重み値を設
定する学習アルゴリズムが知られている。そのような学
習を本発明に応用するには、次のように3つの方法があ
る。第1の方法は、外部の計算機を用いて学習を行い、
得られた結合重み値を本発明による情報処理装置に書込
む方法である。この方法では、学習をソフトウェアで行
うこともできるため学習アルゴリズムの変更が容易にで
きるという利点があるが、学習速度を上げることが困難
である。
第2の方法は本発明による装置の演算回路に学習のため
の演算機能を設けておき、オンチップで学習を行う方法
である。この方法では、高速に学習を行うことができる
が学習に必要な回路をすべて同一チップ上に集積するの
は困難な場合がある。
第3の方法は第1の方法と第2の方法の中間的なもので
、学習に必要な演算の1部を本発明の装置で行い、外部
の計算機で学習に必要な演算の残りの部分を行う方法で
ある。この方法は、第1の方法に比べて学習速度を上げ
ることができ、本発明の装置の演算回路を単純に構成で
きるという利点がある、以下では、この第3の方法につ
いて具体的に述べる。なお、学習法としては階層型ネッ
トワークにおけるパックプロパゲーション法を例に採る
。パックプロパゲーション法(以下、BP法と記す、)
では、以下の式にしたがって結合重み値の更新を行う。
TsiJ=TSI J+ t d JsVis−1−(
1)d Jm=(t J−VJII) g ’ (Ua
−)     −(2)d J5= g ’ (UJi
)Σt(T”’t Jdis+、)−(3)(s=m−
1,・・・、2) ここで、εは小さな正の数、を−は最終層のニューロン
出力値7口の目標値 、/は非線形関数gの導関数、U
J5は第S層第jニューロンにおいて非線形関数gを通
す前の量で次式で定義される。
UJS=  Σ t (T ’−’ J  I V 1
s−l+ θJS)    −(4)結合重み値の更新
は、学習用の入力データ毎に上記の式(1)から(4)
により更新量を求めて更新してもよいし、学習用の入力
データのすべてについて更新量を総計してそれを用いて
更新を行ってもよい。また、(1)式に慣性項といわれ
る次項を足して更新を行ってもよい。
μΔTslJ’              ・・・(
5)ここで、μは小さな正の定数、ΔT’lJ’は前回
の更新時の修正量である。学習は、最終層のニューロン
出力値とその目標値との誤差が十分小さくなるまで続け
る。
上記の学習は以下のようにして第23図に示した実施例
と外部の計算機とにより実行することができる。以下で
は、入力データすべての更新量の総計により更新する場
合にについて説明するが、入力データ毎に結合重みを更
新する場合についてについても同様である。なお、以下
では、3層のネットワークについて説明を行うが3層以
上の場合についても同様である。
まず、すべての学習用の入力データとその目標値とをそ
れぞれメモリ回路AならびにTGへ書込む。次に絶対値
の小さな乱数を結合重み値の初期値としてメモリ回路B
へ書込む。さらに、第1の入力データを第1層のニュー
ロン出力値とみなして演算回路12bへ読出し、同じに
第1層、第2層間の結合重み値をメモリ回路Bより演算
回路12bへ読出す、前記した方法により並列に乗算を
行い第2層のニューロン出力値を計算してメモリ回路A
へ書き込む。続けて第3層のニューロン出力値を計算し
メモリ回路Aへ書き込む。上記の計算を学習用入力デー
タ全てについて行なって、各入力データに対する各層の
ニューロン出力値、各入力データに対する期待値、結合
重み値をチップ外のメモリへ読出す。次に外部の計算機
で結合重み値の更新量を計算し、更新した結合重み値を
本発明による装置のメモリ回路Bへ書き込む。なお、(
2) 、 (3)式におけるg’(UJs)についても
本発明による装置内でニューロン出力値VJSを計算す
る際に非線形関数回路りに入力するUJ5より計算して
もよいしあるいは外部計算機でV J Sより逆にg’
 (ujs)=g’ (g−”(Vas))     
・(6)として計算することもできる。また、(5)式
の慣性工を加えるには、更新の度に結合重み値の修正量
をチップ外のメモリに蓄えておいて新しく求めた修正量
に(5)式に従って加算すればよい。
上記の更新を繰返し行なって学習を進めることができる
。学習の進み具合を知るには、各入力データに対する最
終層のニューロン出力値とその期待値との距離を目安に
することができる。この距離は第24図の実施例を用い
れば高速に計算することができる。このため、学習時に
その進行具合を確かめることが容易にできる。
以上説明したように、本発明によれば、学習用の入力デ
ータに対するニューロン出力値の計算を本発明の装置内
で高速に行なうことができる。また、本発明ではメモリ
回路TG、A、Bにメモリアレーよりなるメモリ装置を
用いているので。すべての入力データ9期待値、前層の
ニューロン出力値などを容易に収納できまた、ワード線
を立ち上げることにより並列に多数のビットを読みだす
ことができる。このため、外部メモリへの情報の転送を
まとめて高速に行なうことができる。このため、学習を
高速に進めることができる。
本発明ではメモリ回路の容量を十分に大きくしておけば
、ニューロン数を用途に応じて変えることも容易にでき
る。この場合、ニューロン数を大きく変えると非線形関
数回路のダイナミックレンジを変える必要が生じること
がある。この場合には特性の異なる非線形関数回路を複
数設けて切り替えて使ったり、あるいは、非線形関数回
路内のアンプの参照電圧を切り替えて使うこともできる
階層型ネットワークで層ごとのニューロン数が異なる場
合にも層ごとに非線形関数回路のダイナミックレンジを
変える必要が生じることがある。この場合にも同様の方
法で対処できる。
なお、これまでは、主にいわゆる1トランジスタ1キヤ
パシタのDRAMセルや第16図(a)。
(b)に示したようなSRAMセルを用いた実施例を示
したが、その他のメモリセルを本発明に用いることもも
ちろんできる。たとえば、結合重み値を記憶する部分な
どは情報処理時には頻繁に書き替える必要がないので不
揮発性のメモリセルを、ニューロン出力値を記憶する部
分にはDRAMセルやSRAMセルを用いるなどメモリ
の内容によりセルの種類を変えることもできる。
1トランジスタ1キヤパシタのDRAMセルなどの微小
なメモリセルを用いてメモリ回路を高集積化すると、微
小な配線を用いるためにときには1部のメモリセルが動
作しないことがある。ニューラルネットワークは、結合
重み値を多少変えても機能への影響が少ないという特長
を持つが、ニューロン出力値を蓄えるメモリセルが動作
しないような場合には情報処理に支障を来すことがある
このような問題を避けるには1通常の高集積半導体メモ
リで使われているような冗長ワード線あるいは、データ
線を設けておいて欠陥のあるセルを使わないようにする
こともできる。
また、第14図(a) 、  (e) 、  (f) 
、第18図(d)などでは、バイポーラトランジスタを
用いたがCMO5でも実現できる。さらに、バイポーラ
トランジスタ、MOSトランジスタに限らず本発明を他
のデバイスで実現してもよいことはもちろんである。
これまで、主に階層型とホップフィールド型のネットワ
ークを例にとり説明してきたが、本発明はこれらに限定
されることなく様々な型のネットワークによるニューラ
ルネットワーク情報処理に適用できる。たとえば、ボル
ツマンマシンのようなニューロン出力値の更新が確率的
に行なわれるようなネットワークも実現できる。ニュー
ラルネットワーク情報処理(産業図書、麻生英樹著)第
27ページに説明されているように、ボルツマンマシン
は、ネットワークの形状はホップフィールド型のネット
ワークと同様であるが、ニューロン出力値(0または1
)が、ニューロンに入力されるニューロン出力値と結合
重み値の他の積和によって一意に決まらず、確率的に決
まるという特長を持っている。ニューロン出力値が1と
なる確率Pは、 P=1/(1+exp(−I/T)) と表せられる。ここで、工はニューロンに入力されるニ
ューロン出力値と結合重み値の積和で、Tは温度とよば
れるパラメータである。本発明により上記のボルツマン
マシンは容易に実現できる。
例えば、第18図(d)に示した非線形回路りの参照電
圧VRxを定常値でなく積和出力線Noの変動範囲で時
間的に変化させればよい、このようにするとニューロン
出力値を確率的に決めることができる。変化の速度を変
えることにより温度Tを変化するのと同様の効果を得る
ことができる。
さらに、第8図(a)と第20図(a)、(b)とを較
べると明らかなようにメモリ回路の容量が十分あればニ
ューロン出力値、結合重み値を記憶するメモリセルのア
ドレスを変更するだけで様々な型のネットワークを同一
の装置で実現できる。
したがって、本発明は、高い汎用性を持つ。
以上では、ニューラルネットワーク情報処理への応用に
ついて説明したが1本発明はそれに限定されることはな
く、同様の演算機能を持つ多数の演算要素をネットワー
ク状に接続して情報処理を行なうような装置ならば高い
集積度で実現することができることはもちろんである。
これまで示した実施例においては、演算回路としてアナ
ログ演算を行なうものを主に示してきた。
アナログ演算回路は、高速で5回路規模も小さいという
利点をもつ、しかし、本発明は、これに限定されること
なく、発明の主旨を変えることなくデジタル演算回路を
用いることもできる。その場合にはデジタル演算回路の
ため、高精度の計算を行なうことができる。
〔発明の効果〕
以上述べてきたように、本発明によればメモリ回路と演
算回路を組合せ、演算回路により並列演算を行なうこと
により、比較的単純な演算を行なう演算器が多数ネット
ワーク状に接続されたニューラルネットワークなどの並
列分散処理装置と同様な情報処理を行なう装置を速度の
犠牲を大きくすることなく、高集積に実現することがで
きる。
【図面の簡単な説明】
第1図は本発明による情報処理装置を半導体チップ上に
実現する場合の構成を示した1実施例。 第2図(a)、(b)は、階層型ニューラルネットワー
クの原理を示した図。 第2図(C)、(d)は、非線形関数回路りの特性の例
を示した図。 第3図(a)、(b)は、ホップフィールド型ニューラ
ルネットワークの原理を示した図。 第4図は複数のチップを用いた従来のニューラルネット
ワーク情報処理装置の例。 第5図(a)、(b)は、それぞれ階層型ニューラルネ
ットワークとホップフィールド型ニューラルネットワー
クについて演算を並列に行なう方法の1実施例。 第6図(a)、(b)は、それぞれ階層型ニューラルネ
ットワークとホップフィールド型ニューラルネットワー
クについて演算を並列に行なう方法の第2の実施例。 第7図(a)は1本のワード線を選択することにより多
数の情報をデータ線上に読み出すことのできるメモリア
レーを用いて本発明による情報処理装置を実現する場合
の構成を示した1実施例。 第7図(b)は1本のワード線を選択することにより多
数の情報をデータ線上に読み出すことのできるメモリア
レーを2つ用いて本発明による情報処理装置を実現する
場合の構成を示した1実施例。 第8図(a)は第7図(b)の実施例を用いて階層型ニ
ューラルネットワークを実現する場合のニューロン出力
値、結合重み値とメモリセルとの対応関係を示した1実
施例でニューロン出力値。 結合重み値を1つづつのメモリセルで表現した実施例。 第8図(b)は第8図(a)の実施例においてメモリセ
ルに2値のものを用いる場合に好適な非線形関数回路り
の特性を示した1実施例。 第8図(C)は第8図(a)の実施例においてメモリセ
ルに4値のものを用いる場合に好適な非線形関数回路り
の特性を示した1実施例。 第8図(d)は第8図(a)の実施例において演算モー
ドでのワード線およびメモリセルの選択の方法を示した
1実施例。 第9図(a)は第7図(b)の実施例を用いて階層型ニ
ューラルネットワークを実現する場合のニューロン出力
値、結合重み値とメモリセルとの対応関係を示した第2
の実施例でありニューロン出力値、結合重み値を複数の
メモリセルで表現した実施例。 第9図(b)は第9図(a)の実施例においてニューロ
ン出力値、結合重み値を複数のメモリセルで等測的に表
現する場合に好適な非線形関数回路りの特性を示した1
実施例。 第9図(c)は非線形関数回路りにシグモイド状の特性
を持たせるための第9図(b)のXt h 1゜・・・
、Xthpの設定法を示した1実施例。 第10図(a)は第7図(b)の実施例を用いて階層型
ニューラルネットワークを実現する場合のニューロン出
力値、結合重み値とメモリセルとの対応関係を示した第
3の実施例でありニューロン出力値、結合重み値を複数
のメモリセルで2進表示により表現した実施例。 第10図(b)は第10図(、)の実施例においてニュ
ーロン出力値、結合重み値を複数のメモリセルで2進表
示により表現した場合に好適な非線形関数回路りの特性
を示した1実施例。 第11図は第8図(a)の実施例においてメモリセルに
DRAMセルを用いた場合の1実施例。 第12図は動作モードと外部信号との関係を示した1実
施例。 第13図(a)は第11図の実施例のメモリモードにお
ける動作波形の1実施例。 第13図(b)は第11図の実施例の演算モードにおけ
る動作波形の1実施例。 第14図(、)は第11図などの実施例に好適な非線形
関数回路りの1実施例。 第14図(b)は第14図(a)の非線形関数回路りの
特性を示した1実施例。 第14図(c)は第11図などの実施例に好適な入出力
回路IOの1実施例。 第14図(ci)は第14図(a)の非線形関数回路と
第14図(c)の書き込み回路を用いた場合の積和出力
線Noと書込み線IAの電位関係を示した1実施例。 第14図(e)は第11図などの実施例に好適な読出し
回路OUTの1実施例。 第14図(f)は第14図(e)の読出し回路OUTの
実施例に好適な読出しラッチ回路0UTLTの1実施例
。 第15図は、第11図内の乗算回路MTの第2の実施例
。 第16図(a)、(b)はSRAMセルの例。 第16図(c)は第8図(a)の実施例においてメモリ
セルに第16図(a)、(b)などのSRAMセルを用
いた場合の1実施例。 第17図(a)は第16図(C)の実施例のメモリモー
ドにおける動作波形の1実施例。 第17図(b)は第16図(C)の実施例の演算モード
における動作波形の1実施例。 第18図(a)は第9図(a)の実施例あるいは第10
図(a)の実施例においてメモリセルにDRAMセルを
用いた場合の1実施例。 第18図(b)は第18図(a)の実施例におけるブロ
ックBLKI構成の1実施例。 第18図(c)は第18図(a)の実施例におけるブロ
ックBLK2と非線形関数回路DIOの構成の1実施例
。 第18図(d)は第18図(c)の実施例における非線
形関数回路D10を構成する個々の非線形関数回路o 
s x (x = 1 t 2 + ・・・r p )
の構成の1実施例。 第18図(e)は第18図(c)の実施例における非線
形関数回路010を構成する個々の非線形関数回路Ds
 x (x = 1t 2 ! ・・・+ p)の特性
の1実施例。 第19図(a)は第18図(a)の実施例においてニュ
ーロン出力値、結合重み値を複数のメモリセルで2進表
示により表現した場合に好適な非線形関数回路DIOの
構成を示す1実施例。 第19図(b)は第18図(a)の実施例における非線
形関数回路DSx(x=1.2. ・=、z)の特性の
1実施例。 第19図(c)は第19図(a)の実施例におけるエン
コーダの特性の1実施例。 第19図(d)は第19図(、)の実施例におけるエン
コーダの構成の1実施例。 第2o図(a)は第7図(b)の実施例を用いて非同期
的なホップフィールド型ニューラルネットワークを実現
する場合のニューロン出力値、結合重み値とメモリセル
との対応関係を示した1実施例で、ニューロン出力値、
結合重み値を1つづつのメモリセルで表現した実施例。 第20図(b)は第7図(b)の実施例を用いて同期的
なホップフィールド型ニューラルネットワークを実現す
る場合のニューロン出力値、結合重み値とメモリセルと
の対応関係を示した1実施例で、ニューロン出力値、結
合重み値を1つづつのメモリセルで表現した実施例。 第21図(a)は第7図(b)の実施例を用いて非同期
的なホップフィールド型ニューラルネットワークを実現
する場合のニューロン出力値、結合重み値とメモリセル
との対応関係を示した1実施例で、二ニーロン出力値、
結合重み値を複数のメモリセルで表現した実施例。 第21図(b)は第7図(b)の実施例を用いて同期的
なホップフィールド型ニューラルネットワークを実現す
る場合のニューロン出力値、結合重み値とメモリセルと
の対応関係を示した1実施例で、ニューロン高力値、結
合重み値を複数のメモリセルで表現した実施例。 第22図は符号ビット用いてニューロン出力値。 結合重み値に正負両方の値を取ることができるようにす
る場合の1実施例。 第23図はニューロン出力値と期待値の比較を行なう機
能を本発明による装置に持たせた場合の1実施例。 第24図はメモリセルアレーTGとメモリセルアレーA
の複数のデータ線対に読出された情報を比較してその一
致の程度を計算する比較回路の1実施例。 第25図はレジスタを設けてニューロン出力値の更新の
高速化を図った1実施例。 A、B、TG・・・メモリ回路、D・・・非線形関数回
路、12.12a、12b・・・演算回路、○UT・・
・読みだし回路、ml、m2.・・・・・・乗算器、a
l、a2゜・・・・・・加算器、bl、b2.・・・・
・・加算器、cl。 e2.・・・・・・加算器、cl’ 、c2’ 、・・
・・・・加算器。 SWl、SW2.・・・・スイッチ、WR・・・書き込
み回路、NE・・・演算回路制御信号、VIS、Vl・
・・ニューロン出力値、TIJIT1〜・・・結合重み
値、PR・・・プリチャージ回路、SA・・センスアン
プ、R5A・・・読み出しセンスアンプ、WS・・・書
き込みスイッチ、MT・・・乗算器、L、AT・・・ラ
ッチ回路、0UTLT・・・読み畠しラッチ回路、No
・・・積和出力線、NV・・・非線形関数回路高力線、
W A i 。 W B i+j・・・ワード線、DAi、/DAi・・
・データ線、DBi+/DBj・・・データ線、DTG
i、/DTGi・・・データ線、IA、IA・・・書込
み線、IB、IB・・・書込み線、OA、OA・・・読
み出し線、OB、OB・・・読み呂し線、DI・・書込
みデータ、第1図 \や、7ア 第2図 (C) g(x) th (d) g(x) 築3回 ((1) vr  ニーロンぷ77(連 Tji  起令′t1シ礒 第4図 NP アナログニューロブロセツブ 第5図 (a> 〔 第7 図 (幻 Z 7図 (b) A、B   7七リセJしアレー 114.138  了し−かH師日丁番第8図 Xl a b 2 第8図 (d) VJ9 (2) (σ) カ9 図 (b) うl(Xン ラ2(x) 第9図 (C) に ’j2(X) Xノ )r〜 Xノ 2 z 第12図 Vとと %+3 図 (Il) ■ 4 口 @) K tie tv) (d> V!? Nρm ¥、 +4面 <e) 會 一−,,,−一、、−−,−−−−−−−JBIFσI
T 水7]J’r7フ7 第15図 Ai Ai Bi Bi 第16図 (a) CS () u  (b   *  S   o  Cs   G 
 S   s ン   リ ((S  ≦ ζ   −>   (≦   5 第18図 (C) f3  (g  [2] (ε) 第18図 (d) 第19図 (a) IO 第20図 (a) (b) エンコーク ¥721(21 ((2) 第22図 EOR1、、、、EORn排他的オア 第23図 チップ 第24図 MP MPU 比較回路 比較器 比較線

Claims (1)

  1. 【特許請求の範囲】 1、情報を記憶するメモリ回路と、該メモリ回路に情報
    を書き込み、及び該メモリ回路より情報を読出す動作の
    少なくとも一方を行なう入出力回路と、上記メモリ回路
    に記憶されている情報を用いて演算を行なう演算回路と
    、上記メモリ回路、上記入出力回路、及び上記演算回路
    の動作を制御するための制御回路とを有する情報処理装
    置において、上記演算回路は上記メモリ回路に記憶され
    ているニューロンの出力値およびニューロン間の結合重
    み値を用いてニューロン出力値の更新値を計算する機能
    ならびに上記メモリ回路内に記憶されたニューロン出力
    値の期待値と得られたニューロン出力値との距離を計算
    する機能を有することを特徴とする情報処理装置。 2、特許請求の範囲第1項記載の情報処理装置において
    、上記メモリ回路に複数の性質の異なる入力データを記
    憶したことを特徴とする情報処理装置。 3、特許請求の範囲第2項記載の情報処理装置において
    、上記メモリ回路にニューロンの出力値の期待値を記憶
    したことを特徴とする情報処理装置。 4、特許請求の範囲第2項又は第3項記載の情報処理装
    置において、上記メモリ回路は複数のブロックより構成
    され、第1のブロックにニューロンの出力値、第2のブ
    ロックにニューロン間の結合重み値を記憶したことを特
    徴とする情報処理装置。 5、特許請求の範囲第4項記載の情報処理装置において
    、上記メモリ回路はさらに第3のブロックを有し、該第
    3のブロックに上記ニューロンの出力値の期待値を記憶
    したことを特徴とする情報処理装置。 6、上記ニューロンの出力値およびニューロン間の結合
    重み値の少なくとも何れか一方を複数のビットを用いて
    上記メモリ回路に記憶したことを特徴とする特許請求の
    範囲第1項乃至第5項の何れかに記載の情報処理装置。 7、特許請求の範囲第6項記載の情報処理装置において
    、ニューロンの出力値あるいはニューロン間の結合重み
    値を表す複数のビットの1部は上記ニューロンの出力値
    およびニューロン間の結合重み値の符号を表すために用
    いたことを特徴とする情報処理装置。 8、特許請求の範囲第1項乃至第7項の何れかに記載の
    情報処理装置において、上記メモリ回路は、1つのトラ
    ンジスタと1つのキャパシタよりなるメモリセルを含ん
    で構成されたことを特徴とする情報処理装置。 9、情報を記憶するメモリ回路と、該メモリ回路に情報
    を書き込み、及び該メモリ回路より情報を読出す動作の
    少なくとも一方の入出力回路と、上記メモリ回路に記憶
    されている情報を用いて演算を行なう演算回路と、上記
    メモリ回路、上記入出力回路、及び上記演算回路の動作
    を制御するための制御回路とを有する情報処理装置にお
    いて、上記メモリ回路は複数のデータ線とそれと交わる
    ように配置した複数のワード線とそれらの所望の交差部
    に配置されたメモリセルを有したメモリセルアレーを含
    んで構成され、上記ワード線の少なくとも1本を選択す
    ることにより、上記異なる複数のメモリセルに記憶され
    ている情報を上記ワード線に交差する異なる複数のデー
    タ線に読みだすことが出来、上記演算回路は上記メモリ
    回路から読出された情報を用いてニューロン出力値の更
    新値を計算する機能を持ち、上記入出力回路は、上記更
    新値を上記メモリ回路に書き込む機能を有することを特
    徴とする情報処理装置。 10、特許請求の範囲第9項記載の情報処理装置におい
    て、上記演算回路は上記メモリ回路内に記憶されたニュ
    ーロン出力値の期待値と得られたニューロン出力値との
    距離を計算する手段を有することを特徴とする情報処理
    装置。 11、特許請求の範囲第9項記載の情報処理装置におい
    て、上記メモリセルアレーにニューロンの出力値および
    ニューロン間の結合重み値を記憶したことを特徴とする
    情報処理装置。 12、特許請求の範囲第9項記載の情報処理装置におい
    て、上記メモリセルアレーに複数の性質の異なる入力デ
    ータを記憶したことを特徴とする情報処理装置。 13、特許請求の範囲第9項に記載の情報処理装置にお
    いて、上記メモリセルアレーにニューロンの出力値の期
    待値を記憶したことを特徴とする情報処理装置。 14、特許請求の範囲第9項又は第10項に記載の情報
    処理装置において、上記メモリアレーは複数のブロック
    より構成され、第1のブロックにニューロンの出力値、
    第2のブロックにニューロン間の結合重み値を記憶した
    ことを特徴とする情報処理装置。 15、ニューロンの出力値およびニューロン間の結合重
    み値の少なくとも何れか一方を複数のビットを用いて上
    記メモリ回路に記憶したことを特徴とする特許請求の範
    囲第9項乃至第14項の何れかに記載の情報処理装置。 16、特許請求の範囲第15項に記載の情報処理装置に
    おいて、ニューロンの出力値あるいはニューロン間の結
    合重み値を表す複数のビットの1部は上記ニューロンの
    出力値およびニューロン間の結合重み値の符号を表すた
    めに用いたことを特徴とする情報処理装置。 17、特許請求の範囲第9項乃至第16項の何れかに記
    載の情報処理装置において、上記メモリセル回路は、1
    つのトランジスタと1つのキャパシタよりなるメモリセ
    ルを含んで構成されたことを特徴とする情報処理装置。 18、特許請求の範囲第14項記載の情報処理装置にお
    いて、上記メモリ回路はさらに第3のブロックを有し、
    該第3のブロックに上記ニューロンの出力値の期待値を
    記憶したことを特徴とする情報処理装置。
JP11982890A 1990-01-24 1990-05-11 情報処理装置 Expired - Fee Related JP3260357B2 (ja)

Priority Applications (10)

Application Number Priority Date Filing Date Title
JP11982890A JP3260357B2 (ja) 1990-01-24 1990-05-11 情報処理装置
US07/634,046 US5165009A (en) 1990-01-24 1990-12-26 Neural network processing system using semiconductor memories
EP90125680A EP0438800B1 (en) 1990-01-24 1990-12-28 Neural network processing system using semiconductor memories
DE69028617T DE69028617T2 (de) 1990-01-24 1990-12-28 Halbleiterspeicher benutzendes neuronales Netzwerk
KR1019910001014A KR0178878B1 (ko) 1990-01-24 1991-01-22 반도체 메모리를 사용한 정보처리 시스템
US07/938,755 US5426757A (en) 1990-01-24 1992-09-01 Data processing circuits in a neural network for processing first data stored in local register simultaneous with second data from a memory
US08/369,163 US5594916A (en) 1990-01-24 1995-01-04 Neural network processing system using semiconductor memories and processing paired data in parallel
US08/723,012 US5875347A (en) 1990-01-24 1996-09-30 Neural network processing system using semiconductor memories
US09/198,658 US6205556B1 (en) 1990-01-24 1998-11-24 Semiconductor integrated circuit device comprising a memory array and a processing circuit
US09/739,758 US7043466B2 (en) 1990-01-24 2000-12-20 Neural network processing system using semiconductor memories

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2-12538 1990-01-24
JP1253890 1990-01-24
JP11982890A JP3260357B2 (ja) 1990-01-24 1990-05-11 情報処理装置

Related Child Applications (3)

Application Number Title Priority Date Filing Date
JP9119082A Division JPH1074187A (ja) 1997-05-09 1997-05-09 情報処理装置
JP9119083A Division JPH1091605A (ja) 1997-05-09 1997-05-09 情報処理装置
JP2001220831A Division JP3353786B2 (ja) 1990-01-24 2001-07-23 情報処理装置

Publications (2)

Publication Number Publication Date
JPH03250244A true JPH03250244A (ja) 1991-11-08
JP3260357B2 JP3260357B2 (ja) 2002-02-25

Family

ID=26348168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11982890A Expired - Fee Related JP3260357B2 (ja) 1990-01-24 1990-05-11 情報処理装置

Country Status (5)

Country Link
US (6) US5165009A (ja)
EP (1) EP0438800B1 (ja)
JP (1) JP3260357B2 (ja)
KR (1) KR0178878B1 (ja)
DE (1) DE69028617T2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109844772A (zh) * 2016-11-09 2019-06-04 国际商业机器公司 存储器单元结构
WO2020054061A1 (ja) * 2018-09-14 2020-03-19 富士通株式会社 最適化装置、最適化装置の制御方法および最適化装置の制御プログラム
JP2020077449A (ja) * 2018-10-11 2020-05-21 力晶積成電子製造股▲ふん▼有限公司Powerchip Semiconductor Manufacturing Corporation 人工知能動作を実行できるメモリチップおよびその方法
WO2021053453A1 (ja) * 2019-09-20 2021-03-25 株式会社半導体エネルギー研究所 半導体装置
JP2021509753A (ja) * 2018-01-04 2021-04-01 シリコン ストーリッジ テクノロージー インコーポレイテッドSilicon Storage Technology, Inc. 電流乗数を使用して不揮発性メモリ内にマルチビットデータを記憶及び取得するためのシステム及び方法
WO2021161808A1 (ja) * 2020-02-10 2021-08-19 国立研究開発法人科学技術振興機構 双安定回路、電子回路、記憶回路および処理装置
JP2021527864A (ja) * 2018-06-19 2021-10-14 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 実行時再構成可能なニューラル・ネットワーク・プロセッサ・コア
JP6962526B1 (ja) * 2021-01-04 2021-11-05 エッジコーティックス ピーティーイー. リミテッド ニューラルネットワークアクセラレータランタイム再構成可能性
JP2021179942A (ja) * 2020-05-13 2021-11-18 國立中正大學 内積計算装置
JP2022014488A (ja) * 2020-07-07 2022-01-20 華邦電子股▲ふん▼有限公司 人工知能操作用のメモリ装置
JP2022164559A (ja) * 2021-04-16 2022-10-27 旺宏電子股▲ふん▼有限公司 メモリデバイスおよびその動作方法
WO2023167168A1 (ja) * 2022-03-04 2023-09-07 国立大学法人九州工業大学 演算処理装置
US12002535B2 (en) 2019-09-20 2024-06-04 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device comprising memory cell array and arithmetic circuit

Families Citing this family (91)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9113553D0 (en) * 1991-06-21 1991-08-14 Univ London Neural network architecture
CA2112111A1 (en) * 1991-06-21 1993-01-07 Trevor Grant Clarkson Devices for use in neural processing
US5636327A (en) * 1991-09-18 1997-06-03 Matsushita Electric Industrial Co., Ltd. Neural network circuit
US5278945A (en) * 1992-01-10 1994-01-11 American Neuralogical, Inc. Neural processor apparatus
DE69319424T2 (de) * 1992-04-09 1999-04-15 Omron Tateisi Electronics Co Neuronales netzwerk-/ unscharfe logikkonvertierungsgerät.
EP0566015A3 (en) * 1992-04-14 1994-07-06 Eastman Kodak Co Neural network optical character recognition system and method for classifying characters in amoving web
US5256911A (en) * 1992-06-10 1993-10-26 Intel Corporation Neural network with multiplexed snyaptic processing
EP0654158A4 (en) * 1992-08-05 1996-03-27 Sarnoff David Res Center MASSIVE PARALLEL COMPUTER DEVICE.
US5581778A (en) * 1992-08-05 1996-12-03 David Sarnoff Researach Center Advanced massively parallel computer using a field of the instruction to selectively enable the profiling counter to increase its value in response to the system clock
US5579527A (en) * 1992-08-05 1996-11-26 David Sarnoff Research Center Apparatus for alternately activating a multiplier and a match unit
US5717947A (en) * 1993-03-31 1998-02-10 Motorola, Inc. Data processing system and method thereof
US5479574A (en) * 1993-04-01 1995-12-26 Nestor, Inc. Method and apparatus for adaptive classification
DE4316533C2 (de) * 1993-05-18 1997-09-18 Bodenseewerk Geraetetech Neuronales Netz für dynamische Prozesse
JP3345478B2 (ja) * 1993-09-20 2002-11-18 株式会社東芝 ニューラルネットワーク装置およびその学習方法
US5548771A (en) * 1993-11-02 1996-08-20 Motorola Inc. Multi-processor data processing system having multiple ports coupled to multiple interface circuits
US5603046A (en) * 1993-11-02 1997-02-11 Motorola Inc. Method for complex data movement in a multi-processor data processing system
US6335878B1 (en) * 1998-07-28 2002-01-01 Hitachi, Ltd. Non-volatile multi-level semiconductor flash memory device and method of driving same
US6665639B2 (en) 1996-12-06 2003-12-16 Sensory, Inc. Speech recognition in consumer electronic products
US6041322A (en) * 1997-04-18 2000-03-21 Industrial Technology Research Institute Method and apparatus for processing data in a neural network
WO1999033019A1 (en) * 1997-12-19 1999-07-01 Bae Systems Plc Neural networks and neural memory
EP1074722A1 (en) 1998-04-22 2001-02-07 Toyota Jidosha Kabushiki Kaisha Intake air volume detection device for internal combustion engine
US6502083B1 (en) * 1998-12-29 2002-12-31 International Business Machines Corporation Neuron architecture having a dual structure and neural networks incorporating the same
US6523018B1 (en) * 1998-12-29 2003-02-18 International Business Machines Corporation Neural chip architecture and neural networks incorporated therein
JP2001155486A (ja) * 1999-11-25 2001-06-08 Nec Corp 半導体スタティックメモリ
US6424961B1 (en) * 1999-12-06 2002-07-23 AYALA FRANCISCO JOSé Adaptive neural learning system
JP2001188767A (ja) * 1999-12-28 2001-07-10 Fuji Xerox Co Ltd ニューラルネットワーク演算装置及びニューラルネットワークの演算方法
FI113714B (fi) 2000-12-28 2004-05-31 Ari Paasio Prosessori, piiri ja menetelmä kuvien käsittelemiseksi rinnakkaisprosessoriverkossa
US6754645B2 (en) * 2001-03-20 2004-06-22 Winbond Electronics Corp. Voltage-mode pulse width modulation VLSI implementation of neural networks
US6999952B1 (en) * 2001-04-18 2006-02-14 Cisco Technology, Inc. Linear associative memory-based hardware architecture for fault tolerant ASIC/FPGA work-around
US7293002B2 (en) * 2001-06-19 2007-11-06 Ohio University Self-organizing data driven learning hardware with local interconnections
US7027446B2 (en) * 2001-07-18 2006-04-11 P-Cube Ltd. Method and apparatus for set intersection rule matching
US6836767B2 (en) * 2001-10-03 2004-12-28 International Business Machines Corporation Pipelined hardware implementation of a neural network circuit
US7062476B2 (en) * 2002-06-17 2006-06-13 The Boeing Company Student neural network
US6738301B2 (en) 2002-08-29 2004-05-18 Micron Technology, Inc. Method and system for accelerating coupling of digital signals
US7493295B2 (en) * 2003-01-17 2009-02-17 Francisco J. Ayala Method, system and computer program for developing cortical algorithms
JP2007504576A (ja) * 2003-01-17 2007-03-01 アヤラ,フランシスコ,ジェイ 人工知能を開発するためのシステム及び方法
GB2399899B (en) 2003-03-27 2005-06-22 Micron Technology Inc Active memory command engine and method
US7392229B2 (en) * 2005-02-12 2008-06-24 Curtis L. Harris General purpose set theoretic processor
US8443169B2 (en) * 2005-03-28 2013-05-14 Gerald George Pechanek Interconnection network connecting operation-configurable nodes according to one or more levels of adjacency in multiple dimensions of communication in a multi-processor and a neural processor
US8081592B2 (en) * 2005-10-26 2011-12-20 Qualcomm Incorporated Flexible medium access control (MAC) for ad hoc deployed wireless networks
US8065249B1 (en) 2006-10-13 2011-11-22 Harris Curtis L GPSTP with enhanced aggregation functionality
US7774286B1 (en) 2006-10-24 2010-08-10 Harris Curtis L GPSTP with multiple thread functionality
JP5045797B2 (ja) * 2010-02-24 2012-10-10 株式会社デンソー 通信用スレーブ
US8667230B1 (en) 2010-10-19 2014-03-04 Curtis L. Harris Recognition and recall memory
JP2013140541A (ja) * 2012-01-06 2013-07-18 Toshiba Corp 半導体記憶装置
US9159020B2 (en) 2012-09-14 2015-10-13 International Business Machines Corporation Multiplexing physical neurons to optimize power and area
US8990130B2 (en) 2012-11-21 2015-03-24 International Business Machines Corporation Consolidating multiple neurosynaptic cores into one memory
US9542643B2 (en) * 2013-05-21 2017-01-10 Qualcomm Incorporated Efficient hardware implementation of spiking networks
US9390368B2 (en) 2013-10-21 2016-07-12 International Business Machines Corporation Coupling parallel event-driven computation with serial computation
US9852006B2 (en) 2014-03-28 2017-12-26 International Business Machines Corporation Consolidating multiple neurosynaptic core circuits into one reconfigurable memory block maintaining neuronal information for the core circuits
US9489618B2 (en) * 2014-05-27 2016-11-08 Purdue Research Foudation Electronic comparison systems
US10318882B2 (en) * 2014-09-11 2019-06-11 Amazon Technologies, Inc. Optimized training of linear machine learning models
US10242313B2 (en) * 2014-07-18 2019-03-26 James LaRue Joint proximity association template for neural networks
US10318861B2 (en) * 2015-06-17 2019-06-11 International Business Machines Corporation Artificial neuron apparatus
KR101803409B1 (ko) * 2015-08-24 2017-12-28 (주)뉴로컴즈 다중 계층 신경망 컴퓨팅 장치 및 방법
WO2017158466A1 (en) * 2016-03-18 2017-09-21 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and system using the same
WO2017200088A1 (ja) * 2016-05-19 2017-11-23 国立大学法人北海道大学 ニューラルネットワーク回路及びニューラルネットワーク集積回路
CA2990709C (en) * 2016-05-26 2018-09-04 The Governing Council Of The University Of Toronto Accelerator for deep neural networks
CN108255514A (zh) * 2016-12-28 2018-07-06 上海磁宇信息科技有限公司 用于细胞阵列计算系统的神经元计算器操作方法
JP6668282B2 (ja) * 2017-03-21 2020-03-18 キオクシア株式会社 半導体記憶装置
US11222260B2 (en) * 2017-03-22 2022-01-11 Micron Technology, Inc. Apparatuses and methods for operating neural networks
WO2019012533A1 (en) * 2017-07-11 2019-01-17 Technion Research & Development Foundation Limited RECONFIGURABLE DAC IMPLEMENTED BY A NEURONAL NETWORK BASED ON A MEMORIST
JP2019021367A (ja) * 2017-07-20 2019-02-07 株式会社東芝 半導体装置
WO2019049686A1 (ja) * 2017-09-07 2019-03-14 パナソニック株式会社 半導体記憶素子を用いたニューラルネットワーク演算回路及び動作方法
US10586598B2 (en) * 2017-09-14 2020-03-10 Silicon Storage Technology, Inc. System and method for implementing inference engine by optimizing programming operation
KR102356708B1 (ko) * 2017-09-28 2022-01-27 삼성전자주식회사 컨볼루션 연산을 수행하는 연산 장치 및 연산 방법
KR102408858B1 (ko) * 2017-12-19 2022-06-14 삼성전자주식회사 비휘발성 메모리 장치, 이를 포함하는 메모리 시스템 및 비휘발성 메모리 장치의 동작 방법
US10971200B2 (en) * 2018-07-17 2021-04-06 Macronix International Co., Ltd. Semiconductor circuit and operating method for the same
US10741568B2 (en) 2018-10-16 2020-08-11 Silicon Storage Technology, Inc. Precision tuning for the programming of analog neural memory in a deep learning artificial neural network
US11119674B2 (en) * 2019-02-19 2021-09-14 Macronix International Co., Ltd. Memory devices and methods for operating the same
KR102164996B1 (ko) 2019-03-26 2020-10-13 주식회사 푸른기술 지폐 감별 시스템 전면의 커버 개폐기구
WO2020202352A1 (ja) 2019-03-29 2020-10-08 株式会社ワコム ペン状態検出回路及びペン状態検出方法
US10832745B1 (en) 2019-07-26 2020-11-10 Micron Technology, Inc. Apparatuses and methods for performing operations using sense amplifiers and intermediary circuitry
US11556759B2 (en) 2019-08-06 2023-01-17 Micron Technology, Inc. Comparison of biometric identifiers in memory
US11054997B2 (en) 2019-08-12 2021-07-06 Micron Technology, Inc. Artificial neural networks in memory
US11169737B2 (en) * 2019-08-13 2021-11-09 Micron Technology, Inc. Speculation in memory
US11055003B2 (en) 2019-08-20 2021-07-06 Micron Technology, Inc. Supplemental AI processing in memory
US11694065B2 (en) 2019-08-28 2023-07-04 Micron Technology, Inc. Spiking neural unit
US11270756B2 (en) 2019-08-28 2022-03-08 Micron Technology, Inc. Row hammer mitigation
US11152054B2 (en) 2019-08-28 2021-10-19 Micron Technology, Inc. Apparatuses and methods for performing background operations in memory using sensing circuitry
US11681797B2 (en) 2019-08-28 2023-06-20 Micron Technology, Inc. Row activation prevention using fuses
KR20210060024A (ko) * 2019-11-18 2021-05-26 에스케이하이닉스 주식회사 신경망 처리 회로를 포함하는 메모리 장치
US11417372B2 (en) 2020-03-06 2022-08-16 Micron Technology, Inc. Interface protocol configuration for memory
US11081149B1 (en) * 2020-03-31 2021-08-03 Winbond Electronics Corp. Memory device for artificial intelligence operation
US11372585B2 (en) 2020-05-05 2022-06-28 Micron Technology, Inc. Asynchronous process topology in a memory device
US11144482B1 (en) 2020-05-05 2021-10-12 Micron Technology, Inc. Bidirectional interface configuration for memory
US11348622B2 (en) 2020-05-06 2022-05-31 Micron Technology, Inc. Conditional write back scheme for memory
US11449269B2 (en) 2020-07-22 2022-09-20 Micron Technology, Inc. Edge compute components under a memory array
JP7126534B2 (ja) * 2020-09-29 2022-08-26 株式会社日立製作所 計算機システム、リソース再割当方法
JP7458960B2 (ja) * 2020-11-10 2024-04-01 ルネサスエレクトロニクス株式会社 半導体装置
WO2022139859A1 (en) * 2020-12-23 2022-06-30 Silicon Storage Technology, Inc. Input and digital output mechanisms for analog neural memory in a deep learning artificial neural network

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4254474A (en) * 1979-08-02 1981-03-03 Nestor Associates Information processing system using threshold passive modification
US4471426A (en) * 1981-07-02 1984-09-11 Texas Instruments Incorporated Microcomputer which fetches two sets of microcode bits at one time
US4611299A (en) * 1982-02-22 1986-09-09 Hitachi, Ltd. Monolithic storage device
KR860007588A (ko) * 1985-03-25 1986-10-15 미쓰다 가쓰시게 데이터 처리장치
US4847755A (en) * 1985-10-31 1989-07-11 Mcc Development, Ltd. Parallel processing method and apparatus for increasing processing throughout by parallel processing low level instructions having natural concurrencies
US4777858A (en) * 1986-04-14 1988-10-18 Petschulat David J Adjustable string contact system for a musical instrument
JP2569010B2 (ja) * 1986-05-21 1997-01-08 株式会社日立製作所 半導体メモリ
JPS6339191A (ja) 1986-08-05 1988-02-19 Fujitsu Ltd 半導体記憶装置
US5010477A (en) * 1986-10-17 1991-04-23 Hitachi, Ltd. Method and apparatus for transferring vector data between parallel processing system with registers & logic for inter-processor data communication independents of processing operations
US4797858A (en) * 1987-03-30 1989-01-10 Motorola, Inc. Semiconductor memory with divided word lines and shared sense amplifiers
US5179680A (en) * 1987-04-20 1993-01-12 Digital Equipment Corporation Instruction storage and cache miss recovery in a high speed multiprocessing parallel processing apparatus
JP3016392B2 (ja) * 1987-08-28 2000-03-06 株式会社日立製作所 スタティック型ram
GB8720387D0 (en) 1987-08-28 1987-10-07 British Telecomm Matching vectors
US4955024A (en) * 1987-09-14 1990-09-04 Visual Information Technologies, Inc. High speed image processing computer with error correction and logging
US4975961A (en) * 1987-10-28 1990-12-04 Nec Corporation Multi-layer neural network to which dynamic programming techniques are applicable
JPH01128296A (ja) 1987-11-13 1989-05-19 Nippon Telegr & Teleph Corp <Ntt> 半導体記憶装置
US5023833A (en) * 1987-12-08 1991-06-11 California Institute Of Technology Feed forward neural network for unary associative memory
JPH01159890A (ja) 1987-12-17 1989-06-22 Mitsubishi Electric Corp 半導体記憶装置
FR2625347B1 (fr) * 1987-12-23 1990-05-04 Labo Electronique Physique Structure de reseau de neurones et circuit et arrangement de reseaux de neurones
US4979126A (en) * 1988-03-30 1990-12-18 Ai Ware Incorporated Neural network with non-linear transformations
US4873962A (en) * 1988-05-09 1989-10-17 F & B Mfg. Co. High efficiency electrical alternator system
EP0378115B1 (en) * 1989-01-06 1998-09-30 Hitachi, Ltd. Neural computer
US5107442A (en) * 1989-01-12 1992-04-21 Recognition Equipment Incorporated Adaptive neural network image processing system
US4974169A (en) * 1989-01-18 1990-11-27 Grumman Aerospace Corporation Neural network with memory cycling
US4988891A (en) * 1989-05-09 1991-01-29 Mitsubishi Denki Kabushiki Kaisha Semiconductor neural network including photosensitive coupling elements
US5140670A (en) * 1989-10-05 1992-08-18 Regents Of The University Of California Cellular neural network
US5163120A (en) * 1989-10-13 1992-11-10 Texas Instruments Incorporated Second nearest-neighbor communication network for synchronous vector processor, systems and methods
US5239654A (en) * 1989-11-17 1993-08-24 Texas Instruments Incorporated Dual mode SIMD/MIMD processor providing reuse of MIMD instruction memories as data memories when operating in SIMD mode
US5142665A (en) * 1990-02-20 1992-08-25 International Business Machines Corporation Neural network shell for application programs
US5301340A (en) * 1990-10-31 1994-04-05 International Business Machines Corporation IC chips including ALUs and identical register files whereby a number of ALUs directly and concurrently write results to every register file per cycle
US5752067A (en) * 1990-11-13 1998-05-12 International Business Machines Corporation Fully scalable parallel processing system having asynchronous SIMD processing

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019537187A (ja) * 2016-11-09 2019-12-19 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation メモリ・セル構造、メモリ・セル・システム、およびメモリ・セル構造を製造するための方法
CN109844772A (zh) * 2016-11-09 2019-06-04 国际商业机器公司 存储器单元结构
JP2021509753A (ja) * 2018-01-04 2021-04-01 シリコン ストーリッジ テクノロージー インコーポレイテッドSilicon Storage Technology, Inc. 電流乗数を使用して不揮発性メモリ内にマルチビットデータを記憶及び取得するためのシステム及び方法
JP2021527864A (ja) * 2018-06-19 2021-10-14 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 実行時再構成可能なニューラル・ネットワーク・プロセッサ・コア
WO2020054061A1 (ja) * 2018-09-14 2020-03-19 富士通株式会社 最適化装置、最適化装置の制御方法および最適化装置の制御プログラム
JPWO2020054061A1 (ja) * 2018-09-14 2021-05-13 富士通株式会社 最適化装置、最適化装置の制御方法および最適化装置の制御プログラム
US11886780B2 (en) 2018-09-14 2024-01-30 Fujitsu Limited Optimization device, optimization device control method, and computer-readable recording medium recording optimization device control program
US11443185B2 (en) 2018-10-11 2022-09-13 Powerchip Semiconductor Manufacturing Corporation Memory chip capable of performing artificial intelligence operation and method thereof
JP2020077449A (ja) * 2018-10-11 2020-05-21 力晶積成電子製造股▲ふん▼有限公司Powerchip Semiconductor Manufacturing Corporation 人工知能動作を実行できるメモリチップおよびその方法
WO2021053453A1 (ja) * 2019-09-20 2021-03-25 株式会社半導体エネルギー研究所 半導体装置
US12002535B2 (en) 2019-09-20 2024-06-04 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device comprising memory cell array and arithmetic circuit
WO2021161808A1 (ja) * 2020-02-10 2021-08-19 国立研究開発法人科学技術振興機構 双安定回路、電子回路、記憶回路および処理装置
JP2021179942A (ja) * 2020-05-13 2021-11-18 國立中正大學 内積計算装置
JP2022014488A (ja) * 2020-07-07 2022-01-20 華邦電子股▲ふん▼有限公司 人工知能操作用のメモリ装置
JP2022105467A (ja) * 2021-01-04 2022-07-14 エッジコーティックス ピーティーイー. リミテッド ニューラルネットワークアクセラレータランタイム再構成可能性
JP6962526B1 (ja) * 2021-01-04 2021-11-05 エッジコーティックス ピーティーイー. リミテッド ニューラルネットワークアクセラレータランタイム再構成可能性
JP2022164559A (ja) * 2021-04-16 2022-10-27 旺宏電子股▲ふん▼有限公司 メモリデバイスおよびその動作方法
WO2023167168A1 (ja) * 2022-03-04 2023-09-07 国立大学法人九州工業大学 演算処理装置

Also Published As

Publication number Publication date
EP0438800A2 (en) 1991-07-31
US7043466B2 (en) 2006-05-09
EP0438800B1 (en) 1996-09-18
KR910014830A (ko) 1991-08-31
KR0178878B1 (ko) 1999-05-15
DE69028617D1 (de) 1996-10-24
US5165009A (en) 1992-11-17
US5875347A (en) 1999-02-23
US5594916A (en) 1997-01-14
DE69028617T2 (de) 1997-04-03
EP0438800A3 (en) 1992-05-20
US6205556B1 (en) 2001-03-20
JP3260357B2 (ja) 2002-02-25
US20020032670A1 (en) 2002-03-14
US5426757A (en) 1995-06-20

Similar Documents

Publication Publication Date Title
JPH03250244A (ja) 情報処理装置
US11361216B2 (en) Neural network circuits having non-volatile synapse arrays
US9697877B2 (en) Compute memory
CN111656368A (zh) 硬件加速的离散式神经网络
US20200202203A1 (en) Neural network computation circuit including semiconductor storage elements
JPH0467259A (ja) 情報処理装置
US10453527B1 (en) In-cell differential read-out circuitry for reading signed weight values in resistive processing unit architecture
JP3353786B2 (ja) 情報処理装置
WO2019049686A1 (ja) 半導体記憶素子を用いたニューラルネットワーク演算回路及び動作方法
CN115376581A (zh) 一种基于忆阻器的存内计算阵列结构
US5140531A (en) Analog neural nets supplied digital synapse signals on a bit-slice basis
JP2001034735A (ja) 情報処理装置
CN114861902A (zh) 处理单元及其操作方法、计算芯片
JPH02181284A (ja) ニューラルネットワーク
JPH1091605A (ja) 情報処理装置
JPH06187472A (ja) アナログニューラルネットワーク
JPH1074187A (ja) 情報処理装置
JPH0683622A (ja) 情報処理装置
US20240028297A1 (en) Semiconductor device performing a multiplication and accumulation operation
US11106971B2 (en) Neuromorphic device and a synapse network including a post-synaptic neuron having a subtracting circuit
US11120864B2 (en) Capacitive processing unit
CN115062583B (zh) 一种求解优化问题的hopfield网络硬件电路及操作方法
KR20240076869A (ko) 비트 라인의 전압 변화를 이용한 뉴런 회로
KR20220141652A (ko) 멀티-비트 연산 장치 및 방법
JP2831076B2 (ja) ニューロコンピュータ

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees