JPH0467259A - 情報処理装置 - Google Patents

情報処理装置

Info

Publication number
JPH0467259A
JPH0467259A JP2179674A JP17967490A JPH0467259A JP H0467259 A JPH0467259 A JP H0467259A JP 2179674 A JP2179674 A JP 2179674A JP 17967490 A JP17967490 A JP 17967490A JP H0467259 A JPH0467259 A JP H0467259A
Authority
JP
Japan
Prior art keywords
value
line
information processing
cell
neuron
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2179674A
Other languages
English (en)
Inventor
Takao Watabe
隆夫 渡部
Katsutaka Kimura
木村 勝高
Kiyoo Ito
清男 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2179674A priority Critical patent/JPH0467259A/ja
Priority to DE1991624853 priority patent/DE69124853T2/de
Priority to EP19910305201 priority patent/EP0466331B1/en
Publication of JPH0467259A publication Critical patent/JPH0467259A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • G06T7/231Analysis of motion using block-matching using full search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • H04N19/433Hardware specially adapted for motion estimation or compensation characterised by techniques for memory access
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Memory System (AREA)
  • Dram (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、大規模かつ高速な並列分散処理を実現するた
めの情報処理装置に関するものである。
特にニューラルネットワークの原理を用いて情報処理を
行なう情報処理装置として有効に利用できる。
〔従来の技術〕
ニューロコンピユーテイングとよばれるニューラルネッ
トワークを用いた並列分散型情報処理(以下ニューラル
ネットワーク情報処理)は、コンプレックスシステムズ
1(1987年)第145頁から第168頁(Sejn
owski、 T、 J、、 andRosenber
g、 C,R,1987,Parallel nett
+orksthat 1earn to pronou
nce English text。
Complex Systems 1. pp、145
−168)あるいはニューラルネットワーク情報処理(
産業図書、麻生英樹著)などに述べられているように音
声あるいは画像処理などの分野において注目を集めてい
る。ニューラルネットワーク情報処理では、ネットワー
ク状に結合した多数のニューロンと呼ばれる演算要素が
、結合と呼ばれる伝達線を通じて情報をやすとすして高
度な情報処理を行なう。各々のニューロンでは他のニュ
ーロンから送られてきた情報にニューロン出力値)に対
して積あるいは和などの単純な演算が行なわれる。各々
のニューロン内の演算、さらには、異なるニューロンの
演算も並列に行なうことが可能なため、原理的には、高
速に情報処理を行なうことができる特長を持っている。
また、ネイチャー323−9、(1986年a)第53
3頁から第535頁(Rua+elhart、 D。
E、、 Hinton、 G、 E、、 and Wi
lliams、 R,J、 1986a。
Learning representations 
by back−propagationerrors
、 Nature 323−9. pp、533−53
6) 、あるいはニューラルネットワーク情報処理(産
業図書、麻生英樹著)第2章などに述べられているよう
に、望ましい情報処理を行なわせるためにニューロン同
志をつなぐ結合の重み値を設定するアルゴリズム(学習
)も提案されているため、目的に応した様様な情報処理
をさせることができる。
ニューラルネットワークの動作原理を2種類の代表的な
ネットワークである階層型ネットワークとホップフィー
ルド型ネットワークについて説明する。第3図(a)は
、階層型ネットワーク、第4図(a)は、ホップフィー
ルド型ネットワークの構造を示したものである。これら
は、どちらもニューロンと二ニーロン同土をつなぐ結合
から構成されている。ここでは、ニューロンという用語
を用いるが、場合によってはノード、あるいは演算要素
などと呼ばれることもある。結合の矢印の向きは、ニュ
ーロン出力値の伝わる方向を示している。階層型ネット
ワークは、第3図(a)に示したように、ニューロンが
複数の階層をなすように並び、入力層から出力層へ向か
う方向にのみニューロン出力値が伝わるものである。一
方、ホップフィールド型ネットワークは、第4図(a)
に示したように、任意の2つのニューロン間で両方向に
ニューロン出力値が伝わるものである。
第3図(b)、第4図(b)にニューロン内で行なわれ
る演算の原理を示した。演算の原理はどちらのネットワ
ークでも同様なので、第3図(b)を用いて階層型ネッ
トワークについて説明する。
第3図(b)は、S+1番目の層内のS番目のニューロ
ンを拡大して示したものである。このニューロン内には
結合を通じて前層、すなわちS番目の層内のニューロン
の出力値 V工SHHHI V15y、、、Vnssが
入力される。ここで、nsはS番目の層内のニューロン
の数を示している。ニューロン内では入力されたニュー
ロンの出力値VLny、、r vlst 、、、Vns
sと結合重み値TsJII+ + 、 T5J t、 
、 、 、 TsJ  n5との積V □s T sJ
 1+* * y VISTSJ 1.、、、Vns 
5TSa  ns が乗算機MTにより計算される。つ
ぎに、これらの積と一θJSヤ、どの和を加算機ADD
により計算する。
ここで、θjsヤ、はオフセットと呼ばれる量で場合に
よっては、省略してもよい。さらに、その結果を非線形
関数回路りに入力してニューロンの呂力値vJsヤ、を
得る。非線形関数回路りは第3図(C)あるいは、(d
)に示したような特性を持ち、入力Xに対して出力g 
(x)を出力する。第3rXI(C)は、入力Xがある
しきい値xthを越えるか否かにより2値の出力g1あ
るいはg2を出力する非線形関数の例であり、第3図(
d)は、シグモイド関数を用いた例で連続的な出力を出
す例である。
非線形関数回路りには、必要に応じてこの他の特性を持
たせることもある。また、場合によっては、線形の特性
を持たせてもよい。
上記の演算の原理は、第4図(b)に示したようにホッ
プフィールド型ネットワークでも同様である。ただし、
ホップフィールド型ネットワークでは、1つのニューロ
ンに自分自身を除くすへてのニューロンの出力値が入力
される。
第3図(a)、(b)より判るように、階層型ネットワ
ークでは、まず、入力層のニューロンの出力値を設定し
、それをもとに次々に隠れ層のニューロンの出力値が更
新されて、最後に呂力層のニューロンの出力値が更新さ
れる。一方、第4図(、)のようにホップフィールド型
ネットワークでは、層というものがないため、それぞれ
のニューロンは、適当なタイミングで出力値を更新する
ことができる。このホップフィールド型ネットワークで
は、すべてのニューロン出力値の初期値を適当に与え、
ニューロン出力値が平衡状態となるまでニューロン出力
値の更新を続ける。ニューロンの出力値が平衡状態とな
るまでには、ふつう全てのニューロンについて出力値の
更新を何度か行なう必要がある。すべてのニューロンの
出力値を同時に更新するものを同期的なホップフィール
ド型ネットワーク、それぞれのニューロンが、勝手なタ
イミングで出力値を更新するものを非同期的なホップフ
ィールド型ネットワークと呼ぶ。
上記のようなニューラルネットワークの演算をハードウ
ェアで行う方法が最近盛んに研究されている。それらに
ついては、例えばアイ、イー、イ、イー、1988 カ
スタム インテグレーテッド サーキッツ コンファレ
ンスのダイジェスト   10.  1   (DIG
EST    OF    IEEE1988  CU
STOM  INTEGURATED  CIRCUI
TS  C0NFERENCE10.1)などに説明さ
れている。
ハードウェアによりニューラルネットワークの原理を用
いた情報処理装置を実現するためには次のような点につ
いて留意しなくてはならない。まず、高度な処理を行う
ためにはできるだけ多くのニューロンを集積することが
必要となるので、大規模なネットワークを実現するため
にはニューロンを構成する素子の数を少なくすることが
必要となる。また、様々な用途に対応できる装置にする
ためには用途に応じて結合重みの値を容易に書き替えら
れることも必要となる。
上記の点のうち、特に構成素子の数を少なくすることに
適した方法がエレクトロニクス レターズ第23巻、ナ
ンバー24 (1987年11月19日)第1313頁
、第2図(ELECTRONIC8LETTER5,1
9th  November  1987.vol、2
3.  no。
24、  pp1313.Fig、1)に記載されてい
る。本従来例を第5図に示した。第5図において、キャ
パシタC4は結合重み値をその大きさに比例したアナロ
グ電圧として記憶するためのものである。MOSトラン
ジスタM4は、第3図(b)、第4図(b)における乗
算器MTに相当するものである。ニューロン出力値に比
例した電圧ViがM4のトレインに印加されると、M4
のソースに電流が流れる。この時の電流の大きさはM4
ゲート電圧すなわちキャパシタC4の電圧で制御できる
。したがって、M4は結合重み値とニューロン出力値に
対して乗算器として動作する。
結合重み値を書き替えるには端子V c xに所望の電
圧を与えてスイッチSW4を閉じればよい。破線で示し
たように、M4のソースに同様な回路を接続することに
よりアンプap4にはニューロン出力値と結合重み値の
積和に比例した電流が入力される。したがって、電流電
圧変換型アンプap4の特性を非線形関数gをオフセッ
トの分だけシフトした形に設定すれば、第5図の回路は
1つのニューロンを構成することになる。ネットワーク
を構成するには第5図の回路をさらに複数個接続すれば
よい。本実施例では乗算を1つのトランジスタM4によ
り行っているので構成素子数が少ないという利点がある
一方、結合重み値をデジタルメモリに蓄えて演算を行う
別の従来例がアイ、シー、エヌ、エヌ87のダイジェス
ト第3巻、第501頁から第513頁(DIGEST 
 OF  IST  ICNN87 1−501−51
3)に述べられている。
第6図は、上記文献の第6図に記載された回路で、マル
チプライング デジタル アナログ コンバータ(MD
AC)と呼ばれる回路である。本回路は4ビットのデジ
タル値で表された結合重み値とニューロン出力値に相当
する電圧Viとの積を計算するものである。この回路を
多数結合することによりニューラルネットワークを構成
できる。
第6図において結合重みは、B4.B3.B2゜B1の
4ビットおよび符号ビットE/Iで表される。B4.B
3.B2.Blの4ビットは結合重みの絶対値を表し、
符号ビットE/Iは結合重みの符号を表す。各ビットは
高電位あるいは低電位の2値を与えるようなメモリセル
で構成される。
結合重み値が正のときには、符号ビットE/Iを高電位
に、結合重み値が負のときには、符号ビットE/Iを低
電位にする。
符号ビットE/Iが高電位のときには、Eで示したMO
Sトランジスタ群がオンし、■で示したMOSトランジ
スタ群がオフする。この状態では総和線Cに■1と結合
重み値の積に比例した電流が流れる。一方、E/Iが低
電位のときには、総和線/Cに■1と結合重み値の積に
比例した電流が流れる。同様な回路を多数接続するとC
と/Cとの電流差がニューロン出力値と結合重み値との
積の総和となる。これを検出して電圧に変換すればニュ
ーロン出力値に相当する8力電圧を得ることができる。
本従来例では、B4.B3.B2゜B1に接続されるM
OSトランジスタの個数を変えることにより総和線とV
iとの間のインピーダンスを8:4:2:1としである
ので、結合重みは4ビットの2進法で表現できることに
なる。
〔発明が解決しようとする課題〕
しかし、第5図の実施例においては結合重み値をキャパ
シタにアナログ電圧値として蓄えているために次のよう
な問題が生じる。よく知られているようにキャパシタに
蓄えられた電荷は、時間と共にリークするので、それに
より電圧も低下する。
したがって、一定時間内に電圧を回復させるリフレッシ
ュ動作が必要となる。このことは、同様な回路であるア
イ、イー、イー、イー、1988カスタム インテグレ
ーテッド サーキッッ コンファレンスのダイジェスト
 10.1  (DIGEST  OF  IEEE 
 1988  CUST○M  INTEGURATE
D  CIRCUITSCONFERENCE  10
.1) の第5@の回路についても指摘されている。し
かし、アナログ電圧をリフレッシュするのは容易ではな
い。
−例としてアイ、ニス、ニス、シー、シー90のダイジ
ェスト 第142頁から第143頁(Digest  
of  TechnicalPapers  l5SC
C90,(Feb、1990)pp142−143)に
DAコンバータとデジタルメモリを用いた方法が述べら
れている。しかし、すべての結合重みを記憶するだけの
デジタルメモリと多数のDAコンバータが必要であるた
め、回路規模が大きくなってしまう。
また、数百5数千というような多くのニューロンを集積
するためには第5図に示した回路を多数用いて相互に配
線する必要があるが上記文献には第5図に示した回路を
如何にして高集積に配置し、互いに配線するかというこ
とについては述べられていない。
一方、第6図に示した従来例によれば、結合重み値をデ
ジタル値で記憶できるため、結合重み値の書替え、読呂
しなどが容易にでき、上記のリフレッシュに伴う問題点
も解決できる。
しかし、第6図に示した従来例では第5図の従来例と比
較してニューロンの構成素子数が多くなるのでこれをそ
のまま配置して数百、数千というような多くのニューロ
ンを集積することは第5図の従来例よりもさらに困難と
なる。
また、大規模なネットワークを実現するには微細なトラ
ンジスタを用いる必要があるが、その場合にはアナログ
値ではもちろん、たとえ結合重み値をデジタル値で記憶
したとしてもノイズなどの影響で結合重み値の保持、書
替え、読出しなどを安定に行うことが困難になることが
予想される。
本発明が解決しようとする課題は、ニューラルネットワ
ーク情報処理装置において高集積化に適した装置を提供
することにある。特に微細なトランジスタで構成した場
合においても安定に結合重み値の保持、書替え、読出し
などを安定に行える構成を提供することにある。
〔課題を解決するための手段〕
上記課題を達成するために、本発明では、2つのトラン
ジスタより成るセルをアレー状に配置することにより装
置を構成し、上記セルは、内部のキャパシタに1ビット
の情報を2値の電圧として記憶するようにした。結合重
み値は複数のセルによりデジタル値で記憶する。また、
結合重み値の書込み、読出しおよびニューロン出力値と
結合重み値との積和計算をそれぞれ差動信号を用いて行
う。さらに、結合重み値の書込み、読出しを差動信号で
行うデータ線対ならびに上記積和計算を差動信号で行う
総和線対はそれぞれ、容量のアンバランスが小さくなる
ように対となる線に同じ数のセルを接続した。
〔作用〕
2つのトランジスタより成るセルをアレー状に配置する
ためレイアウトが容易で、占有面積を小さくできる。ま
た、結合重み値をデジタル値で記憶しているため記憶内
容の保持、読み書きなどが容易に小規模の回路でできる
。また、容量のアンバランスが小さい対線を用いて結合
重み値の読出し、書き込み、および上記の積和計算を行
うため、対線間で雑音の影響が等しい。したがって、信
号の検出時に雑音がキャンセルされる。このため、装置
を微小なトランジスタで構成しても安定な動作を行うこ
とができる。
これらのことより、本発明によれば大規模なニューラル
ネットワークを高集積に実現できる。
〔実施例〕
第1図(a)は本発明による装置の基本的な構成を示し
た実施例である。本実施例では、ニューロン出力値と結
合重み値の積和計算を行うことにより、n個のニューロ
ンと結合を持つm個の二ニーロン出力値を並列に求める
ことができる。第1図(a)においてSは結合重み値の
記憶および上記積和計算を行うためのセルアレー、RW
は、結合重み値の読出し書き込みを行うための読出し、
書き込み回路、NLは上記積和計算の結果から非線形関
数gに対応する変換をしてニューロン出力値を計算する
ための電流電圧変換回路群である。
セルアレーS等を制御するための回路は省略しである。
セルアレーSにはセルEおよび■がアレー状に配置され
ている。セルの構成を第1図(b)、(C)に示した。
第1図(b)、(c)においてW。
はセルを選択するためのワード線、DJ、/DJは書込
み、読み出しを差動信号を用いて行うためのデータ線対
、IVLはニューロン呂力値に相当する電圧が入力され
る入力線、CJ、/CJはニューロン出力値と結合重み
値との乗算結果を電流として加算し、差動信号として電
流電圧変換回路Gに伝達するための総和線対である。第
1図(b)。
(C)に示したようにセルE、Iはともに2つのMOS
トランジスタより構成され、セルEは、ワード線Wl、
入力線IVI、データ線D J 、総和線C1に接続さ
れ、セル■は、ワード線Wi、入力線IVi、データ線
/D4.総和線/ CJ に接続される。セルには1ビ
ットの情報を記憶することができ、後述するように積を
計算する機能も持つ。セルに記憶された情報の読み書き
、保持(リフレッシュ)は1トランジスタ1キヤパシよ
りなるDRAMセルと同様の原理にもとずいて行われる
。セルE内のMOSトランジスタMEI、セル■内のM
OS)トランジスタMIIがDRAMセルにおけるスイ
ッチトランジスタに、MOSトランジスタME2とMI
2のゲート容量がDRAMセルにおけるキャパシタに相
当する。乗算は、入力線IV+ からセルを通して総和
線C4Hあるいは/C−に流れ込む電流が入力線IVi
の電圧とME2あるいはMI2のゲート電圧の積で決ま
ることを利用して行われる。ME2あるいはMI2のゲ
ート容量が低電位、すなわち記憶情報がOのときには入
力線IViと総和線CJ lあるいは/CJは非導通状
態となりセルから総和線には電流が流れない。ME2あ
るいはMI2のゲート容量が高電位、すなわち記憶情報
が1のときには入力線IV+と総和線CJ 、あるいは
/CJは導通状態となり、総和線Ca 、あるいは/C
Jに流れ込む電流は入力線IV+の電圧とMOSトラン
ジスタME2あるいはMI2のコンダクタンスで決まる
。したがって、セルE、Iは1ビットの記憶情報と入力
線IVt の電圧との乗算を行なう乗算器として動作す
る。
第1図(a)にもどって結合重み値の書込み、読出し、
リフレッシュ、ならびにニューロン出力値を求めるため
の積和計算について説明する。前記したように書込み、
読出し、リフレッシュについては通常のDRAMと同様
である。以下ではセルEについて説明を行なうがセルエ
についても同様である。書込み動作は次のようにして行
なわれる。まず、書き込む情報を入出力線対IO,/I
Oに差動電圧として与える。つづいて、ワード線W*p
、Y選択信号YJを高電位とすると、書込み、読出し回
路RWを通じて入出力線対の信号がデータ線対DJ、1
04に伝達され、ワード線W t Eとデータ線DJ 
に接続されたセルE内のMOSトランジスタME2のゲ
ートがデータ線DJ と同電位となりセルに情報が書き
込まれる。セルEに記憶された信号を読出すにはまず、
データ線対をプリチャージ回路PCHにより一定電位に
プリチャージする。その後、ワード線W i E、を高
電位とするとセルEに記憶されている情報が1(高電位
)か0(低電位)かにより、データ線り、の電位がわず
かに/DJ の電位より高く、あるいは低くなる。
この差をセンスアンプSAにより増幅し、Y選択信号Y
4を高電位として入出力線対IO,/IOに差動信号と
して読出す。リフレッシュはY選択信号をすべて低電位
に保ったまま読出し動作を行なうことにより容易にでき
る。ワード線W、を立ち上げて読出し動作を行なうとセ
ンスアンプSAによりデータ線DJ、/ D Jがセル
の内容に対応した電位に充電される。このとき、ワード
線W IEに接続されたセル内のMOSトランジスタM
E2あるいはMI2のゲート容量の電位もデータ線D6
、あるいは/D、の電位と同じとなる。したがって。
電荷のリークによって変動したセル内のMOSトランジ
スタME2あるいはMI2のゲート容量の電位を回復す
ることができる。電荷のリークが問題とならない周期で
ワード線を次々に選択してリフレッシュを行なえば全て
のセルのリフレッシュを行なうことができる。
上記の読出し、リフレッシュにおいてデータ線上に生し
た微小な信号を検呂する際には、誤動作をさけるため雑
音に特に注意する必要がある。このことは高集積化を図
るために微細なトランジスタを用いるときには特に重要
である。第1図(a)の実施例においても1つのセンス
アンプにつながるデータ線対には同じワード線が交差す
るようになっており、さらに、対を成すデータ線DJ、
 /D1については接続されているセル数が同数になっ
ている。したがって、データ線対間での容量のアンバラ
ンスが小さく、ワード線との容量カップリングにより発
生する雑音がほぼ等しくなり雑音が相殺される。ネット
ワークの規模が大きくなるほど微細なトランジスタを用
いる必要があるのでデータ線上に読出される信号の大き
さは小さくなる。したがって1本実施例のようにデータ
線対の容量のアンバランスを小さく抑えることは、大規
模なニューラルネットを実現するのに重要である。
ニューロン出力値の計算は次のようにして行うことがで
きる。n個のニューロン出力値が入力線I v、E、 
 I V、xt −−t  I VXE?  I Vx
Iを通じて入力され、セルアレーS内のセルEおよび■
に伝達される。セルにおいては二ニーロン出力値と結合
重み値との乗算が行なわれその総和が電流値として総和
線CJ、/CJに差動信号として出力される。電流電圧
変換回路Gでは、総和線CJ −/ CJに差動信号と
して出力された積和結果を電圧値に変換して出力線○V
1.OVzからm個のニューロン出力値を電圧値として
並列に出力する。なお、対となる総和線Cj、/C,に
は同じ入力線が交差している。また、同数のセルが接続
されて容量のバランスがとれている。このため、積和計
算においても容量カップリングによる雑音は相殺される
従って、素子を微細化した場合でも安定な動作が実現で
きる。
ニューロン出力値と結合重み値との乗算の総和を差動信
号として読出すには様々な方法が考えられる。例えば、
総和線/Cjに接続されるセル■をダミーセルとして常
に1を書込み、総和線/CJに常に同一の電流値を8力
するようにすれば、総和線/CJに流れる電流は、総和
線CJに流れる電流に対して参照電流値を与えることに
なる。したがって、積和結果を差動信号として扱うこと
ができ、両者の差を検出することにより雑音の影響をキ
ャンセルすることができる。上記のようにすれば雑音の
影響をキャンセルすることは容易であるが、結合重みと
ニューロン出力値との積が片方の総和線のみに流れるの
で、結合重みとして正のものと負のものを使う必要のあ
る場合には適していない。結合重みとして正のものと負
のものを使う必要のある場合には、セルEと工とを両方
結合重み値の記憶に用いて、総和線CJには正の結合重
み値とニューロン出力値の積の総和が、総和線/CJに
は負の結合重み値とニューロン出力値の積の総和が流れ
るようにすればよい。詳細については後述の実施例を用
いて説明するが、この場合にも総和線CJ、/C−との
差が結合重み値とニューロン出力値の積の総和となるの
で雑音の影響をキャンセルすることは容易である。
なお、本実施例ではニューラルネットワークの規模が大
きくなると1本のデータ線に接続されるセルの数が増大
しデータ線容量が大きくなる。このため、読比し時の信
号量が減少し情報の読みたしが困難と成る場合がある。
このばあいには、通常のDRAMで行なわれているよう
にデータ線を分割して、分割したデータ線毎にセンスア
ンプを設けるのが望ましい。
上記のように本実施例においては、2つのトランジスタ
により成るセルをアレー状に配置するためレイアウトが
容易でセルアレーの占有面積を小さくできる。また、結
合重み値を容量に電荷としてデジタル値で記憶している
ため記憶内容の保持、読み書きなどを従来のDRAMと
同様の小規模の回路でできる。したがって、大規模なニ
ューラルネットワークを小さな半導体チップに集積化で
きる。また、容量のアンバランスが小さい対線を用いて
結合重み値の読出し、書き込み、および上記の積和計算
を行うため、装置を微小なトランジスタで構成しても安
定な動作を行うことができる。
なお、本実施例は階層型のニューラルネットワークにも
ホップフィールド型のネットワークにも応用できる。階
層型に応用する場合には、第S層のニューロン出力値か
ら次層第s+1層のニューロン出力値を計算することが
できるので、本実施例を複数個組み合わせることにより
任意の暦数のニューラルネットを実現できる。ホップフ
ィールド型のネットワークに適用する場合には呂力結果
を再び入力として使用することにより同期型のホップフ
ィールド型ネットワークを実現できる。このことは、以
下に述べる他の実施例についても同様であるが、説明を
簡単にするため以下では階層型ネットワークの第S層の
ニューロン出力値がら次層第s+1層のニューロン出力
値を計算する部分に応用する場合について説明する。す
なわち、セルアレーSに入力されるニューロン出力値の
数nは第S層のニューロン数nsに等しく、非線形変換
回路NVより8力されるニューロン出力値の数mは、第
s+1層のニューロン数ns+□に等しいとする。
第2図(a)は、第1図の構成を応用した本発明の1実
施例である。本実施例の第1の目的は複数のセルを用い
て1つの結合重み値を記憶することにより、必要に応じ
た精度、あるいは大きさの結合重み値を記憶できるよう
にすることである。
第2の目的は、結合重み値が正、負両方の値を採れるよ
うにすることによりニューロン間に興奮性の結合だけで
なく抑制性の結合が必要な場合にも応用できるようにす
ることである。
第2図(a)においてEjih、Ijih (j=L 
L * * Hm;l”L 2y * + p n;h
=1 t 2t −−* p)はそれぞれ、第1図(b
)、(c)に示したセルE、Iと同じものである。セル
Ejih、Ijihは、pビットで表す結合重h T 
J slの絶対値の第hビットを記憶すると共に結合重
みT J 5tの第hビットとニューロン出力値Viと
の積を計算する。第2図(b)、(C)にセルとまわり
の信号線との対応を示した。IV+はニューロン出力値
に相当する電圧が入力される入力線、Dヨ、/D、はデ
ータ線対、 WihE、Wth+はワード線、CJ、/
Cjは総和線対である。以下では簡単のため、p=8.
すなわち8ビットで結合重みT J3iの大きさを表す
とする。例えば、結合重みTJ’i が正の値、すなわ
ち興奮性接続でその大きさが2進法で(0001011
0)のときには、セルEji、、Eji、、Eji2の
内容を1(ME2のゲート容量を高電位)、Ejiユ、
Eji、、Ej i、、Ej i、、Eji、、および
セルIjih (h=1.2.、、.8)の内容を0(
ME2.MI2のゲート容量を低電位)とする。
また、例えば結合重みT Jslが負の値をもつとき、
すなわち抑制性接続の場合で、その大きさが2進法で(
00000011)のときには、セルIji2、■ji
工の内容を1 (M I 2のゲート容量を高電位)と
し他のセルIjih (h=3,4.、、.8)および
セルEj i h (h=1,2.、、.8)の内容を
O(MI2.ME2のゲート容量を低電位)とする。M
OSトランジスタME2とMI2のコンダクタンスはh
=1,2,391.、Pにおし)て1:2:4:、、:
2Pの比になるように形状を設計する。なお、このよう
にセルの形状を変えても、同じhについてはセルEji
hとセルIjihの形状は同じである。従って、データ
線対D J 、 / D J、総和線対c、、/CJの
容量のアンバランスは生じることはない。さらに、デー
タ線対あるいは総和線対には同じワード線、入力線が交
差するので配線のクロスカップリングにより生ずる雑音
は各々の対線で同じとなり相殺される。
このため微細化に伴う雑音の問題を回避できる。
次に、ニューロン出力値を求めるための積和について説
明する。なお、書込み、読出し、リフレッシュについて
は第1図(a)と同様であるのでここでは省略する。
第s−1層のニューロン出力値V工Ss Vzs、 e
+ P Vnssの大きさに相当する電圧を入力線LV
1゜LV、、、、LVnに印加する。すると、入力線か
らキャパシタの電圧が高電位のセルを通じて総和線C工
、/C工、C2,/C2,、、、C,、/C,に電流が
流れる。このとき、図かられかるように記憶内容が1の
セルEjihからは総和線C1,C,。
+ + l Cmに、記憶内容が1のセルIjihから
は総和線/C工、/C2,,,,/C,に電流が流れる
。流れる電流は、入力線の電圧とセル内のMOSトラン
ジスタME2あるいはMI2のコンダクタンスに比例す
る。したがって、総和線対(C工。
/C工)、(C2,/C,)、、、、(C,、/C,)
の電流差はニューロン出力値と、2進法のデジタル値で
記憶された結合重み値の積の総和に比例する。この電流
差を電流電圧変換回路群NLにより所望の非線形特性を
もたせて電圧に変換すれば第S+1層のニューロン出力
値に相当する電圧を出力線○v1.ov、、、、t’ 
Ov、L:、並列ニ出力することができる。
以上のように本実施例によれば結合重み値を複数のセル
で記憶することにより必要に応じた精度、あるいは大き
さの結合重み値を記憶できる。また、結合重み値に正、
および負の値を持たせることができるので、抑制性の結
合が必要な場合にも本実施例を用いることができる。
上記の説明では、MOSトランジスタME2とMI2の
コンダクタンスはh=1,2,3.、、。
pにおいて1:2:4:、、:2’の比になるように設
定した。このため、結合重み値を2進法で記憶できた。
MOSトランジスタのコンダクタンスを変えるには様々
な方法が考えられるが、最も容易なのはゲート幅、ある
いはゲート長を変えることである。コンダクタンスはゲ
ート幅に比例、ゲート長に反比例するので上記のように
一定の比でコンダクタンスを設定するのは容易にできる
第2図(a)の配置では、h=1.2,3.、、。
pのセルは周期的にならんでいるのでレイアウトが規則
的となり、設計あるいは製造も容易である。
しかし、場合によっては設計あるいは製造をより単純に
するためにセルの形状を同一にしたい場合もある。第2
図(a)の実施例においてセルの形状を同一にし、セル
内のMOSトランジスタME2あるいはMI2のコンダ
クタンスを一定とすると内容が1であるセルの数により
結合重み値の大きさを表すことができる。例えば、結合
重みTIS□が+3ならセルE1、□からE□□アのう
ち3つを1に、結合重みT工8□が+5なら、セルE工
、□からE工0.のうち5つを1にする。すなわち、p
個セルによりp個の異なる大きさを表現することができ
る。p個のセルにより2P個の異なる大きさを表現する
ことができる2進法に対して、以下ではこのような方法
を等価表現と呼ぶことにする。
等価表現では2進法に較べて表現できる大きさの種類が
減少するという欠点はあるが、すべてのセルの寄与が等
しいため、セルの寸法ばらつきによる影響が小さいとい
う利点がある。
ところで、上記の実施例のように入力線に入力される電
圧Iviをニューロンの出力値に比例したアナログ電圧
とするときには、総和線に流れる電流の大きさがIVt
 に比例するようにする必要がある。このためにはMO
SトランジスタME2あるいはMI2が線形領域で動作
するように、すなわち、ゲート電圧からドレイン電圧を
差し引いた値がしきい電圧より大きくなるように電圧関
係を設定すればよい。
なお、ニューロンの出力値は場合によってはO5■の2
値のみでよい場合もある。そのようなときには入力線に
入力される電圧はOvと高電位の2値で良いのはもちろ
んである。この場合には、入力線から総和線に電流が流
れるのは記憶情報が1でかつ入力線に入力される電圧が
高電位のときのみであり、その電圧値は一定である。し
たがって、入力線に入力される電圧が連続のアナログ値
をとるときと異なり、セル内のMOSトランジスタME
2.MI2を線形領域で動作させる必要はなく入力線の
電圧値等の設計が容易となる。
第7図は本発明の第2の実施例である。第2図(、)の
実施例においては、入力されるニューロン出力値は、ア
ナログ電圧か1ビットのデジタル電圧値として1本の入
力線に印加したが、場合によっては、複数の入力線を用
いて多ビットのデジタル電圧値として入力できる方が便
利な場合もある。特に、デジタルメモリからニューロン
出力値をロードして入力するような場合にはデジタル値
を直接入力できるような構成が便利である。第7図は、
そのような場合に適した実施例である。第7図ではニュ
ーロン出力値は等価表現により複数のビットに分けてq
本ずつの入力線に入力され、得られた各ニューロン出力
値も等価表現によりq′本ずつの出力線に出力される。
すなわち、入力信号は、入力線群(I Vi89.− 
、I Viq)のうち、ニューロン出力値V1にの大き
さに比例した本数を高電位に、他を低電位として入力す
る。メモリセル群S工1y + * p S□愕は第2
図(a)のメモリセル群S工と同じものをq個並べたも
ので、メモリ内容も5lit*agSニーで同一とする
。他のメモリセル群(S、□、、、、S、)、、、、(
S、1.。
、 、 5nq)についても同様である0本実施例によ
ればニューロン出力値を等価表現を用いて多ビットのデ
ジタル電圧値として入力できるので前記したようにデジ
タルメモリからニューロン出力値をロードして入力する
ような場合に便利である。なお、本実施例でも第2図(
a)の実施例の場合と同様にして結合重み値を2進法で
も等価表現でも記憶することができる。また、第7図の
構成から明らかなように本実施例でもデータ線対、総和
線対の容量バランスはとれており、各対線は同じワード
線、入力線と交差している。このため、本実施例におい
ても容量カップリングによる雑音は相殺される。
これまで述べた実施例では、結合重み値を2進法で記憶
する場合にはセルのコンダクタンスを変化させるため、
何種類かのセルを用意する必要があった。しかし、アレ
ーの大部分を占めるセルに同一の形状のものを使った方
が、高集積にレイアウトすることが容易である。第8図
はセルに同一の形状のものを使ったうえで、結合重み値
を2進法で記憶する場合に適した一実施例である。
第8図においてブロックAl、A2.、、。
APはそれぞれ、結合重みの第1ビット、第2ビット1
00、第pビットを集めて配置したものである。セルは
、それの属するブロックによらず全ブロックにおいて全
て同一の形状である。これまでの実施例と異なり総和線
対CJ、/CJに加えて副総和線対CS Jh、/ C
S jhを設けである(h=1.2.e+fp)。総和
線対はブロックAl。
A2.、、、APを貫通し、副総和線対はブロック毎に
設けである。ニューロン出力値は、アナログ電圧か1ビ
ットのデジタル電圧値として各ブロックの対応する入力
線に印加する。セルからの電流は副総和線対CS Jh
、 / CS Jhに流れる。ブロックA1に示したよ
うに副総和線対C3ih、/C3Jhの端にはMOSト
ランジスタMS、/MSが設けてあり、MOSトランジ
スタMS、/MSは総和線対CJ、/CJに接続された
MOSトランジスタMM、/MMとそれぞれカレントミ
ラー回路を構成している。ブロックAl、A2.A3.
、、Apにおいてカレントミラー回路の電流比が1:2
:4:、、:2’となるように設定すれば。
総和線対からグランドに重み付けされた電流が流れる。
したがって、総和線対CJ、/CJからグランドに電流
が流れる電流の差を検出することによりm個のニューロ
ン出力値を並列に求めることができる。本実施例によれ
ば、全てのセルを同一の形状としたまま結合重みを2進
法で記憶することができる。なお、データ線については
ブロックAl、A2.A3.、、、APまで貫通させて
もよいが、第8図のようにブロック毎に分割して各各に
読みだし、書き込み回路を設ければデータ線容量が減少
するので、セルに微小トランジスタを用いた場合にも結
合重みの読出し、書込み、リフレッシュを、より安定に
行うことができる。なお、本実施例でも第7図と同様に
各ブロックAl。
A2.、、、APをそれぞれq個ずつ設けてニューロン
出力値をqビットの等価表現で入力することも容易にで
きる。上記のように本実施例によれば、同一の形状をし
たセルをアレー状に配置した上で、結合重み値を2進法
で記憶できるので、前述した実施例に比べてより高集積
に装置を実現できる。なお、本実施例においても、第8
図から明らかなようにデータ線対、副総和線対、総和線
対のどれもが対線同志の容量バランスが採れるようにセ
ルあるいはカレントミラー回路と接続されている。また
、上記の対線は、同じワード線、入力線と交差するので
、容量カップリングによる雑音が相殺されることは前記
した実施例と同様である。
なお、これまで述べたいくつかの実施例においては、総
和線対に流れ込む、あるいは総和線対からグランドに流
れる電流の差を基にニューロン出力値を求める電流電圧
変換回路Gについては具体的に示さなかったが、これら
については、通常の回路技術を用いて容易に達成できる
。総和線対に流れ込む、電流の差を電圧に変換してニュ
ーロン出力値に相当する電圧を出力する回路の例は、例
えば、アイ、イー、イー、イー、1988 カスタム 
インテグレーテッド サーキッツ コンファレンスのダ
イジェスト 10.1(DIGESTOF  IEEE
  1988  CUSTOMINTEGURATED
  CIRCUITSCONFERENCE  10.
1)の第3図などに示されている。
これまで述べたように、本発明では、結合重み値はセル
内のMOSトランジスタME2.MI2のゲート容量に
記憶するが、場合によっては、ゲート容量だけでは十分
な容量値が得られない場合がある。その場合には、この
部分にさらに容量を接続すれば良い。また、MOSトラ
ンジスタME2、MI2のコンダクタンスを利用して乗
算を行なったが、場合によってはMOSトランジスタM
E2.MI2の形状を変えただけでは所望のコンダクタ
ンスを得られない場合もある。その場合には、MOSト
ランジスタME2.MI2のソース、あるいはドレイン
に直列に抵抗を接続して、抵抗のコンダクタンスを利用
することもできる。
また、これまでに述べた実施例では、データ線DJ、/
 D Jと総和線CJ、/CJとが平行になるように配
置したが、本発明ではデータ線とワード線および総和線
と入力線とがそれぞれ垂直方向になるように配置すれば
、データ線と総和線を平行にすることに限定されること
はない。例えば、総和線C−1/Ctとデータ線DJ、
/DJとが垂直方向に配線されるようにすることも可能
である。この場合でも総和線対とデータ線対にはそれぞ
れ同じ数のセルが接続されているので、各々の対線で容
量はバランスする。また、データ線対には、同じワード
線が、総和線対には同じ入力線が交差するのでそれらの
間の容量カップリングによる雑音は相殺される。なお、
読出し、書込みと総和計算とは、通常、同時に行わない
ので、読出し、書込み時に電位が変動するワード線とデ
ータ線対および、積和計算時に電位が変動する入力線と
電流が流れる総和線対との容量カップリングによる雑音
を相殺すれば微細化に伴う雑音の問題は回避される。
総和線対とデータ線対とをどのような位置関係に配置す
るかは、セルアレーの制御回路の配置の仕方、あるいは
各線に用いる配線をどの層または材料にするかに応じて
、適したものを選択すればよい。
これまでは、ニューロン出力値を計算するのに必要な回
路を実現する実施例を説明してきた。しかし、さらに他
の演算を行なう回路を追加することもできる。たとえば
、本発明による情報処理装置は階層型ネットワークを用
いた音声認識、文字認識など入力されたパターンをいく
つかの組に分けるような所謂クラス分は問題に適用する
ことができる。このような場合には比較器があると便利
である。クラス分は問題では、入力されたパターンが、
明らかにあるクラスに分類される場合には、出力として
クラスに対応する期待値を得ることができる。しかし、
入力されたパターンが、複数のいずれかのクラスに分類
されるか微妙な場合には、複数のクラスの期待値の中間
的なものとなることがある6例えば、音声認識において
入力された音声が゛に゛のときには、符号化して入力層
に与えた音声波形に対して出力層に1111というニュ
ーロン出力値(期待値)が得られるように、また、入力
がC゛のときには、0000という出力値(期待値)を
出すように結合重み値を設定した場合に、’に’  ”
C”の中間的な音声波形が与えられると出力層のニュー
ロン出力値は、0001とか1110など中間的な値を
出すことがある。
このような場合には出力層のニューロン出力値と゛に゛
に対する期待値1111あるいはC′に対する期待値0
000との距離が入力音声の゛に′あるいはC゛に対す
る近さを与える尺度と解釈することができる。したがっ
て、演算回路に出力層のニューロン出力値とクラスの期
待値を比較する回路を設けて出力結果と期待値の距離を
求める機能がある便利である。
第9図はこれまで述べてきたニューロン出力値を求める
回路と、ニューロン出力値と期待値の比較を行なう演算
回路12a、および期待値を記憶するメモリ回路TGと
を半導体チップ上に集積した1実施例である。第9図に
おいて電流電圧変換回路群NLはネットワークの出力で
あるr個のニューロン出力値を並列に出力する。前記し
たように階層型ネットワークでは複数個のベクトル・行
列演算機が必要であるが第9図では省略し最終層の電流
電圧変換回路群NLのみを示しである。以下では、ニュ
ーロン出力値に相当する、出力線ov、、ov、、、、
、Ovr (7)電圧ハ高電位と接地電位の2値をとる
ものとする。すなわち、最終層の非線形関数が第3図(
c)のように2値関数であるか、あるいは第3図(d)
ように連続値であっても第7図などに示した等価表現な
どの符号化によって0.1の2値で与えられているもの
とする。比較を行うには、電流電圧変換回路群NLから
出力されるニューロン出力値とメモリ回路TGから読出
す期待値との距離を演算回路12bにより並列に求めて
その結果をメモリ回路TGに書き込むかあるいは、入呂
力装置を通じて出力する。本実施例ではメモリ回路TG
ならびに演算回路12aともに同一チップ上にあるため
、バス1.2の本数を容易に増やすことができ、多数の
ビットを並列に処理できる。このため高速に距離の計算
ができるという利点がある。このため、階層型ネットワ
ークを用いたパターン認識などのようにニューロン出力
値と各期待値とを比較してその距離を求める必要がある
場合に情報処理速度を上げることができる。第9図に示
した演算回路12aは比較回路の1実施例であり、出力
層のニューロン呂力値と期待値を比較してそのハミング
距離の大きさを計算する回路である。以下ではメモリ回
路TGは通常のDRAMあるいはS RA Mセルアレ
ーのようにワード線WCI、、、、WCkの内1本を立
ち上げることによりデータ線対に立ち上げたワード線上
のメモリセルの情報が並列に読出される形式のものであ
るとする。演算回路12aは、比較器CMPと比較結果
変換回路COMPOUTより構成されている。比較器C
MPは並列に設けた比較回路CMP’Uと負荷抵抗RC
MPより構成され比較結果変換回路COMPOUTは差
動アンプAMP211.AMP212.、、、AMP2
1Zより構成されている。比較器CMPには、メモリ回
路TGのデータ線 DTG工、/DTG、、、、。
DTGr、/DTGrおよびニューロン出力値を与える
出力線OV1.○V 2+ HHt○Vr とその反転
信号を与える出力線10V□、/○V 21 + + 
+10V、が入力されている。ここでrはメモリ回路T
G内の1本のワード線上のメモリセルの数で、ニューロ
ン出力値を1ビットで表すときにはn。
pビットで表すときにはnとpの積に等しくする。
本実施例によれば、メモリ回路TGのデータ線上に読出
した期待値と8力線上に読出したニューロン出力値との
ハミング距離を計算することができる。
つづいて、本実施例の動作を説明する。まず、あらかじ
めメモリ回路TGにニューロン出力値の期待値を書き込
んでおく、その際、各ワード線上のr個のメモリセルに
rビットの期待値を書き込む。比較動作は以下のように
して行う。まず、クリア信号ΦCを立ち上げMOSトラ
ンジスタQ216をオンさせて、MOSトランジスタQ
215のゲート電圧を立ち下げておく、クリア信号ΦC
を立ち下げてデータ線に信号が読出されデータ線電位が
VccあるいはOvになった後に、比較器起動信号ΦC
MPを立ち上げて比較器を起動する。すると比較回路に
入力されたデータ線、出力線(DTG、、OV、)、(
DTG2.OV、)。
、、、(DTGr、0Vr)のそれぞれの組で排他的オ
フ (EXCLUS IVE−OR)の論理がとられる
。その結果、アレーTG側のデータ線と出力線とで情報
が一致している場合にはMOSトランジスタQ215の
ゲートが低電位のままであるが、一致していない場合に
は高電位に遷移する。
このため、アレーTG側のデータ線とA側のデータ線と
で情報が一致しない比較器CMPUではMOSトランジ
スタQ215がオンする。この結果、データ線、出力線
(DTG、、OV、)。
(DTG290VzL 、、j (DTG r、0Vr
)のそれぞれの組で不一致の数が多いほど電源VCMP
から負荷抵抗RCMPを通じて接地電極へ向けて電流が
流れる。そのため、比較線cOの電位は一致しないもの
が多いほど低下する。比較線C○は、比較結果変換回路
COMPOUTに設けられた差動アンプAMP211.
AMP212.、、。
AMP21Zに接続されている。これらの差動アンプの
参照電圧VRc1.VRC2,,,,VRCZを適当な
値に設定しておけば、比較線coの電位低下が大きいほ
ど比較結果出力線DCO1。
DCO2,、、、DCOZのうち高電位になる本数が増
加する。すなわち、比較結果変換回路COMPOUTは
1種のAD変換器として動作する。このように第9図の
実施例によればアレーTGの複数のデータ線に読出され
た情報と出力線に読出された情報を比較してそのハミン
グ距離の大きさを求めることができる。このため各期待
値をそれぞれアレーTGのワード線上のメモリセルに記
憶しておけば、ニューロン出力値と比較して、求めたニ
ューロン出力値がどの期待値にどのくらい近いのか知る
ことができる。したがって、得られたニューロン出力値
がクラスに対応する期待値と一致しないような場合でも
高速にどのクラスにどのくらい近いのか知ることができ
る。
なお、第9図の実施例において比較結果出力線に出力さ
れた結果は、比較の度に入出力回路本通じてチップ外へ
出力してもよいし、メモリ回路TGの容量を期待値を記
憶するのに必要な量よりも大きくとっておき、そこに書
き込んでおいて。
まとめて高力してもよい。さらに、ニューロン出力値を
一度メモリ回路TOと同じようなメモリ回路に記憶して
おき第9図の電流電圧変換回路NLの代わりにそのメモ
リ回路を用いて比較することもできるのはもちろんであ
る。この場合、多くのニューロン出力値をまとめて求め
ておいて後に比較することができるため、数多くのデー
タを連続して処理する場合に適している。
〔発明の効果〕
以上、いくつかの実施例を用いて本発明を説明してきた
が、本発明では2つのトランジスタより成るセルをアレ
ー状に配置した。セルの構成が単純なためレイアウトが
容易で、占有面積を小さくできる。また、結合重み値を
書込み、読出しなどを差動信号を用いて行うためのデー
タ線対の容量のアンバランスが小さく成るように配置し
たため、セルを微小なトランジスタで構成しても結合重
み値の書込み、読出しなどを安定に行うことができる。
さらに、結合重み値をデジタル値で記憶しているため記
憶内容の保持、読み書きなどに必要な回路の規模が小さ
くできる。これらのことより、大規模なニューラルネッ
トワークを実現できる。
【図面の簡単な説明】
第1図(a)は本発明の基本的アレー構成を示す実施例
。 第1図(b)、(c)は、セルE、Iの構成を示す実施
例。 第2図(、)は本発明のアレー構成を示す1実施例。 第21m (b)、(c)は、セルと配線との接続法を
示す1実施例。 第3図(a)、(b)は、階層型ニューラルネットワー
クの原理を示した図。 第3図(C)、(d)は、非線形関数回路りの特性の例
を示した図。 第4図(a)、(b)は、ホップフィールド型ニューラ
ルネットワークの原理を示した図。 第5図はMOSトランジスタを用いて結合重みをアナロ
グ電圧で記憶する従来のニューラルネットワーク情報処
理装置の原理を示した図。 第6図は、結合重みをデジタルメモリにで記憶する従来
のニューラルネットワーク情報処理装置の原理を示した
図。 第7図は、入力するニューロン出力値を等節表現する場
合に適した本発明のアレー構成を示す1実施例。 第8図は、同一の形状のセルを用いて結合重み値を2進
法で記憶する場合に適した本発明のアレー構成を示す1
実施例。 第9図は、本発明の情報処理装置に比較回路を加えた1
実施例。 V s s 、 V J s +、g Vll VJ・
・・ニューロン出力値、TaSt、 TJI・・・結合
重み値、e J lθJSヤ、・・・オフセット、g・
・・非線形関数、CA、/CJ、C,/C・総和線、C
3Jh、/C3Jh・・副総和線、D4./DJ、 D
Jh、/ Dah・・・データ線、WいE、 WいI。 WlE、Wll・・・ワード線、YJy YJh・・・
Y選択線、I O、/ I O、I Ohl/ I O
h−人出力線、I’Vs。 I V+h、 I VtE、 I Vtt・・・入力線
、0VJ=・出力線、 E、 Eath、 Eatt 
Is Iath、 Ijt・・・セル、St、5ikt
 Ah・・・ブロック、RW・・・読出し、書込み回路
、NL・・・電流電圧変換回路群、G・・・電流電圧変
換回路、SA・・・センスアンプ、PCH・・プリチャ
ージ回路、SW4・・・スイッチ、C4・・・キャパシ
タ、ap4・・・電流電圧変換型アンプ、M4゜MEl
、ME2.MI 1.MI 2.MS、/MS。 MM、/MM・・MOSトランジスタ、E、I・・MO
Sトランジスタ群、E/I、Bl、B2゜B:3.B4
・・・デジタルメモリセル、CMP・・・比較回路、C
MPU・・・比較器、CO・・・比較線、i=1゜2 
+ −−t n −J ” I H2r −−y m−
h ” 1 +第1図 (a) 第2図 (a) 第1図 りふ Cシ Dj  データ線 Cj  総和線 ■1 W。 入力線 ワード線 第2図 りふ Cふ DJ データ線 Cj  11dKJ11 Wih氏 Vi i h 1 入力線 ワード線 jih Ijihセル 第3図 (a) (b) DD 加算器 非線形関数回路 r、s、    結合重み値 θj s+1  オフセット 第4図 (a) (b) Vj“g(二戸・vl−e ) ニューロン出力値 結合重み値 オフセット 第3図 (C) (d) g(x) 第5図 W4 スイッチ ■α 端子 キャパシタ i 入力電圧 MOS トランジスタ ■」 出力電圧 p4 電流電圧変換形アンプ NN 他の結合 第6図 第8図 で CMP−一比較回路。 第7図 0VII−−−oviq 第9図 CMPU −−一比較器。 C0−−−一比較線

Claims (4)

    【特許請求の範囲】
  1. 1.n個のニューロンの出力値と、装置内に記憶した複
    数個の結合重み値を用いてm個のニューロンの出力値を
    並列に計算する情報処理装置であって、上記結合重み値
    の読出し、書込みおよびニューロンの出力値と結合重み
    値との積和演算を差動信号を用いて行うことを特徴とす
    る情報処理装置。
  2. 2.特許請求の範囲第1項に記載された情報処理装置に
    おいて、上記装置は情報の記憶と乗算を行うセルを複数
    個含んで構成され、上記結合重み値の読出し、書込みの
    ための差動信号を伝達するデータ線対、および、ニュー
    ロンの出力値と結合重み値との積和演算結果である差動
    信号を伝達する総和線対はそれぞれの線対において同数
    の上記セルと接続されていることを特徴とする情報処理
    装置。
  3. 3.特許請求の範囲第1項に記載された情報処理装置に
    おいて、上記装置は情報の記憶と乗算を行うセルを複数
    個含み、上記セルは、2つのMOSトランジスタを含ん
    で構成され、上記結合重み値を表す情報の1ビットを上
    記第1のMOSトランジスタのゲート容量に電荷を蓄え
    るか否かによって記憶し、上記第2のMOSトランジス
    タはデータ線と上記キャパシタの間にスイッチとして動
    作することを特徴とする情報処理装置。
  4. 4.特許請求の範囲第2項に記載された情報処理装置に
    おいて、上記セルは、2つのMOSトランジスタを含ん
    で構成され、上記結合重み値を表す情報の1ビットを上
    記第1のMOSトランジスタのゲート容量に電荷を蓄え
    るか否かによって記憶し、上記第2のMOSトランジス
    タはデータ線と上記キャパシタの間にスイッチとして動
    作することを特徴とする情報処理装置。
JP2179674A 1990-07-09 1990-07-09 情報処理装置 Pending JPH0467259A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2179674A JPH0467259A (ja) 1990-07-09 1990-07-09 情報処理装置
DE1991624853 DE69124853T2 (de) 1990-07-09 1991-06-10 Vorrichtung zur Detektion von Unterschieden zwischen Bewegtbildern
EP19910305201 EP0466331B1 (en) 1990-07-09 1991-06-10 Motion image difference detecting apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2179674A JPH0467259A (ja) 1990-07-09 1990-07-09 情報処理装置

Publications (1)

Publication Number Publication Date
JPH0467259A true JPH0467259A (ja) 1992-03-03

Family

ID=16069895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2179674A Pending JPH0467259A (ja) 1990-07-09 1990-07-09 情報処理装置

Country Status (3)

Country Link
EP (1) EP0466331B1 (ja)
JP (1) JPH0467259A (ja)
DE (1) DE69124853T2 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008181136A (ja) * 1994-06-02 2008-08-07 Accelerix Ltd シングルチップ表示プロセッサ
JP2014132418A (ja) * 2013-01-07 2014-07-17 Renesas Electronics Corp 半導体装置及びそのコマンド制御方法
JP2016197484A (ja) * 2015-04-03 2016-11-24 株式会社半導体エネルギー研究所 放送システム
WO2017153864A1 (en) * 2016-03-10 2017-09-14 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device
WO2017158466A1 (en) * 2016-03-18 2017-09-21 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and system using the same
JP2018124977A (ja) * 2016-10-12 2018-08-09 株式会社半導体エネルギー研究所 半導体装置、及び該半導体装置を有するシステム
JP2019003464A (ja) * 2017-06-16 2019-01-10 株式会社半導体エネルギー研究所 半導体装置、演算回路及び電子機器
JP2019053563A (ja) * 2017-09-15 2019-04-04 株式会社東芝 演算装置
JP2020013398A (ja) * 2018-07-19 2020-01-23 株式会社東芝 演算装置
JP2020077449A (ja) * 2018-10-11 2020-05-21 力晶積成電子製造股▲ふん▼有限公司Powerchip Semiconductor Manufacturing Corporation 人工知能動作を実行できるメモリチップおよびその方法
WO2020165685A1 (ja) * 2019-02-15 2020-08-20 株式会社半導体エネルギー研究所 半導体装置、及び電子機器
JP2020205132A (ja) * 2019-06-17 2020-12-24 株式会社東芝 演算装置
JP2021108489A (ja) * 2016-08-03 2021-07-29 株式会社半導体エネルギー研究所 撮像装置、チップ、携帯電話
JP2021518590A (ja) * 2018-03-19 2021-08-02 ミシック,インコーポレイテッド 混合信号コンピューティングのためのシステムおよび方法
WO2021165779A1 (ja) * 2020-02-21 2021-08-26 株式会社半導体エネルギー研究所 半導体装置

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5351083A (en) * 1991-10-17 1994-09-27 Sony Corporation Picture encoding and/or decoding system
DE69331174T2 (de) * 1992-06-29 2002-06-06 Canon Kk Bildverarbeitungsvorrichtung
US5978509A (en) * 1996-10-23 1999-11-02 Texas Instruments Incorporated Low power video decoder system with block-based motion compensation
US11594176B2 (en) 2021-03-11 2023-02-28 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device, display apparatus, electronic device, and operation method of semiconductor device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5953964A (ja) * 1982-09-22 1984-03-28 Hitachi Ltd 並列画像プロセツサ
EP0169709B1 (en) * 1984-07-20 1990-06-13 Nec Corporation Real time processor for video signals
CA1267970A (en) * 1986-06-10 1990-04-17 Ichiro Tamitani Real-time video signal processing device capable of typically executing interframe coding

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010266871A (ja) * 1994-06-02 2010-11-25 Accelerix Ltd Ic(集積回路)
USRE44589E1 (en) 1994-06-02 2013-11-12 Mosaid Technologies Incorporated Single chip frame buffer and graphics accelerator
JP2008181136A (ja) * 1994-06-02 2008-08-07 Accelerix Ltd シングルチップ表示プロセッサ
JP2014132418A (ja) * 2013-01-07 2014-07-17 Renesas Electronics Corp 半導体装置及びそのコマンド制御方法
US11232831B2 (en) 2015-04-03 2022-01-25 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device for vector-matrix multiplication
JP2016197484A (ja) * 2015-04-03 2016-11-24 株式会社半導体エネルギー研究所 放送システム
JP2020173886A (ja) * 2015-04-03 2020-10-22 株式会社半導体エネルギー研究所 半導体装置
US10114611B2 (en) 2016-03-10 2018-10-30 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device
US9851942B2 (en) 2016-03-10 2017-12-26 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device
JP2021064377A (ja) * 2016-03-10 2021-04-22 株式会社半導体エネルギー研究所 半導体装置
JP2017168099A (ja) * 2016-03-10 2017-09-21 株式会社半導体エネルギー研究所 半導体装置
WO2017153864A1 (en) * 2016-03-10 2017-09-14 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device
US11636883B2 (en) 2016-03-18 2023-04-25 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and system using the same
JP2021140805A (ja) * 2016-03-18 2021-09-16 株式会社半導体エネルギー研究所 人口ニューラルネットワーク
WO2017158466A1 (en) * 2016-03-18 2017-09-21 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and system using the same
US10664748B2 (en) 2016-03-18 2020-05-26 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and system using the same
US10769520B2 (en) 2016-03-18 2020-09-08 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and system using the same
US11003986B2 (en) 2016-03-18 2021-05-11 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and system using the same
US11699068B2 (en) 2016-08-03 2023-07-11 Semiconductor Energy Laboratory Co., Ltd. Imaging device, imaging module, electronic device, and imaging system
JP2021108489A (ja) * 2016-08-03 2021-07-29 株式会社半導体エネルギー研究所 撮像装置、チップ、携帯電話
US11099814B2 (en) 2016-10-12 2021-08-24 Semiconductor Energy Laboratory Co., Ltd. Neural network semiconductor device and system using the same
JP2022003533A (ja) * 2016-10-12 2022-01-11 株式会社半導体エネルギー研究所 半導体装置
US11755286B2 (en) 2016-10-12 2023-09-12 Semiconductor Energy Laboratory Co., Ltd. Neural network semiconductor device and system using the same
JP2018124977A (ja) * 2016-10-12 2018-08-09 株式会社半導体エネルギー研究所 半導体装置、及び該半導体装置を有するシステム
JP2019003464A (ja) * 2017-06-16 2019-01-10 株式会社半導体エネルギー研究所 半導体装置、演算回路及び電子機器
JP2019053563A (ja) * 2017-09-15 2019-04-04 株式会社東芝 演算装置
JP2021518590A (ja) * 2018-03-19 2021-08-02 ミシック,インコーポレイテッド 混合信号コンピューティングのためのシステムおよび方法
JP2020013398A (ja) * 2018-07-19 2020-01-23 株式会社東芝 演算装置
JP2020077449A (ja) * 2018-10-11 2020-05-21 力晶積成電子製造股▲ふん▼有限公司Powerchip Semiconductor Manufacturing Corporation 人工知能動作を実行できるメモリチップおよびその方法
US11443185B2 (en) 2018-10-11 2022-09-13 Powerchip Semiconductor Manufacturing Corporation Memory chip capable of performing artificial intelligence operation and method thereof
WO2020165685A1 (ja) * 2019-02-15 2020-08-20 株式会社半導体エネルギー研究所 半導体装置、及び電子機器
US11776586B2 (en) 2019-02-15 2023-10-03 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and electronic device
JP2020205132A (ja) * 2019-06-17 2020-12-24 株式会社東芝 演算装置
WO2021165779A1 (ja) * 2020-02-21 2021-08-26 株式会社半導体エネルギー研究所 半導体装置

Also Published As

Publication number Publication date
DE69124853D1 (de) 1997-04-10
EP0466331A3 (en) 1992-12-02
DE69124853T2 (de) 1997-06-19
EP0466331B1 (en) 1997-03-05
EP0466331A2 (en) 1992-01-15

Similar Documents

Publication Publication Date Title
JP3260357B2 (ja) 情報処理装置
JPH0467259A (ja) 情報処理装置
Choi et al. A Gaussian synapse circuit for analog VLSI neural networks
US11055611B2 (en) Circuit for CMOS based resistive processing unit
US5274746A (en) Coupling element for semiconductor neural network device
US5187680A (en) Neural net using capacitive structures connecting input lines and differentially sensed output line pairs
US10453527B1 (en) In-cell differential read-out circuitry for reading signed weight values in resistive processing unit architecture
Watanabe et al. A single 1.5-V digital chip for a 10/sup 6/synapse neural network
JP3353786B2 (ja) 情報処理装置
US5146542A (en) Neural net using capacitive structures connecting output lines and differentially driven input line pairs
JP2001034735A (ja) 情報処理装置
US20200210822A1 (en) Multibit Neural Network
KR0183406B1 (ko) 신경망에 사용되는 가중합가법의 용량성 구조물
JPH06187472A (ja) アナログニューラルネットワーク
US20240028297A1 (en) Semiconductor device performing a multiplication and accumulation operation
JPH0683622A (ja) 情報処理装置
JP3761071B2 (ja) 相関値演算方法および相関値演算装置
US20230229870A1 (en) Cross coupled capacitor analog in-memory processing device
US11120864B2 (en) Capacitive processing unit
KR20240076869A (ko) 비트 라인의 전압 변화를 이용한 뉴런 회로
WO1990016039A1 (en) Neural net using differential capacitively coupled input and output lines
JP2831076B2 (ja) ニューロコンピュータ
Alhalabi et al. A scalable analog architecture for neural networks with on-chip learning and refreshing
JPH1091605A (ja) 情報処理装置
Panagiotopoulos et al. A current-mode analog memory for neurocomputing