JP2022102512A - 積和演算装置およびニューラルネットワーク - Google Patents

積和演算装置およびニューラルネットワーク Download PDF

Info

Publication number
JP2022102512A
JP2022102512A JP2020217286A JP2020217286A JP2022102512A JP 2022102512 A JP2022102512 A JP 2022102512A JP 2020217286 A JP2020217286 A JP 2020217286A JP 2020217286 A JP2020217286 A JP 2020217286A JP 2022102512 A JP2022102512 A JP 2022102512A
Authority
JP
Japan
Prior art keywords
input
transistor
source
drain terminal
product
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020217286A
Other languages
English (en)
Inventor
雅則 塚本
Masanori Tsukamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2020217286A priority Critical patent/JP2022102512A/ja
Priority to DE112021006702.8T priority patent/DE112021006702T5/de
Priority to PCT/JP2021/046621 priority patent/WO2022138463A1/ja
Priority to US18/258,278 priority patent/US20240069869A1/en
Publication of JP2022102512A publication Critical patent/JP2022102512A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/38Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
    • G06F7/48Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
    • G06F7/544Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
    • G06F7/5443Sum of products
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C11/00Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C11/54Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using elements simulating biological cells, e.g. neuron
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C11/00Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C11/21Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using electric elements
    • G11C11/22Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using electric elements using ferroelectric elements
    • G11C11/221Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using electric elements using ferroelectric elements using ferroelectric capacitors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Neurology (AREA)
  • Computer Hardware Design (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Power Engineering (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Semiconductor Memories (AREA)

Abstract

【課題】パラメータを保持することができ、かつ実用に耐える程度の回数の書き込みを行うことの可能な積和演算装置およびニューラルネットワークを提供する。【解決手段】本開示の一側面に係る積和演算装置は、各々がトランジスタと、トランジスタの第1のソース・ドレイン端子に接続された強誘電キャパシタとを含み、行列状に配置された複数のセルを備えている。この積和演算装置は、さらに、複数の入力配線と、複数の出力配線とを備えている。複数の入力配線は、複数のセルにおける行ごとに1もしくは複数本ずつ割り当てられ、強誘電キャパシタに接続されている。複数の出力配線は、複数のセルにおける列ごとに1本ずつ割り当てられている。複数の出力配線は、トランジスタの第2のソース・ドレイン端子に接続され、各セルの強誘電キャパシタの容量および入力配線へ入力される入力電圧の乗算に対応する電荷量を蓄積可能に構成されている。【選択図】図2

Description

本開示は、強誘電キャパシタを用いた積和演算装置およびニューラルネットワークに関する。
近年、画像やパターンの認証を行う応用としてニューラルネットワーク回路が実用されている。メモリアレイをニューラルネットワーク回路の積和演算として利用することで、ノイマン型コンピューティングの課題であるメモリとCPU間の遅延や消費電力を解決することが期待できる。積和演算の例として、例えば、特許文献1~3に記載の方法が挙げられる。
特開2018-120433号公報 特開2019-219990号公報 特開2019-179499号公報
ところで、上記特許文献1,2に記載の発明では、揮発性の容量結合メモリにパラメータ(重み)が記憶されるため、パラメータを保持することができない。また、上記特許文献3に記載の発明では、強誘電トランジスタにパラメータが記憶されるため、書き込み回数(パラメータの書き換え回数)に実用に耐えない制限がある。従って、パラメータを保持することができ、かつ実用に耐える程度の回数の書き込みを行うことの可能な積和演算装置およびニューラルネットワークを提供することが望ましい。
本開示の第1の側面に係る積和演算装置は、各々がトランジスタと、トランジスタの第1のソース・ドレイン端子に接続された強誘電キャパシタとを含み、行列状に配置された複数のセルを備えている。この積和演算装置は、さらに、複数の入力配線と、複数の出力配線とを備えている。複数の入力配線は、複数のセルにおける行ごとに1もしくは複数本ずつ割り当てられ、強誘電キャパシタに接続されている。複数の出力配線は、複数のセルにおける列ごとに1本ずつ割り当てられている。複数の出力配線は、トランジスタの第2のソース・ドレイン端子に接続され、各セルの強誘電キャパシタの容量および入力配線へ入力される入力電圧の乗算に対応する電荷量を蓄積可能に構成されている。
本開示の第2の側面に係るニューラルネットワークは、複数の積和演算装置を備えている。各積和演算装置は、上記の第1の側面に係る積和演算装置と同様の構成要素を備えている。
本開示の第1の側面に係る積和演算装置、および本開示の第2の側面に係るニューラルネットワークでは、セルには強誘電キャパシタが設けられている。これにより、強誘電キャパシタにパラメータ(重み)を保持することが可能となる。ここで、セルの負荷容量のばらつきが大きい場合、そのばらつきが推論の際のノイズとなり、推論精度の低下が生じる可能性がある。しかし、本開示では、パラメータ(重み)を保持させる強誘電キャパシタにおける負荷容量のばらつきは小さいので、高精度の推論を行うことができる。また、強誘電キャパシタでは、他のメモリ(例えば、ReRAM)を用いた場合と比べて、書き換え回数の上限が極めて大きく、実用上、書き換え回数の制限を受けない。
本開示の第3の側面に係る積和演算装置は、行列状に配置された複数のセルを備えている。各セルは、メインセルとレファレンスセルとを含む。メインセルは、第1のトランジスタと、第1のトランジスタの第1のソース・ドレイン端子に接続された第1の強誘電キャパシタとを含む。レファレンスセルは、第2のトランジスタと、第2のトランジスタの第2のソース・ドレイン端子に接続された第2の強誘電キャパシタとを含む。この積和演算装置は、さらに、複数の入力配線と、複数の第1の出力配線と、複数の第2の出力配線とを備えている。複数の入力配線は、複数のセルにおける行ごとに1もしくは複数本ずつ割り当てられ、第1の強誘電キャパシタおよび第2の強誘電キャパシタに接続されている。複数の第1の出力配線は、複数のセルにおける列ごとに1本ずつ割り当てられ、第1のトランジスタの第3のソース・ドレイン端子に接続され、各メインセルの第1の強誘電キャパシタの容量および入力配線へ入力される入力電圧の乗算に対応する電荷量を蓄積可能に構成されている。複数の第2の出力配線は、複数のセルにおける列ごとに1本ずつ割り当てられ、第2のトランジスタの第4のソース・ドレイン端子に接続され、各レファレンスセルの第2の強誘電キャパシタの容量および入力配線へ入力される入力電圧の乗算に対応する電荷量を蓄積可能に構成されている。
本開示の第4の側面に係るニューラルネットワークは、複数の積和演算装置を備えている。各積和演算装置は、上記の第3の側面に係る積和演算装置と同様の構成要素を備えている。
本開示の第3の側面に係る積和演算装置、および本開示の第4の側面に係るニューラルネットワークでは、第1のセルおよび第2のセルには強誘電キャパシタが設けられている。これにより、強誘電キャパシタにパラメータ(重み)を保持することが可能となる。ここで、セルの負荷容量のばらつきが大きい場合、そのばらつきが推論の際のノイズとなり、推論精度の低下が生じる可能性がある。しかし、本開示では、パラメータ(重み)を保持させる強誘電キャパシタにおける負荷容量のばらつきは小さいので、高精度の推論を行うことができる。また、強誘電キャパシタでは、他のメモリ(例えば、ReRAM)を用いた場合と比べて、書き換え回数の上限が極めて大きく、実用上、書き換え回数の制限を受けない。
ニューラルネットワークの一例を表す模式図である。 本開示の第1の実施の形態に係る積和演算装置の構成の一例を表す図である。 図2の積和演算回路における各セルの入力電圧と分極との関係の一例を表す図である。 図2の積和演算回路の平面レイアウトの一例を表す図である。 図2の積和演算回路を用いたニューラルネットワークの一例を表す図である。 本開示の第2の実施の形態に係る積和演算装置の一例を表す図である。 図6のメモリセルの回路構成の一例を表す図である。 図6の積和演算回路の平面レイアウトの一例を表す図である。 図6の積和演算回路を用いたニューラルネットワークの一例を表す図である。 図6のメモリセルの回路構成の一変形例を表す図である。 図10のメモリセルを備えた積和演算回路における読み出し電圧の一例を表す図である。 図10のメモリセルを備えた積和演算回路における読み出し電圧の一例を表す図である。
以下、本開示を実施するための形態について、図面を参照して詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
<1.本開示に係る技術的背景>
まず、図1を参照して、本開示に係る技術的背景について説明する。ニューラルネットワークは、生体の神経回路網をモデルとした情報処理システムである。ニューラルネットワークは、画像認識、又は画像の圧縮若しくは復元等のデジタル計算機では負荷が高い演算を効率良く実行することができる。このようなニューラルネットワークの1つとして、例えば、層状に並べられた人工ニューロンが隣接層間でのみ結合し、入力側から出力側に一方向にのみ情報が伝搬するパーセプトロンを例示することができる。
図1は、ニューラルネットワークの一例を表したものである。ニューラルネットワークは、例えば、入力層IL、中間層ML(隠れ層)および出力層OLを含む。各層(IL,ML,OL)は、1または複数のニューロンを備えている。例えば、入力層ILのニューロンの数は、例えば、動画データに含まれる画素数に応じて設定することができる。中間層MLのニューロンの数は、適宜設定することができる。出力層OLは、後段で必要となる数に応じて設定することができる。
互いに隣接する層のニューロン同士は結合されており、各結合には重み(結合荷重)が設定されている。ニューロンの結合数は、適宜設定されてよい。各ニューロンには閾値が設定されており、例えば、各ニューロンへの入力値と重みとの積の和が閾値を超えているか否かによって各ニューロンの出力値が決定される。
<2.第1の実施の形態>
次に、本開示の第1の実施の形態に係る積和演算装置100について説明する。図2は、積和演算装置100の構成の一例を表したものである。積和演算装置100は、シナプスに対応する複数のセルMCが行列状に接続されることにより構成される積和演算回路110と、行デコーダ120、列デコーダ130、入力回路140と、出力回路150とを備えている。行デコーダ120、列デコーダ130および入力回路140によって積和演算回路110が駆動される。積和演算回路110は、例えば、シリコン基板上に形成されている。
行デコーダ120には複数のワード線WLが接続されている。複数のワード線WLは、行列状に配置された複数のセルMCに対して、例えば、行ごとに1本ずつ割り当てられている。列デコーダ130には複数のビット線BLが接続されている。複数のビット線BLは、行列状に配置された複数のセルMCに対して、例えば、列ごとに1本ずつ割り当てられている。入力回路140には複数の入力配線PLが接続されている。複数の入力配線PLは、行列状に配置された複数のセルMCに対して、例えば、行ごとに1本ずつ割り当てられている。各ビット線BLには、複数の出力配線SLが1本ずつ接続されている。ビット線BLおよび出力配線SLは、各セルMCの強誘電キャパシタCsの容量および入力配線PLへ入力される入力電圧の乗算に対応する電荷量を蓄積可能に構成されている。
行デコーダ120は、ワード線WLに選択信号を印可することにより、アクセス対象であるセルMCを選択する。選択信号は、セルMC内のトランジスタTr(後述)の閾値電圧以上の波高値を有するパルスである。行デコーダ120によって選択されたセルMCでは、トランジスタTrが導通状態(オン)となる。列デコーダ130は、ビット線BLに所定の電圧Vblを印可することにより、ビット線BLに接続された各セルMCに所定の電圧Vblを供給する。入力回路140は、入力配線PLに所定の電圧(入力電圧Vpl)を印可することにより、入力配線PLに接続された各セルMCに所定の電圧(入力電圧Vpl)を供給する。各セルMCには、入力配線PLに印加された入力電圧Vplと、ビット線BLに印加された電圧Vblとの差分の電圧が印可される。
ここで、入力電圧Vplが所定の正の電圧となっている場合に、電圧Vblが、例えば、グラウンド電圧(0V)となっているとする。このとき、セルMCには、セルMCの分極状態として例えば、“0”が記憶される。また、入力電圧Vplがグラウンド電圧(0V)となっている場合に、電圧Vblが所定の正の電圧となっているとする。このとき、セルMCには、セルMCの分極状態として例えば、“1”が記憶される。
セルMCには、入力回路140から入力配線PLを通じて入力電圧Vplが印加されるとともに、列デコーダ130からビット線BLを通じて電圧Vblが印可される。これにより、セルMCには、セルMCの強誘電体の分極に応じたスイッチング電流が流れる。セルMCの各々の出力は、ビット線BLを介して出力配線SLに接続されており、出力回路150は、出力配線SLに流れる電流、または、出力配線SLの電位を測定することで、積和演算結果を取得する。出力回路150は、例えば、出力配線SLの電圧の各々を同時かつ並列に測定するAD(Analog-to-Digital)変換回路を有しており、積和演算結果をAD変換することにより得られるデジタル信号を外部に出力する。なお、出力回路150は、必要に応じて、増幅回路などをさらに有していてもよい。
積和演算回路110は、行列状に配置された複数のセルMCを有している。各セルMCは、例えば、トランジスタTrと、トランジスタTrのソース・ドレイン端子に接続された強誘電キャパシタCsとを含んで構成された1Tr1Cの回路構成となっている。トランジスタTrは、例えば、MOSFETである。強誘電キャパシタCsは、一対の電極間に強誘電体材料が挟み込まれた構成となっている。強誘電体材料としては、例えば、酸化ハフニウム(HfOx)、酸化ジルコニウム(ZrOx)、酸化ハフニウムジルコニウム(HfZrOx)などが挙げられる。例えば、酸化ハフニウム(HfOx)、酸化ジルコニウム(ZrOx)、酸化ハフニウムジルコニウム(HfZrOx)などに対して結晶化アニールを行うことにより、これらの材料を強誘電体にすることが可能である。強誘電体材料には、La,Si,Gd等の原子がドープされていてもよい。強誘電キャパシタCsの電極には、例えば、窒化チタン(TiN)や窒化タンタル(TaN)等が用いられ得る。
トランジスタTrのゲートはワード線WLに接続されており、ワード線WLを介して行デコーダ120からの信号が入力される。トランジスタTrの一方のソース・ドレイン端子は強誘電キャパシタCsを介して入力配線PLに接続されている。強誘電キャパシタCsの一方の端子がトランジスタTrの一方のソース・ドレイン端子に接続されており、強誘電キャパシタCsの他方の端子が入力配線PLに接続されている。トランジスタTrの一方のソース・ドレイン端子には強誘電キャパシタCsを介して入力回路140からの信号が入力される。トランジスタTrの他方のソース・ドレイン端子にはビット線BLが接続されており、ビット線BLを介して列デコーダ130からの信号が入力される。
積和演算回路110では、例えば、行デコーダ120によって選択されたセルMCの入力(入力配線PL)に電圧(入力電圧Vpl)が印可されると、強誘電キャパシタCsの容量と、入力電圧Vplとの乗算に対応する電荷量が出力配線SLに蓄積され、これにより積和演算を行うことができる。例えば、積和演算の推論においては、行デコーダ120によって選択されたセルMCの入力(入力配線PL)に電圧(入力電圧Vpl)が印可されると、C×V=Qに応じた電荷量が出力配線SLに蓄積される。ここで、Cは、例えば、図3に示したように、セルMCの分極状態(“0”)に応じた負荷容量cl、または、セルMCの分極状態(“1”)に応じた負荷容量chに対応する。すなわち、積和演算回路110において、Convolution Neural Network(CNN)に代表されるニューラルネットワークにおける入力(例えば、前段の信号)とパラメータとの“積” を行うことができる。
なお、強誘電キャパシタCsの分極状態が“1”のときにキャパシタCsに印加される電圧が0(V)→Va(V)→0(V)と変化すると、キャパシタCsの分極状態が“0”となる。また、強誘電キャパシタCsの分極状態が“0”のときにキャパシタCsに印加される電圧が0(V)→Va(V)→0(V)と変化すると、キャパシタCsの分極状態は、遷移前と同じ状態“0”となる。従って、積和演算回路110では、データ読み出しの際に、セルMCに保持されたデータが破壊される場合がある。
図4は、積和演算回路110の平面レイアウトの一例を表したものである。複数のビット線BLおよび複数の入力配線PLがともに第1の方向に延在する配線を有しており、それらの配線が第1の方向と直交する第2の方向に交互に配置されている。互いに隣接する2本の入力配線PLは、導電層Mで互いに接続されており、上記の図2の1本の入力配線PLに対応している。複数のワード線WLが第2の方向に延在しており、第1の方向に所定の間隔で配列されている。
ビット線BLと、トランジスタTrの一方のソース・ドレイン端子とにビットコンタクトNが接続されている。ビットコンタクトNは、ビット線BLとトランジスタTrの一方のソース・ドレイン端子とが互いに対向する位置に配置されている。トランジスタTrの他方のソース・ドレイン端子と入力配線PLとの間に強誘電キャパシタCsが設けられている。強誘電キャパシタCsは入力配線PLとトランジスタTrの他方のソース・ドレイン端子とが互いに対向する位置に配置されている。
複数のビットコンタクトNと複数の強誘電キャパシタCsとが第1の方向に交互に配置されている。トランジスタTrは、ビットコンタクトNと強誘電キャパシタCsとを結ぶ第3の方向に延在して形成されており、トランジスタTrにおいて、一方のソース・ドレイン端子と他方のソース・ドレイン端子とが第3の方向において互いに対向して配置されている。
図5は、2つの積和演算装置100を用いたニューラルネットワーク200の構成の一例を表したものである。ニューラルネットワーク200は、2つの積和演算装置100と、前段の積和演算装置100の出力回路150から出力された複数のデジタル信号をDA(Digital-to-Analog)変換し、後段の積和演算装置100の入力回路140に入力するDAC300とを備えている。このように、DAC300を介して、2つの積和演算装置100を連結することにより、ニューラルネットワークを構築することができる。なお、複数の積和演算装置100を用いてニューラルネットワークを構築することも可能である。このとき、前段側の積和演算装置100と後段側の積和演算装置100との間にはDAC300が設けられている。
[動作]
次に、積和演算装置100の動作について説明する。本実施の形態では、行デコーダ120が特定のワード線WLを選択し、入力回路140が特定の入力配線PLに入力電圧Vplとして正の電圧を印可するとともに、列デコーダ130が特定のビット線BLに電圧Vblとしてグラウンド電圧を印可すると、選択されたワード線WLと、入力電圧Vplとして正の電圧が印可された入力配線PLと、電圧Vblとしてグラウンド電圧が印可されたビット線BLとに接続されたセルMC(アクセス対象のセルMC)から入力配線PLに対して、C×V=Qに応じた電荷が供給される。その結果、アクセス対象のセルMCに接続された出力配線SLには、C×V=Qに応じた電荷が蓄積される。出力配線SLには、蓄積された電荷に応じた電圧が発生し、この出力配線SLの電圧が出力回路150においてAD変換され、外部に出力される。
行デコーダ120が複数のワード線WLを順次、選択することにより、1本の出力配線SLには、当該出力配線SLを共有する各セルMCから、C×V=Qに応じた電荷が供給される。これにより、出力配線SLを共有する各セルMCから供給された電荷の和に応じた電圧が出力配線SLに発生し、この出力配線SLの電圧が出力回路150においてAD変換され、出力回路150から外部に出力される。このような読み出し動作が出力配線SLごとに行われることにより、出力配線SLを共有する各セルMCから供給された電荷の和に応じた電圧(積和演算結果)が出力回路150から出力配線SLごとに外部に出力される。
[効果]
次に、積和演算装置100の効果について説明する。本実施の形態では、セルMCには、強誘電キャパシタCsが設けられている。これにより、強誘電キャパシタCsにパラメータ(重み)を保持することが可能となる。ここで、負荷容量cl,chのばらつきが大きい場合、そのばらつきが推論の際のノイズとなり、推論精度の低下が生じる可能性がある。しかし、本実施の形態では、パラメータ(重み)を保持させる強誘電キャパシタCsにおける負荷容量cl,chのばらつきは小さいので、高精度の推論を行うことができる。また、強誘電キャパシタCsを用いた1T1CのセルMCは、他のメモリ(例えば、ReRAM)を用いた積和演算セルと比べて、小面積でシリコン基板上に形成することができる。従って、低コストの積和演算装置100を提供することができる。また、強誘電キャパシタCsでは、他のメモリ(例えば、ReRAM)を用いた場合と比べて、書き換え回数の上限が極めて大きく、実用上、書き換え回数の制限を受けない。
本実施の形態では、各出力配線PLに蓄積された電荷に応じた電圧をAD変換し、出力する出力回路150が設けられている。これにより、複数の積和演算装置100を用いてニューラルネットワークを構築する際に、前段側の積和演算装置100と後段側の積和演算装置100との間にADCを設けることで、ニューラルネットワークを構築することが可能である。
本実施の形態では、各トランジスタTrは、複数のセルMCにおける行方向および列方向の双方と交差する斜め方向に延在しており、各トランジスタTrにおいて、一対のソース・ドレイン端子は斜め方向において互いに対向配置されている。これにより、積和演算回路110を半導体基板の表面に方形状に形成することが可能となり、設計の自由度を向上させることができる。
本実施の形態では、入力配線PLは、強誘電キャパシタCsを介して一方のソース・ドレイン端子と対向する位置に配置されており、出力配線SLは他方のソース・ドレイン端子と対向する位置に配置されている。これにより、積和演算回路110を半導体基板の表面に方形状に形成することが可能となり、設計の自由度を向上させることができる。
<3.第2の実施の形態>
次に、本開示の第2の実施の形態に係る積和演算装置400について説明する。図6は、積和演算装置400の構成の一例を表したものである。積和演算装置400は、シナプスに対応する複数のセルMCdが行列状に接続されることにより構成される積和演算回路410と、行デコーダ420、列デコーダ430、入力回路440と、出力回路450とを備えている。行デコーダ420、列デコーダ430および入力回路440によって積和演算回路410が駆動される。積和演算回路410は、例えば、シリコン基板上に形成されている。
行デコーダ420には複数のワード線WL+,WL-が接続されている。複数のワード線WL+は、行列状に配置された複数のセルMCdに対して、例えば、行ごとに1本ずつ割り当てられている。複数のワード線WL-は、行列状に配置された複数のセルMCdに対して、例えば、行ごとに1本ずつ割り当てられている。つまり、複数組のワード線WL+,WL-が、行列状に配置された複数のセルMCdに対して、例えば、行ごとに一組ずつ割り当てられている。列デコーダ430には複数のビット線BL+,BL-が接続されている。複数のビット線BL+は、行列状に配置された複数のセルMCdに対して、例えば、列ごとに1本ずつ割り当てられている。複数のビット線BL-は、行列状に配置された複数のセルMCdに対して、例えば、列ごとに1本ずつ割り当てられている。つまり、複数組のビット線BL+,BL-が、行列状に配置された複数のセルMCdに対して、例えば、行ごとに一組ずつ割り当てられている。入力回路440には複数の入力配線PLが接続されている。複数の入力配線PLは、行列状に配置された複数のセルMCdに対して、例えば、行ごとに1本ずつ割り当てられている。各ビット線BL+には、複数の出力配線SL+が1本ずつ接続されている。各ビット線BL-には、複数の出力配線SL-が1本ずつ接続されている。ビット線BL-および出力配線SL-は、各セルMC1の強誘電キャパシタCs1の容量および入力配線PLへ入力される入力電圧の乗算に対応する電荷量を蓄積可能に構成されている。
積和演算回路410は、行列状に配置された複数のセルMCdを有している。各セルMCdは、例えば、図7に示したように、2つのセルMC(セルMC1,MC2)を含んで構成された2Tr2Cの回路構成となっている。各セルMCdにおいて、セルMC1が主セルであり、セルMC2はレファレンスセルである。セルMC1に対して所定の状態が設定されたとき、セルMC2に対しては、セルMC1の状態を反転させた状態が設定される。レファレンスセルの役割については後に詳述する。
セルMC1,MC2は、上記実施の形態に係るセルMCと同様の構成・機能となっている。セルMC1は、例えば、トランジスタTr1と、トランジスタTr1のソース・ドレイン端子に接続された強誘電キャパシタCs1とを含んで構成された1Tr1Cの回路構成となっている。セルMC2は、例えば、トランジスタTr2と、トランジスタTr2のソース・ドレイン端子に接続された強誘電キャパシタCs2とを含んで構成された1Tr1Cの回路構成となっている。トランジスタTr1,Tr2は、例えば、MOSFETである。強誘電キャパシタCs1,Cs2は、一対の電極間に強誘電体材料が挟み込まれた構成となっている。
トランジスタTr1のゲートはワード線WL-に接続されており、ワード線WL-を介して行デコーダ420からの信号が入力される。トランジスタTr1の一方のソース・ドレイン端子は強誘電キャパシタCs1を介して入力配線PLに接続されている。強誘電キャパシタCs1の一方の端子がトランジスタTr1の一方のソース・ドレイン端子に接続されており、強誘電キャパシタCs1の他方の端子が入力配線PLに接続されている。トランジスタTr1の一方のソース・ドレイン端子には強誘電キャパシタCs1を介して入力回路440からの信号が入力される。トランジスタTr1の他方のソース・ドレイン端子にはビット線BL-が接続されており、ビット線BL-を介して列デコーダ430からの信号が入力される。
トランジスタTr2のゲートはワード線WL+に接続されており、ワード線WL+を介して行デコーダ420からの信号が入力される。トランジスタTr2の一方のソース・ドレイン端子には強誘電キャパシタCs2を介して、強誘電キャパシタCs1が接続された入力配線PLに接続されている。強誘電キャパシタCs2の一方の端子がトランジスタTr2の一方のソース・ドレイン端子に接続されており、強誘電キャパシタCs2の他方の端子が、強誘電キャパシタCs1が接続された入力配線PLに接続されている。つまり、セルMCdにおいて、強誘電キャパシタCs1,Cs2は共通の入力配線PLに接続されている。トランジスタTr2の一方のソース・ドレイン端子には強誘電キャパシタCs2を介して入力回路440からの信号が入力される。トランジスタTr2の他方のソース・ドレイン端子にはビット線BL+が接続されており、ビット線BL+を介して列デコーダ430からの信号が入力される。
行デコーダ420は、ワード線WL-に選択信号を印可することにより、アクセス対象であるセルMCd(またはセルMC1)を選択する。選択信号は、トランジスタTr1の閾値電圧以上の波高値を有するパルスである。行デコーダ420によって選択されたセルMC1では、トランジスタTr1が導通状態(オン)となる。列デコーダ430は、ビット線BL-に所定の電圧Vbl1を印可することにより、ビット線BL-に接続された各セルMC1に所定の電圧Vbl1を供給する。各セルMC1には、入力配線PLに印加された入力電圧Vplと、ビット線BL-に印加された電圧Vbl1との差分の電圧が印可される。
行デコーダ420は、ワード線WL+に選択信号を印可することにより、アクセス対象であるセルMCd(またはセルMC2)を選択する。選択信号は、トランジスタTr2の閾値電圧以上の波高値を有するパルスである。行デコーダ420によって選択されたセルMC2では、トランジスタTr2が導通状態(オン)となる。列デコーダ430は、ビット線BL+に所定の電圧Vbl2を印可することにより、ビット線BL+に接続された各セルMC2に所定の電圧Vbl2を供給する。各セルMC2には、入力配線PLに印加された入力電圧Vplと、ビット線BL+に印加された電圧Vbl2との差分の電圧が印可される。
ここで、入力電圧Vplが所定の正の電圧となっている場合に、電圧Vbl1が、例えば、グラウンド電圧(0V)となっているとする。このとき、セルMC1には、セルMC1の分極状態として例えば、“0”が記憶される。また、入力電圧Vplがグラウンド電圧(0V)となっている場合に、電圧Vbl1が所定の正の電圧となっているとする。このとき、セルMC1には、セルMC1の分極状態として例えば、“1”が記憶される。
また、入力電圧Vplが所定の正の電圧となっている場合に、電圧Vbl2が、例えば、グラウンド電圧(0V)となっているとする。このとき、セルMC2には、セルMC2の分極状態として例えば、“0”が記憶される。また、入力電圧Vplがグラウンド電圧(0V)となっている場合に、電圧Vbl2が所定の正の電圧となっているとする。このとき、セルMC2には、セルMC2の分極状態として例えば、“1”が記憶される。
セルMC1には、入力回路440から入力配線PLを通じて入力電圧Vplが印加されるとともに、列デコーダ430からビット線BL-を通じて電圧Vbl1が印可される。これにより、セルMC1には、セルMC1の強誘電体の分極に応じたスイッチング電流が流れる。セルMC1の各々の出力は、ビット線BL-を介して出力配線SL-に接続されており、出力回路450は、出力配線SL-に流れる電流、または、出力配線SL-の電位を測定することで、積和演算結果を取得する。出力回路450は、例えば、出力配線SL-の電圧の各々を同時かつ並列に測定するAD変換回路を有しており、積和演算結果をAD変換することにより得られるデジタル信号を外部に出力する。なお、出力回路450は、必要に応じて、増幅回路などをさらに有していてもよい。
積和演算回路410では、例えば、行デコーダ420によって選択されたセルMC1の入力(入力配線PL)に電圧(入力電圧Vpl)が印可されると、強誘電キャパシタCs1の容量と、入力電圧Vplとの乗算に対応する電荷量が出力配線SL-に蓄積され、これにより積和演算を行うことができる。例えば、積和演算の推論においては、行デコーダ420によって選択されたセルMC1の入力(入力配線PL)に電圧(入力電圧Vpl)が印可されると、C×V=Qに応じた電荷量が出力配線SL-に蓄積される。ここで、Cは、例えば、図3に示したように、セルMC1の分極状態(“0”)に応じた負荷容量cl、または、セルMC1の分極状態(“1”)に応じた負荷容量chに対応する。すなわち、積和演算回路110において、Convolution Neural Network(CNN)に代表されるニューラルネットワークにおける入力(例えば、前段の信号)とパラメータとの“積” を行うことができる。
図8は、積和演算回路410の平面レイアウトの一例を表したものである。複数のビット線BL-,BL+および複数の入力配線PLが第1の方向に延在する配線を有しており、それらの配線が第1の方向と直交する第2の方向に、ビット線BL-、2本の入力配線PLおよびビット線BL+の順で繰り返し配置されている。互いに隣接する2本の入力配線PLは、導電層Mで互いに接続されており、上記の図7の1本の入力配線PLに対応している。複数のワード線WL+,WL-が第2の方向に延在しており、第1の方向に交互に配置されている。
ビット線BL-と、トランジスタTr1の一方のソース・ドレイン端子とにビットコンタクトN1が接続されている。ビットコンタクトN1は、ビット線BL-とトランジスタTr1の一方のソース・ドレイン端子とが互いに対向する位置に配置されている。トランジスタTr1の他方のソース・ドレイン端子と入力配線PLとの間に強誘電キャパシタCs1が設けられている。強誘電キャパシタCs1は入力配線PLとトランジスタTrの他方のソース・ドレイン端子とが互いに対向する位置に配置されている。
ビット線BL+と、トランジスタTr2の一方のソース・ドレイン端子とにビットコンタクトN2が接続されている。ビットコンタクトN2は、ビット線BL+とトランジスタTr2の一方のソース・ドレイン端子とが互いに対向する位置に配置されている。トランジスタTr2の他方のソース・ドレイン端子と入力配線PLとの間に強誘電キャパシタCs2が設けられている。強誘電キャパシタCs2は入力配線PLとトランジスタTr2の他方のソース・ドレイン端子とが互いに対向する位置に配置されている。
複数のビットコンタクトN1,N2および複数の強誘電キャパシタCs1,Cs2が第1の方向に、ビットコンタクトN1、強誘電キャパシタCs1、強誘電キャパシタCs2、ビットコンタクトN2の順で繰り返し配置されている。トランジスタTr1は、第1の方向および第2の方向と交差する第3の方向に延在して形成されており、トランジスタTr1において、一方のソース・ドレイン端子と他方のソース・ドレイン端子とが第3の方向において互いに対向して配置されている。トランジスタTr2は、第1の方向および第2の方向と交差する第3の方向に延在して形成されており、トランジスタTr2において、一方のソース・ドレイン端子と他方のソース・ドレイン端子とが第3の方向において互いに対向して配置されている。
図9は、2つの積和演算装置400を用いたニューラルネットワーク500の構成の一例を表したものである。ニューラルネットワーク500は、2つの積和演算装置400と、前段の積和演算装置400の出力回路450から出力された複数のデジタル信号をDA(Digital-to-Analog)変換し、後段の積和演算装置400の入力回路440に入力するDAC600とを備えている。このように、DAC600を介して、2つの積和演算装置400を連結することにより、ニューラルネットワークを構築することができる。なお、複数の積和演算装置400を用いてニューラルネットワークを構築することも可能である。このとき、前段側の積和演算装置400と後段側の積和演算装置400との間にはDAC600が設けられている。
[動作]
次に、積和演算装置400の動作について説明する。本実施の形態では、行デコーダ420が特定のワード線WL-を選択し、入力回路140が特定の入力配線PLに入力電圧Vplとして正の電圧を印可するとともに、列デコーダ130が特定のビット線BL-に電圧Vblとしてグラウンド電圧を印可すると、選択されたワード線WL-と、入力電圧Vplとして正の電圧が印可された入力配線PLと、電圧Vblとしてグラウンド電圧が印可されたビット線BL-とに接続されたセルMC1(アクセス対象のセルMC1)から出力配線SLに対して、C×V=Qに応じた電荷が供給される。その結果、アクセス対象のセルMC1に接続された出力配線SL-には、C×V=Qに応じた電荷が蓄積される。出力配線SL-には、蓄積された電荷に応じた電圧が発生し、この出力配線SL-の電圧が出力回路450においてAD変換され、外部に出力される。
行デコーダ420が複数のワード線WL-を順次、選択することにより、1本の出力配線SL-には、当該出力配線SL-を共有する各セルMC1から、C×V=Qに応じた電荷が供給される。これにより、出力配線SL-を共有する各セルMC1から供給された電荷の和に応じた電圧が出力配線SL-に発生し、この出力配線SL-の電圧が出力回路450においてAD変換され、出力回路450から外部に出力される。このような読み出し動作が出力配線SL-ごとに行われることにより、出力配線SL-を共有する各セルMC1から供給された電荷の和に応じた電圧(積和演算結果)が出力回路450から出力配線SL-ごとに外部に出力される。
ところで、積和演算回路110では、上述したように、データ読み出しの際に、セルMCに保持されたデータが破壊される場合がある。そこで、積和演算回路110は、レファレンスセルであるセルMC2に、セルMC1のバックアップの機能を持たせている。積和演算回路110は、例えば、セルMC1に状態として“1”を書き込み、セルMC2に、セルMC1の状態を反転させた状態“0”を書き込んだ後、積和演算の推論を行う。このとき、積和演算の推論は破壊読出しとなるので、セルMC1は“0”となる。続いて、積和演算装置400は、セルMC2から読み出した状態(“0”)を反転させた状態(“1”)をセルMC1に書き込む。このようにして、セルMC1に対する再書き込みが行われる。このような再書き込みは、セルMC2をセルMC1のバックアップとして機能させることにより実現することができる。
[効果]
次に、積和演算装置400の効果について説明する。本実施の形態では、セルMCには、強誘電キャパシタCs1,Cs2が設けられている。これにより、強誘電キャパシタCs1,Cs2にパラメータ(重み)を保持することが可能となる。ここで、負荷容量cl,chのばらつきが大きい場合、そのばらつきが推論の際のノイズとなり、推論精度の低下が生じる可能性がある。しかし、本実施の形態では、パラメータ(重み)を保持させる強誘電キャパシタCs1,Cs2における負荷容量cl,chのばらつきは小さいので、高精度の推論を行うことができる。また、強誘電キャパシタCs1を用いた1T1CのセルMC1、および強誘電キャパシタCs2を用いた1T1CのセルMC2は、他のメモリ(例えば、ReRAM)を用いた積和演算セルと比べて、小面積でシリコン基板上に形成することができる。従って、低コストの積和演算装置100を提供することができる。また、強誘電キャパシタCs1,Cs2では、他のメモリ(例えば、ReRAM)を用いた場合と比べて、書き換え回数の上限が極めて大きく、実用上、書き換え回数の制限を受けない。
本実施の形態では、各出力配線PL-に蓄積された電荷に応じた電圧をAD変換し、出力する出力回路450が設けられている。これにより、複数の積和演算装置400を用いてニューラルネットワークを構築する際に、前段側の積和演算装置400と後段側の積和演算装置400との間にADCを設けることで、ニューラルネットワークを構築することが可能である。
本実施の形態では、各トランジスタTr1,Tr2は、複数のセルMCdにおける行方向および列方向の双方と交差する斜め方向に延在しており、各トランジスタTr1,Tr2において、一対のソース・ドレイン端子は斜め方向において互いに対向配置されている。これにより、積和演算回路410を半導体基板の表面に方形状に形成することが可能となり、設計の自由度を向上させることができる。
本実施の形態では、入力配線PLは、強誘電キャパシタCs1,Cs2を介して一方のソース・ドレイン端子と対向する位置に配置されており、出力配線SL-は他方のソース・ドレイン端子と対向する位置に配置されている。これにより、積和演算回路410を半導体基板の表面に方形状に形成することが可能となり、設計の自由度を向上させることができる。
<3.第2の実施の形態の変形例>
上記第2の実施の形態において、例えば、図10に示したように、セルMC1に含まれる強誘電キャパシタCs1の面積と、セルMC2に含まれる強誘電キャパシタCs2の面積とが互いに異なっていてもよい。
図11、図12は、64kビットのセルアレイにおいて各セルMCから読み出した、“0”のときの電圧V0および“1”のときの電圧V1の分布の一例を表したものである。図11、図12には、セルMC1に含まれる強誘電キャパシタCs1の面積が#0、#1、#2、#3のときの電圧V0,V1の分布が例示されている。以下では、面積が#1のセルMC1に“1”が保持されているときの電圧V1をVb1とし、面積が#1のセルMC1に“0”が保持されているときの電圧V0をVb0とし、面積が#3のセルMC1に“1”が保持されているときの電圧V1をVc1とし、面積が#3のセルMC1に“0”が保持されているときの電圧V0をVc0とする。以下に、セルMC1の面積が#1、セルMC2の面積が#3となっているときの積和演算について説明する。
積和演算装置400を制御する制御装置は、セルMC1に“1”を書き込み、セルMC2に“0”に書き込んだ後、積和演算の推論を行う。このとき、積和演算の推論は破壊読出しとなるので、セルMC1は“0”となる(図11)。続いて、積和演算装置400を制御する制御装置は、セルMC1から“0”を読み出すとともに、セルMC2から“0”を読み出し、セルMC1から得られた電圧Vb0と、セルMC2から得られた電圧Vc0とを比較し、Vb0>Vc0であることを確認したときは、セルMC1に“1”を書き込む(図11)。このようにして、セルMC1に対する再書き込みが行われる。このような再書き込みは、セルMC2をセルMC1のバックアップとして機能させることにより実現することができる。
積和演算装置400を制御する制御装置は、セルMC1に“0”を書き込み、セルMC2に“1”に書き込んだ後、積和演算の推論を行う。このとき、セルMC1は“0”のままとなる(図12)。続いて、積和演算装置400を制御する制御装置は、セルMC1から“0”を読み出すとともに、セルMC2から“1”を読み出し、セルMC1から得られた電圧Vb0と、セルMC2から得られた電圧Vc1とを比較し、Vb0<Vc1であることを確認したときは、セルMC1に“0”を書き込む(図12)。このようにして、セルMC1に対する再書き込みが行われる。このような再書き込みは、セルMC2をセルMC1のバックアップとして機能させることにより実現することができる。
以上、複数の実施の形態およびそれらの変形例を挙げて本開示を説明したが、本開示は上記実施の形態等に限定されるものではなく、種々変形が可能である。なお、本明細書中に記載された効果は、あくまで例示である。本開示の効果は、本明細書中に記載された効果に限定されるものではない。本開示が、本明細書中に記載された効果以外の効果を持っていてもよい。
上記各実施の形態およびそれらの変形例において、ビット線BL自体が出力配線PLを兼ねていてもよい。また、上記第1の実施の形態およびその変形例において、複数の入力配線PLは、複数のセルMCにおける行ごとに1本ずつ割り当てられていてもよいし、2本ずつ割り当てられていてもよい。また、上記第2の実施の形態およびそれらの変形例において、複数の入力配線は、複数のセルMCにおける行ごとに1本ずつ割り当てられていてもよいし、2本ずつ割り当てられていてもよい。
また、例えば、本開示は以下のような構成を取ることができる。
(1)
各々がトランジスタと、前記トランジスタの第1のソース・ドレイン端子に接続された強誘電キャパシタとを含み、行列状に配置された複数のセルと、
前記複数のセルにおける行ごとに1もしくは複数本ずつ割り当てられ、前記強誘電キャパシタに接続された複数の入力配線と、
前記複数のセルにおける列ごとに1本ずつ割り当てられ、前記トランジスタの第2のソース・ドレイン端子に接続され、各前記セルの前記強誘電キャパシタの容量および前記入力配線へ入力される入力電圧の乗算に対応する電荷量を蓄積可能な複数の出力配線と
を備えた
積和演算装置。
(2)
各前記出力配線に蓄積された電荷に応じた電圧をAD変換し、出力する出力回路を更に備えた
(1)に記載の積和演算装置。
(3)
各前記トランジスタは、前記複数のセルにおける行方向および列方向の双方と交差する斜め方向に延在しており、
各前記トランジスタにおいて、前記第1のソース・ドレイン端子および前記第2のソース・ドレイン端子は、前記斜め方向において互いに対向配置されている
(1)または(2)に記載の積和演算装置。
(4)
前記入力配線は、前記強誘電キャパシタを介して前記第1のソース・ドレイン端子と対向する位置に配置され、
前記出力配線は、前記第2のソース・ドレイン端子と対向する位置に配置されている
(3)に記載の積和演算装置。
(5)
各々が第1のトランジスタと、前記第1のトランジスタの第1のソース・ドレイン端子に接続された第1の強誘電キャパシタとを含むメインセルと、各々が第2のトランジスタと、前記第2のトランジスタの第2のソース・ドレイン端子に接続された第2の強誘電キャパシタとを含むレファレンスセルとを含み、行列状に配置された複数のセルと、
前記複数のセルにおける行ごとに1もしくは複数本ずつ割り当てられ、前記第1の強誘電キャパシタおよび前記第2の強誘電キャパシタに接続された複数の入力配線と、
前記複数のセルにおける列ごとに1本ずつ割り当てられ、前記第1のトランジスタの第3のソース・ドレイン端子に接続され、各前記メインセルの前記第1の強誘電キャパシタの容量および前記入力配線へ入力される入力電圧の乗算に対応する電荷量を蓄積可能な複数の第1の出力配線と、
前記複数のセルにおける列ごとに1本ずつ割り当てられ、前記第2のトランジスタの第4のソース・ドレイン端子に接続され、各前記レファレンスセルの前記第2の強誘電キャパシタの容量および前記入力配線へ入力される入力電圧の乗算に対応する電荷量を蓄積可能な複数の第2の出力配線と
を備えた
積和演算装置。
(6)
各前記第1の出力配線に蓄積された電荷に応じた電圧をAD変換し、出力する出力回路を更に備えた
(5)に記載の積和演算装置。
(7)
各前記第1のトランジスタおよび各前記第2のトランジスタは、前記複数のセルにおける行方向および列方向の双方と交差する斜め方向に延在しており、
各前記第1のトランジスタにおいて、前記第1のソース・ドレイン端子および前記第3のソース・ドレイン端子は、前記斜め方向において互いに対向配置され、
各前記第2のトランジスタにおいて、前記第2のソース・ドレイン端子および前記第4のソース・ドレイン端子は、前記斜め方向において互いに対向配置されている
(5)または(6)に記載の積和演算装置。
(8)
前記複数の入力配線は、前記複数のセルにおける行ごとに2本ずつ割り当てられ、
前記複数のセルにおける行ごとに割り当てられた2本の前記入力配線において、第1の入力配線は、前記第1の強誘電キャパシタを介して前記第1のソース・ドレイン端子と対向する位置に配置され、第2の入力配線は、前記第2のソース・ドレイン端子と対向する位置に配置されている
(7)に記載の積和演算装置。
(9)
前記第1の強誘電キャパシタの面積と前記第2の強誘電キャパシタの面積とが互いに異なっている
(5)ないし(8)のいずれか1つに記載の積和演算装置。
(10)
複数の積和演算装置を備え、
各前記積和演算装置は、
各々がトランジスタと、前記トランジスタの第1のソース・ドレイン端子に接続された強誘電キャパシタとを含み、行列状に配置された複数のセルと、
前記複数のセルにおける行ごとに1もしくは複数本ずつ割り当てられ、前記強誘電キャパシタに接続された複数の入力配線と、
前記複数のセルにおける列ごとに1本ずつ割り当てられ、前記トランジスタの第2のソース・ドレイン端子に接続され、各前記セルの前記強誘電キャパシタの容量および前記入力配線へ入力される入力電圧の乗算に対応する電荷量を蓄積可能な複数の出力配線と
を有する
ニューラルネットワーク。
(11)
複数の積和演算装置を備え、
各前記積和演算装置は、
各々が第1のトランジスタと、前記第1のトランジスタの第1のソース・ドレイン端子に接続された第1の強誘電キャパシタとを含むメインセルと、各々が第2のトランジスタと、前記第2のトランジスタの第2のソース・ドレイン端子に接続された第2の強誘電キャパシタとを含むレファレンスセルとを含み、行列状に配置された複数のセルと、
前記複数のセルにおける行ごとに1もしくは複数本ずつ割り当てられ、前記第1の強誘電キャパシタおよび前記第2の強誘電キャパシタに接続された複数の入力配線と、
前記複数のセルにおける列ごとに1本ずつ割り当てられ、前記第1のトランジスタの第3のソース・ドレイン端子に接続され、各前記メインセルの前記第1の強誘電キャパシタの容量および前記入力配線へ入力される入力電圧の乗算に対応する電荷量を蓄積可能な複数の第1の出力配線と、
前記複数のセルにおける列ごとに1本ずつ割り当てられ、前記第2のトランジスタの第4のソース・ドレイン端子に接続され、各前記レファレンスセルの前記第2の強誘電キャパシタの容量および前記入力配線へ入力される入力電圧の乗算に対応する電荷量を蓄積可能な複数の第2の出力配線と
を有する
ニューラルネットワーク。
本開示の第1の側面に係る積和演算装置、および本開示の第2の側面に係るニューラルネットワークでは、セルには強誘電キャパシタが設けられている。これにより、強誘電キャパシタにパラメータ(重み)を保持することが可能となる。ここで、セルの負荷容量のばらつきが大きい場合、そのばらつきが推論の際のノイズとなり、推論精度の低下が生じる可能性がある。しかし、本開示では、パラメータ(重み)を保持させる強誘電キャパシタにおける負荷容量のばらつきは小さいので、高精度の推論を行うことができる。また、強誘電キャパシタでは、他のメモリ(例えば、ReRAM)を用いた場合と比べて、書き換え回数の上限が極めて大きく、実用上、書き換え回数の制限を受けない。従って、パラメータを保持することができ、かつ実用に耐える程度の回数の書き込みを行うことの可能な積和演算装置を提供することができる。
本開示の第3の側面に係る積和演算装置、および本開示の第4の側面に係るニューラルネットワークでは、第1のセルおよび第2のセルには強誘電キャパシタが設けられている。これにより、強誘電キャパシタにパラメータ(重み)を保持することが可能となる。ここで、セルの負荷容量のばらつきが大きい場合、そのばらつきが推論の際のノイズとなり、推論精度の低下が生じる可能性がある。しかし、本開示では、パラメータ(重み)を保持させる強誘電キャパシタにおける負荷容量のばらつきは小さいので、高精度の推論を行うことができる。また、強誘電キャパシタでは、他のメモリ(例えば、ReRAM)を用いた場合と比べて、書き換え回数の上限が極めて大きく、実用上、書き換え回数の制限を受けない。従って、パラメータを保持することができ、かつ実用に耐える程度の回数の書き込みを行うことの可能な積和演算装置を提供することができる。
100,400…積和演算装置、110,410…積和演算回路、120,420…行デコーダ、130,430…列デコーダ、140,440…入力回路、150,450…出力回路、200…ニューラルネットワーク、300…DAC、BL,BL+,BL-…ビット線、Cs,Cs1,Cs2…強誘電キャパシタ、IL…入力層、MC,MC1,MC2,MCd…セル、ML…中間層、M…導電層、N1,N2…ビットコンタクト、OL…出力層、PL…入力配線、SL,SL+,SL-…出力配線、Tr,Tr1,Tr2…トランジスタ、WL,WL+,WL-…ワード線。

Claims (11)

  1. 各々がトランジスタと、前記トランジスタの第1のソース・ドレイン端子に接続された強誘電キャパシタとを含み、行列状に配置された複数のセルと、
    前記複数のセルにおける行ごとに1もしくは複数本ずつ割り当てられ、前記強誘電キャパシタに接続された複数の入力配線と、
    前記複数のセルにおける列ごとに1本ずつ割り当てられ、前記トランジスタの第2のソース・ドレイン端子に接続され、各前記セルの前記強誘電キャパシタの容量および前記入力配線へ入力される入力電圧の乗算に対応する電荷量を蓄積可能な複数の出力配線と
    を備えた
    積和演算装置。
  2. 各前記出力配線に蓄積された電荷に応じた電圧をAD変換し、出力する出力回路を更に備えた
    請求項1に記載の積和演算装置。
  3. 各前記トランジスタは、前記複数のセルにおける行方向および列方向の双方と交差する斜め方向に延在しており、
    各前記トランジスタにおいて、前記第1のソース・ドレイン端子および前記第2のソース・ドレイン端子は、前記斜め方向において互いに対向配置されている
    請求項1に記載の積和演算装置。
  4. 前記入力配線は、前記強誘電キャパシタを介して前記第1のソース・ドレイン端子と対向する位置に配置され、
    前記出力配線は、前記第2のソース・ドレイン端子と対向する位置に配置されている
    請求項3に記載の積和演算装置。
  5. 各々が第1のトランジスタと、前記第1のトランジスタの第1のソース・ドレイン端子に接続された第1の強誘電キャパシタとを含むメインセルと、各々が第2のトランジスタと、前記第2のトランジスタの第2のソース・ドレイン端子に接続された第2の強誘電キャパシタとを含むレファレンスセルとを含み、行列状に配置された複数のセルと、
    前記複数のセルにおける行ごとに1もしくは複数本ずつ割り当てられ、前記第1の強誘電キャパシタおよび前記第2の強誘電キャパシタに接続された複数の入力配線と、
    前記複数のセルにおける列ごとに1本ずつ割り当てられ、前記第1のトランジスタの第3のソース・ドレイン端子に接続され、各前記メインセルの前記第1の強誘電キャパシタの容量および前記入力配線へ入力される入力電圧の乗算に対応する電荷量を蓄積可能な複数の第1の出力配線と、
    前記複数のセルにおける列ごとに1本ずつ割り当てられ、前記第2のトランジスタの第4のソース・ドレイン端子に接続され、各前記レファレンスセルの前記第2の強誘電キャパシタの容量および前記入力配線へ入力される入力電圧の乗算に対応する電荷量を蓄積可能な複数の第2の出力配線と
    を備えた
    積和演算装置。
  6. 各前記第1の出力配線に蓄積された電荷に応じた電圧をAD変換し、出力する出力回路を更に備えた
    請求項5に記載の積和演算装置。
  7. 各前記第1のトランジスタおよび各前記第2のトランジスタは、前記複数のセルにおける行方向および列方向の双方と交差する斜め方向に延在しており、
    各前記第1のトランジスタにおいて、前記第1のソース・ドレイン端子および前記第3のソース・ドレイン端子は、前記斜め方向において互いに対向配置され、
    各前記第2のトランジスタにおいて、前記第2のソース・ドレイン端子および前記第4のソース・ドレイン端子は、前記斜め方向において互いに対向配置されている
    請求項5に記載の積和演算装置。
  8. 前記複数の入力配線は、前記複数のセルにおける行ごとに2本ずつ割り当てられ、
    前記複数のセルにおける行ごとに割り当てられた2本の前記入力配線において、第1の入力配線は、前記第1の強誘電キャパシタを介して前記第1のソース・ドレイン端子と対向する位置に配置され、第2の入力配線は、前記第2のソース・ドレイン端子と対向する位置に配置されている
    請求項7に記載の積和演算装置。
  9. 前記第1の強誘電キャパシタの面積と前記第2の強誘電キャパシタの面積とが互いに異なっている
    請求項5に記載の積和演算装置。
  10. 複数の積和演算装置を備え、
    各前記積和演算装置は、
    各々がトランジスタと、前記トランジスタの第1のソース・ドレイン端子に接続された強誘電キャパシタとを含み、行列状に配置された複数のセルと、
    前記複数のセルにおける行ごとに1もしくは複数本ずつ割り当てられ、前記強誘電キャパシタに接続された複数の入力配線と、
    前記複数のセルにおける列ごとに1本ずつ割り当てられ、前記トランジスタの第2のソース・ドレイン端子に接続され、各前記セルの前記強誘電キャパシタの容量および前記入力配線へ入力される入力電圧の乗算に対応する電荷量を蓄積可能な複数の出力配線と
    を有する
    ニューラルネットワーク。
  11. 複数の積和演算装置を備え、
    各前記積和演算装置は、
    各々が第1のトランジスタと、前記第1のトランジスタの第1のソース・ドレイン端子に接続された第1の強誘電キャパシタとを含むメインセルと、各々が第2のトランジスタと、前記第2のトランジスタの第2のソース・ドレイン端子に接続された第2の強誘電キャパシタとを含むレファレンスセルとを含み、行列状に配置された複数のセルと、
    前記複数のセルにおける行ごとに1もしくは複数本ずつ割り当てられ、前記第1の強誘電キャパシタおよび前記第2の強誘電キャパシタに接続された複数の入力配線と、
    前記複数のセルにおける列ごとに1本ずつ割り当てられ、前記第1のトランジスタの第3のソース・ドレイン端子に接続され、各前記メインセルの前記第1の強誘電キャパシタの容量および前記入力配線へ入力される入力電圧の乗算に対応する電荷量を蓄積可能な複数の第1の出力配線と、
    前記複数のセルにおける列ごとに1本ずつ割り当てられ、前記第2のトランジスタの第4のソース・ドレイン端子に接続され、各前記レファレンスセルの前記第2の強誘電キャパシタの容量および前記入力配線へ入力される入力電圧の乗算に対応する電荷量を蓄積可能な複数の第2の出力配線と
    を有する
    ニューラルネットワーク。
JP2020217286A 2020-12-25 2020-12-25 積和演算装置およびニューラルネットワーク Pending JP2022102512A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020217286A JP2022102512A (ja) 2020-12-25 2020-12-25 積和演算装置およびニューラルネットワーク
DE112021006702.8T DE112021006702T5 (de) 2020-12-25 2021-12-16 Faltungsoperationsvorrichtung und neuronales netz
PCT/JP2021/046621 WO2022138463A1 (ja) 2020-12-25 2021-12-16 積和演算装置およびニューラルネットワーク
US18/258,278 US20240069869A1 (en) 2020-12-25 2021-12-16 Multiply-accumulate operation device and neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020217286A JP2022102512A (ja) 2020-12-25 2020-12-25 積和演算装置およびニューラルネットワーク

Publications (1)

Publication Number Publication Date
JP2022102512A true JP2022102512A (ja) 2022-07-07

Family

ID=82157777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020217286A Pending JP2022102512A (ja) 2020-12-25 2020-12-25 積和演算装置およびニューラルネットワーク

Country Status (4)

Country Link
US (1) US20240069869A1 (ja)
JP (1) JP2022102512A (ja)
DE (1) DE112021006702T5 (ja)
WO (1) WO2022138463A1 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004030624A (ja) * 2002-05-10 2004-01-29 Matsushita Electric Ind Co Ltd 半導体装置及びその学習方法
JP2004157757A (ja) * 2002-11-06 2004-06-03 Canon Inc アナログ演算回路
JP6674838B2 (ja) * 2015-05-21 2020-04-01 株式会社半導体エネルギー研究所 電子装置
JP2019179499A (ja) 2018-03-30 2019-10-17 ソニー株式会社 半導体装置及び積和演算装置
JP6985988B2 (ja) 2018-06-21 2021-12-22 株式会社日立製作所 ニューラルネットワーク回路

Also Published As

Publication number Publication date
DE112021006702T5 (de) 2023-11-16
WO2022138463A1 (ja) 2022-06-30
US20240069869A1 (en) 2024-02-29

Similar Documents

Publication Publication Date Title
US20200202204A1 (en) Neural network computation circuit including non-volatile semiconductor memory element
US10534840B1 (en) Multiplication using non-volatile memory cells
CN109214510B (zh) 神经形态多位式数字权重单元
KR100330995B1 (ko) 반도체기억장치
US11615299B2 (en) Neural network computation circuit including non-volatile semiconductor memory element
US11341403B2 (en) Synapse system of a neuromorphic device including a ferroelectric transistor
US11397885B2 (en) Vertical mapping and computing for deep neural networks in non-volatile memory
Haensch et al. Compute in‐Memory with Non‐Volatile Elements for Neural Networks: A Review from a Co‐Design Perspective
CN112992226A (zh) 神经形态器件和存储器件
CN114388021A (zh) 利用外部磁场进行编程辅助的超低功率推理引擎
CN110729011A (zh) 用于类神经网路的存储器内运算装置
WO2007094133A1 (ja) 強誘電体キャパシタを用いた演算処理回路および演算方法
WO2022138463A1 (ja) 積和演算装置およびニューラルネットワーク
CN114388039A (zh) 多级超低功率推理引擎加速器
CN115862708A (zh) 忆阻器阵列的操作方法、数据处理装置
US20230059091A1 (en) Neuromorphic circuit based on 2t2r rram cells
CN115831185A (zh) 存算一体芯片、操作方法、制作方法和电子设备
Wei et al. Emerging Memory-Based Chip Development for Neuromorphic Computing: Status, Challenges, and Perspectives
CN115458005A (zh) 数据处理方法和存算一体装置、电子设备
KR102448396B1 (ko) 가중치 비트폭을 탄력적으로 적용할 수 있는 커패시턴스 기반 뉴럴 네트워크
JP2009059398A (ja) 強誘電体半導体記憶装置
TWI835181B (zh) 記憶體內運算元件及其運算方法
CN111243648A (zh) 闪存单元、闪存模块以及闪存芯片
CN218181836U (zh) 一种存内运算装置
US20230292533A1 (en) Neural network system, high efficiency embedded-artificial synaptic element and operating method thereof