JP6956191B2 - 不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路 - Google Patents

不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路 Download PDF

Info

Publication number
JP6956191B2
JP6956191B2 JP2019540951A JP2019540951A JP6956191B2 JP 6956191 B2 JP6956191 B2 JP 6956191B2 JP 2019540951 A JP2019540951 A JP 2019540951A JP 2019540951 A JP2019540951 A JP 2019540951A JP 6956191 B2 JP6956191 B2 JP 6956191B2
Authority
JP
Japan
Prior art keywords
data line
circuit
current
volatile semiconductor
semiconductor storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019540951A
Other languages
English (en)
Other versions
JPWO2019049842A1 (ja
Inventor
礼司 持田
河野 和幸
百合子 早田
小野 貴史
中山 雅義
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Publication of JPWO2019049842A1 publication Critical patent/JPWO2019049842A1/ja
Application granted granted Critical
Publication of JP6956191B2 publication Critical patent/JP6956191B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/38Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
    • G06F7/48Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
    • G06F7/544Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
    • G06F7/5443Sum of products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C11/00Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C11/21Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using electric elements
    • G11C11/34Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using electric elements using semiconductor devices
    • G11C11/40Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using electric elements using semiconductor devices using transistors
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C11/00Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C11/54Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using elements simulating biological cells, e.g. neuron
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C7/00Arrangements for writing information into, or reading information out from, a digital store
    • G11C7/10Input/output [I/O] data interface arrangements, e.g. I/O data control circuits, I/O data buffers
    • G11C7/1006Data managing, e.g. manipulating data before writing or reading out, data bus switches or control circuits therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2207/00Indexing scheme relating to methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F2207/38Indexing scheme relating to groups G06F7/38 - G06F7/575
    • G06F2207/48Indexing scheme relating to groups G06F7/48 - G06F7/575
    • G06F2207/4802Special implementations
    • G06F2207/4814Non-logic devices, e.g. operational amplifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2207/00Indexing scheme relating to methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F2207/38Indexing scheme relating to groups G06F7/38 - G06F7/575
    • G06F2207/48Indexing scheme relating to groups G06F7/48 - G06F7/575
    • G06F2207/4802Special implementations
    • G06F2207/4818Threshold devices
    • G06F2207/4824Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C2213/00Indexing scheme relating to G11C13/00 for features not covered by this group
    • G11C2213/70Resistive array aspects
    • G11C2213/79Array wherein the access device being a transistor

Description

本発明は低消費電力化と大規模集積化が可能な不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路、及びその動作方法に関する。
情報通信技術の進展に伴い、あらゆるものがインターネットに繋がるIoT(Internet of Things)技術の到来が注目されている。IoT技術において、様々な電子機器がインターネットに接続されることで、機器の高性能化が期待されているが、更なる高性能化を実現する技術として、電子機器自らが学習と判断を行う人工知能(AI:Artificial Intelligence)技術の研究開発が近年活発に行われている。
人工知能技術において、人間の脳型情報処理を工学的に模倣したニューラルネットワーク技術が用いられており、ニューラルネットワーク演算を高速、低消費電力で実行する半導体集積回路の研究開発が盛んに行われている。
特許文献1、特許文献2、特許文献3に従来のニューラルネットワーク演算回路が開示されている。ニューラルネットワークは複数の入力が各々異なる結合重み係数を有するシナプスと呼ばれる結合で接続されたニューロンと呼ばれる(パーセプトロンと呼ばれる場合もある)基本素子から構成され、複数のニューロンが互いに接続されることで、画像認識や音声認識といった高度な演算処理を行うことができる。ニューロンでは各入力と各結合重み係数を乗算したものを全て加算した積和演算動作が行われる。積和演算回路は入力や結合重み係数を格納するメモリ回路とレジスタ回路、入力と結合重み係数を乗算する乗算回路、乗算結果を累積加算するアキュムレータ回路、及びこれらの回路ブロックの動作制御を行う制御回路で構成される。これらの回路ブロックは全てデジタル回路で構成される。
非特許文献1に、従来のニューラルネットワーク演算回路の別の例が開示されている。ニューラルネットワーク演算回路をアナログ抵抗値(コンダクタンス)が設定可能な抵抗変化型不揮発性メモリを用いて構成するものであり、不揮発性メモリ素子に結合重み係数に相当するアナログ抵抗値(コンダクタンス)を格納し、入力に相当するアナログ電圧値を不揮発性メモリ素子に印加し、このとき不揮発性メモリ素子に流れるアナログ電流値を利用する。ニューロンで行われる積和演算動作は、複数の結合重み係数を複数の不揮発性メモリ素子にアナログ抵抗値(コンダクタンス)として格納し、複数の入力に相当する複数のアナログ電圧値を複数の不揮発性メモリ素子に印加し、複数の不揮発性メモリ素子に流れる電流値を合算したアナログ電流値を積和演算結果として得ることで行われる。不揮発性メモリ素子を用いたニューラルネットワーク演算回路は、前述したデジタル回路で構成されるニューラルネットワーク演算回路と比べて低消費電力化が実現可能であり、アナログ抵抗値(コンダクタンス)が設定可能な抵抗変化型不揮発性メモリのプロセス開発、デバイス開発、及び回路開発が近年盛んに行われている。
特開2001−188767号公報 特開平6−259585号公報 特開平2−161556号公報 特開2009−282782号公報
しかしながら、前述した従来のニューラルネットワーク演算回路は以下に示す課題があった。
すなわち、デジタル回路で構成されるニューラルネットワーク演算回路では、大量の入力データや結合重み係数を格納する大容量のメモリ回路とレジスタ回路、浮動小数点で表現される大量の入力データと結合重み係数との積和演算を行う大規模な乗算回路と累積加算回路(アキュムレータ回路)、及びこれらの回路ブロックの動作制御を行う大規模な制御回路を搭載する必要があり、半導体集積回路のチップ面積増大が課題である。
また、高速なニューラルネットワーク演算を行うためには、大規模なデジタル回路を高速に動作させる必要があるため、現在製品化されているニューラルネットワーク演算処理を行う半導体チップの消費電力は数十ワットから数百ワットと非常に大きく、半導体集積回路の消費電力増大も課題である。
一方、デジタル回路で構成されるニューラルネットワーク演算回路の消費電力増大を解決するために、近年アナログ抵抗値(コンダクタンス)が設定可能な抵抗変化型不揮発性メモリを用いたニューラルネットワーク演算回路が提案されている。複数の結合重み係数を複数の不揮発性メモリ素子にアナログ抵抗値(コンダクタンス)として格納し、複数の入力データに相当する複数のアナログ電圧値を複数の不揮発性メモリ素子に印加し、複数の不揮発性メモリ素子に流れる電流値を合算したアナログ電流値を積和演算結果として得ることで積和演算動作を行うものであるが、ニューロンの入力及び出力がアナログ電圧値あるいはアナログ電流値で処理されるため、ニューロン間の情報伝達をアナログ値で行う必要があり、大規模なニューラルネットワーク回路の半導体集積回路への実装が困難、すなわち大規模な半導体集積化が困難という課題がある。ニューロン間の情報伝達を容易にするために、アナログ−デジタル変換回路(ADコンバータ回路)を用いてアナログ値をデジタル値に変換して情報伝達を行い、デジタル−アナログ変換回路(DAコンバータ回路)を用いてデジタル値をアナログ値に変換する方法もあるが、大規模なニューラルネットワーク回路を実装する場合、アナログ−デジタル変換回路(ADコンバータ回路)とデジタル−アナログ変換回路(DAコンバータ回路)を大量に搭載する必要があり、半導体集積化の観点から好ましくない。
また、特許文献4で開示されているように、結合重み係数を不揮発性メモリ素子にアナログ抵抗値として格納し、積和演算動作時はコンデンサに蓄積させたアナログ抵抗値を反映した電荷量と、基準電圧とをコンパレータで比較判定する回路も提案されているが、ニューラルネットワークの学習動作をする場合等、結合重み係数を増減させ、また元の結合重み係数に戻す必要があるが、その場合、不揮発性メモリ素子を書き換える必要があり、元のアナログ抵抗値と全く同じ値に戻すことは困難である。更にニューラルネットワークでは最終段の積和演算結果から、最も大きな積和演算結果を判定するソフトマックスという手法が必要であるが、コンパレータの出力は2値で出力されるため、複数のコンパレータ出力から最も大きな積和演算結果を判定することは困難である。
本発明は上記課題を鑑みてなされたものであり、低消費電力化と大規模集積化が可能な不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路を提供することにある。
本発明の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路は、第1の論理値、あるいは第2の論理値のデータを取り得る複数の入力データと、複数の入力データに各々対応する複数の結合重み係数と、複数の入力データと、対応する結合重み係数との積和演算結果に応じて第1の論理値、あるいは第2の論理値の出力データを出力するニューラルネットワーク演算回路であって、複数のワード線と、第1のデータ線と、第2のデータ線と、第3のデータ線と、第4のデータ線と、第1の不揮発性半導体記憶素子と第1のセルトランジスタとの直列接続で構成され、第1の不揮発性半導体記憶素子の一端が第1のデータ線に、第1のセルトランジスタの一端が第2のデータ線に、第1のセルトランジスタのゲートがワード線に接続され、且つ、第2の不揮発性半導体記憶素子と第2のセルトランジスタとの直列接続で構成され、第2の不揮発性半導体記憶素子の一端が第3のデータ線に、第2のセルトランジスタの一端が第4のデータ線に、第2のセルトランジスタのゲートがワード線に接続される複数の演算ユニットと、複数のワード線を選択状態あるいは非選択状態とするワード線選択回路と、第1のデータ線と第3のデータ線、あるいは第2のデータ線と第4のデータ線に生じる電圧値あるいは電流値の大小関係を判定して第1の論理値、あるいは第2の論理値のデータを出力する判定回路と、第1のデータ線、あるいは第2のデータ線、あるいは第3のデータ線、あるいは第4のデータ線の少なくとも1本に接続された電流印加回路とを備え、複数の演算ユニットの第1の不揮発性半導体記憶素子と第2の不揮発性半導体記憶素子に複数の結合重み係数を格納し、第1のデータ線、あるいは第2のデータ線、あるいは第3のデータ線、あるいは第4のデータ線の任意の1本に電流印加回路から電流を印加することで、任意の結合重み係数を調整する機能を持ち、ワード線選択回路が、複数の入力データに応じて複数のワード線を選択状態あるいは非選択状態とし、判定回路が出力データを出力する。
また、本発明の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路において、電流印加回路は、第1の電流源の入力が第5のデータ線に接続され、第5のデータ線は、第1のスイッチトランジスタを介して、第1のデータ線あるいは第2のデータ線、又は第2のスイッチトランジスタを介して、第3のデータ線あるいは第4のデータ線の、少なくともどちらか片方に接続されてもよい。
また、本発明の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路において、電流印加回路は、第1の電流源の入力が第5のデータ線に接続され、第2の電流源の入力が第6のデータ線に接続され、第5のデータ線は、第1のスイッチトランジスタを介して、第1のデータ線あるいは第2のデータ線に接続され、第6のデータ線は、第2のスイッチトランジスタを介して、第3のデータ線あるいは第4のデータ線に接続されてもよい。
また、本発明の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路において、電流印加回路は、第1の電流発生回路の一端が第7のデータ線に接続され、第1の電流発生回路のもう一端が第8のデータ線に接続され、第7のデータ線あるいは第8のデータ線は、第1のスイッチトランジスタを介して、第1のデータ線あるいは第2のデータ線、又は第2のスイッチトランジスタを介して、第3のデータ線あるいは第4のデータ線の、少なくともどちらか片方に接続されてもよい。
また、本発明の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路において、電流印加回路は、第1の電流発生回路の一端が第7のデータ線に接続され、第1の電流発生回路のもう一端が第8のデータ線に接続され、第2の電流発生回路の一端が第9のデータ線に接続され、第2の電流発生回路のもう一端が第10のデータ線に接続され、第7のデータ線あるいは第8のデータ線は、第1のスイッチトランジスタを介して、第1のデータ線あるいは第2のデータ線に接続され、第9のデータ線あるいは第10のデータ線は、第2のスイッチトランジスタを介して、第3のデータ線あるいは第4のデータ線に接続されてもよい。
また、本発明の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路において、電流発生回路は、固定抵抗素子や、不揮発性記憶素子、ロードトランジスタ等の素子や、抵抗素子と選択トランジスタを直列に接続した構成や、ロードトランジスタと選択トランジスタを直列に接続した構成を少なくとも1つ以上並列に接続した構成であってもよい。
また、本発明の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路において、電流印加回路は、第2の抵抗素子と第3のセルトランジスタとの直列接続で構成され、第2の抵抗素子の一端が第1のデータ線に、第3のセルトランジスタの一端が第2のデータ線に、第3のセルトランジスタのゲートがワード線に接続され、且つ、第3の抵抗素子と第4のセルトランジスタとの直列接続で構成され、第3の抵抗素子の一端が第3のデータ線に、第4のセルトランジスタの一端が第4のデータ線に、第4のセルトランジスタのゲートがワード線に接続される少なくとも1つ以上の電流印加ユニットで構成されてもよい。
第1の抵抗素子、第2の抵抗素子、第3の抵抗素子は固定抵抗素子、あるいは不揮発性半導体記憶素子で構成してもよい。
また、本発明の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路において、複数の演算ユニットの第1の不揮発性半導体記憶素子と第2の不揮発性半導体記憶素子への複数の結合重み係数の格納において、結合重み係数が正の値の場合、第1の不揮発性半導体記憶素子に流れる電流値が結合重み係数の値に比例した電流値となるように、第1の不揮発性半導体記憶素子に書き込みを行い、結合重み係数が負の値の場合、第2の不揮発性半導体記憶素子に流れる電流値が結合重み係数の値に比例した電流値となるように、第2の不揮発性半導体記憶素子に書き込みを行ってもよい。
また、本発明の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路において、複数の演算ユニットの第1の不揮発性半導体記憶素子と第2の不揮発性半導体記憶素子への複数の結合重み係数の格納において、結合重み係数が正の値の場合、第1の不揮発性半導体記憶素子に流れる電流値が第2の不揮発性半導体記憶素子に流れる電流値よりも大きくなり、且つその電流差が結合重み係数の値に比例した電流値となるように、第1の不揮発性半導体記憶素子と第2の不揮発性半導体記憶素子に書き込みを行い、結合重み係数が負の値の場合、第2の不揮発性半導体記憶素子に流れる電流値が第1の不揮発性半導体記憶素子に流れる電流値よりも大きくなり、且つその電流差が結合重み係数の値に比例した電流値となるように、第1の不揮発性半導体記憶素子と第2の不揮発性半導体記憶素子に書き込みを行ってもよい。
また、本発明の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路において、ワード線選択回路は、入力データが第1の論理値の場合、対応するワード線を非選択状態とし、入力データが第2の論理値の場合、対応するワード線を選択状態としてもよい。
また、本発明の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路において、第1のデータ線あるいは第2のデータ線に、結合重み係数が正の値である複数の入力データと、対応する正の値の結合重み係数との積和演算結果に対応した電流値が流れ、第3のデータ線あるいは第4のデータ線に、結合重み係数が負の値である複数の入力データと、対応する負の値の結合重み係数との積和演算結果に対応した電流値が流れるとしてもよい。
また、本発明の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路において、判定回路は、第1のデータ線あるいは第2のデータ線に流れる電流値が第3のデータ線あるいは第4のデータ線に流れる電流値よりも小さい場合、第1の論理値を出力し、第1のデータ線あるいは第2のデータ線に流れる電流値が第3のデータ線あるいは第4のデータ線に流れる電流値よりも大きい場合、第2の論理値を出力してもよい。
また、本発明の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路において、第1の不揮発性半導体記憶素子と第2の不揮発性半導体記憶素子は、抵抗変化型素子で形成される抵抗変化型記憶素子、磁気抵抗変化型素子で形成される磁気抵抗変化型記憶素子、相変化型素子で形成される相変化型記憶素子、強誘電体型素子で形成される強誘電体型記憶素子、いずれかであってもよい。
また、本発明の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路において、任意の結合重み係数を変更した場合のニューラルネットワーク演算を行う場合には、正の値の結合重み係数を増加させる場合には、第1のデータ線あるいは第2のデータ線に電流印加回路で電流を印加し、正の値の結合重み係数を減少させる場合には、第3のデータ線あるいは第4のデータ線に電流印加回路で電流を印加し、負の値の結合重み係数を増加させる場合には、第3のデータ線あるいは第4のデータ線に電流印加回路で電流を印加し、負の値の結合重み係数を減少させる場合には、第1のデータ線あるいは第2のデータ線に電流印加回路で電流を印加し、ニューラルネットワーク演算を行ってもよい。
また、本発明の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路において、複数の判定回路が、第2の論理値を出力した場合には、第3のデータ線あるいは第4のデータ線に電流印加回路で電流を印加し、第2の論理値を出力する判定回路の中で、最も大きい積和演算結果を判定してもよい。
また、本発明の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路において、演算に使用している全ての判定回路が、第1の論理値を出力した場合には、第1のデータ線あるいは第2のデータ線に電流印加回路で電流を印加し、第1の論理値を出力する判定回路の中で、最も大きい積和演算結果を判定してもよい。
本発明の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路は、ニューロンの入力データと出力データが0データあるいは1データの2値のデジタル値を取り得るニューラルネットワーク回路であり、結合重み係数を第1のデータ線と第2のデータ線との間に直列接続される第1の不揮発性半導体記憶素子と第1のセルトランジスタ、第3のデータ線と第4のデータ線との間に直列接続される第2の不揮発性半導体記憶素子と第2のセルトランジスタとで構成される演算ユニットを備え、第1の不揮発性半導体記憶素子と第2の不揮発性半導体記憶素子に例えば抵抗値(コンダクタンス)として格納する。
ここで、結合重み係数が正の値の場合は、第1の不揮発性半導体記憶素子に流れる電流値が結合重み係数の値に比例した電流値となるように、第1の不揮発性半導体記憶素子に書き込みを行い(第2の不揮発性半導体記憶素子に流れる電流値はゼロ)、結合重み係数が負の値の場合は、第2の不揮発性半導体記憶素子に流れる電流値が結合重み係数の値に比例した電流値となるように、第2の不揮発性半導体記憶素子に書き込みを行う(第1の不揮発性半導体記憶素子に流れる電流値はゼロ)。
あるいは、結合重み係数が正の値の場合は、第1の不揮発性半導体記憶素子に流れる電流値が第2の不揮発性半導体記憶素子に流れる電流値よりも大きくなり、且つその電流差が結合重み係数の値に比例した電流値となるように、第1の不揮発性半導体記憶素子と第2の不揮発性半導体記憶素子に書き込みを行い、結合重み係数が負の値の場合、第2の不揮発性半導体記憶素子に流れる電流値が第1の不揮発性半導体記憶素子に流れる電流値よりも大きくなり、且つその電流差が結合重み係数の値に比例した電流値となるように、第1の不揮発性半導体記憶素子と第2の不揮発性半導体記憶素子に書き込みを行う。この書き込み方法は不揮発性半導体記憶素子に流れる電流値をゼロに設定できない場合、あるいは、1つの不揮発性半導体記憶素子のみで結合重み係数の値に比例した電流値を設定できない場合に有効である。
ワード線選択回路が入力データ(0データあるいは1データ)に応じて、第1のセルトランジスタと第2のセルトランジスタのゲートに接続されるワード線を非選択状態(0データの場合)、あるいは選択状態(1データの場合)とすることで、演算ユニットを非活性化状態、あるいは活性化状態とする。
第1の不揮発性半導体記憶素子が接続される第1のデータ線には結合重み係数が正の値である複数の入力データと、対応する正の値の結合重み係数との積和演算結果に対応した電流値が流れ、第2の不揮発性半導体記憶素子が接続される第3のデータ線には結合重み係数が負の値である複数の入力データと、対応する負の値の結合重み係数との積和演算結果に対応した電流値が流れる。
判定回路が第1のデータ線に流れる電流値と、第3のデータ線に流れる電流値との大小関係を判定して出力データ(0データあるいは1データ)を出力する。すなわち、入力データと結合重み係数の積和演算結果が負の値の場合に0データが出力され、正の値の場合に1データが出力される。
本発明の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路は、上述の動作により、不揮発性半導体記憶素子に流れる電流値を用いてニューラルネットワーク回路の積和演算動作を行う。これにより、従来のデジタル回路で構成される大容量のメモリ回路やレジスタ回路、大規模な乗算回路や累積加算回路(アキュムレータ回路)、及び複雑な制御回路を搭載することなく、積和演算動作を行うことが可能となるため、ニューラルネットワーク演算回路の低消費電力化、及び半導体集積回路のチップ面積縮小化が可能となる。また、ニューロンの入力データと出力データが0データあるいは1データの2値のデジタルデータを取り得るニューラルネットワーク回路であるため、ニューロン間の情報伝達をデジタル伝送することが可能となり、複数のニューロンを用いた大規模なニューラルネットワーク回路の実装が容易となり、半導体集積化が可能となる。
すなわち、本発明の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路は、低消費電力化と大規模集積化を実現することが可能である。詳細は後述する実施例により開示される。
図1Aは、ニューラルネットワーク演算で用いられるニューロンを示す図である。 図1Bは、図1Aのニューロンの演算処理を行う詳細回路構成を示す図である。 図2は、ディープニューラルネットワークの構成を示す図である。 図3は、ニューラルネットワーク演算におけるニューロンの計算を示す図である。 図4は、ニューラルネットワーク演算におけるニューロンの計算において、バイアス係数bの演算を入力x0と結合重み係数w0に割り当てた場合の計算を示す図である。 図5は、実施形態に係るニューラルネットワーク演算におけるニューロンの活性化関数fを示す図である。 図6は、の実施形態に係る不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路の全体構成を示す図である。 図7Aは、図6におけるメモリセルアレイを構成する不揮発性半導体記憶素子であるメモリセルMCの回路図を示したものである。 図7Bは、メモリセルMCの断面図を示したものである。 図7Cは、メモリセルMCの各動作モードにおける印加電圧を示す図である。 図8Aは、実施形態に係るニューラルネットワーク演算回路の動作原理を示す計算を示す図である。 図8Bは、実施形態に係る演算ユニットPUiの動作を示す。 図9Aは、演算ユニットPUiの動作を示す図である。 図9Bは、の実施形態に係る演算ユニットPUiの入力xiに対するワード線WLiの状態を示す図である。 図9Cは、実施形態に係る演算ユニットPUiの抵抗変化素子RP、RNの電流範囲、及び抵抗変化素子に書き込む電流値の計算を示す図である。 図9Dは、実施形態に係る演算ユニットPUiの入力xiと結合重み係数wiとの積和演算動作を示す図である。 図10Aは、第1の実施形態に係るニューラルネットワーク演算の構成を示す図である。 図10Bは、第1の実施形態に係るニューラルネットワーク演算の結合重み係数の値を示す図である。 図11は、第1の実施形態に係るニューラルネットワーク演算回路の詳細構成を示す図である。 図12Aは、第1の実施形態に係る演算ユニットの抵抗変化素子の電流範囲、及び抵抗変化素子に書き込む電流値を示す図である。 図12Bは、第1の実施形態に係る演算ユニットPU0〜PU3の抵抗変化素子RP、RNの電流範囲、及び抵抗変化素子RP、RNに書き込む電流値(抵抗値)を示す図である。 図13Aは、第2の実施形態に係るニューラルネットワーク演算の構成を示す図である。 図13Bは、第2の実施形態に係るニューラルネットワーク回路の真理値表を示す図である。 図13Cは、第2の実施形態に係るニューラルネットワーク回路の結合重み係数を示す図である。 図13Dは、第2の実施形態に係るニューラルネットワーク回路の入力層、隠れ層、出力層の演算動作を示す図である。 図14Aは、第2の実施形態に係る演算ユニットの抵抗変化素子の電流範囲、及び抵抗変化素子に書き込む電流値を示す図である。 図14Bは、第2の実施形態に係るニューラルネットワーク演算回路の演算ユニットの抵抗変化素子の電流範囲、及び抵抗変化素子に書き込む電流値を示す図である。 図15Aは、出力層の結合重み係数を示す図である。 図15Bは、第2の実施形態に係る出力層のニューラルネットワーク演算結果を示す図である。 図15Cは、第2の実施形態に係る出力層のニューラルネットワーク演算回路の詳細構成を示す図である。 図16Aは、電流印加回路の構成例を示す図である。 図16Bは、電流印加回路の構成例2を示す図である 図16Cは、電流印加回路の構成例3を示す図である。 図16Dは、電流印加回路の構成例4を示す図である。 図16Eは、電流印加回路に電流発生回路の具体的構成を示した図である。 図16Fは、電流印加回路に電流発生回路の具体的構成を示した図である。 図16Gは、電流印加回路に電流発生回路の具体的構成を示した図である。 図16Hは、電流印加回路に電流発生回路の具体的構成を示した図である。 図17は、電流印加回路をメモリセルアレイ内に配置した場合の詳細を示す図である。
以下、本発明の実施形態について、図面を参照して説明する。
図1A及び図1Bは、実施形態に係る不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路の詳細構成を示す図である。図1Aはニューラルネットワーク演算で用いられるニューロンを示す図であり、図1Bは図1Aのニューロンが行う演算処理を本発明で実施する場合の詳細回路構成を示す図であり、本発明の特徴を示した代表図面である。図1A及び図1Bについては後述で詳細に説明する。
<ニューラルネットワーク演算>
始めに、ニューラルネットワーク演算の基礎理論について説明する。
図2はディープニューラルネットワークの構成を示す図である。ニューラルネットワークは入力データが入力される入力層1、入力層1の入力データを受けて演算処理を行う隠れ層2(中間層と呼ばれる場合もある)、隠れ層2の出力データを受けて演算処理を行う出力層3から構成される。入力層1、隠れ層2、出力層3の各々において、ニューロン10と呼ばれるニューラルネットワークの基本素子が多数存在し、各々のニューロン10は結合重み11を介して接続されている。複数の結合重み11は各々異なる結合重み係数を有してニューロン間を接続している。ニューロン10には複数の入力データが入力され、ニューロン10ではこれら複数の入力データと対応する結合重み係数との積和演算動作が行われ出力データとして出力される。ここで、隠れ層2は複数段(図2では4段)のニューロンが連結された構成であり、深いニューラルネットワークを形成しているという意味で、図2に示すようなニューラルネットワークはディープニューラルネットワークと呼ばれる。
図3はニューラルネットワーク演算におけるニューロンの計算を示す図であり、ニューロン10が行う計算式を図3の式(1)、式(2)に示す。ニューロン10はn個の入力x1〜xnが各々結合重み係数w1〜wnを有する結合重みで接続されており、入力x1〜xnと結合重み係数w1〜wnとの積和演算が行われる。ニューロン10はバイアス係数bを有しており、入力x1〜xnと結合重み係数w1〜wnとの積和演算結果にバイアス係数bが加算される。ニューロン10は活性化関数fを有しており、入力x1〜xnと結合重み係数w1〜wnとの積和演算結果にバイアス係数bを加算した結果に対して活性化関数の演算処理を行い出力yが出力される。
図4はニューラルネットワーク演算におけるニューロンの計算において、バイアス係数bの演算を入力x0と結合重み係数w0に割り当てた場合の計算を示す図であり、ニューロン10が行う計算式を図4の式(1)、式(2)に示す。前述した図3において、ニューロン10は入力x1〜xnと結合重み係数w1〜wnとの積和演算と、バイアス係数bの加算演算が行われるが、図4に示す通り、バイアス係数bの加算演算を入力x0=1、結合重み係数w0=bとして、n+1個の入力x0〜xnが各々結合重み係数w0〜wnを有する結合重みで接続されたニューロン10と解釈することができる。図4の式(1)、式(2)に示す通り、ニューロン10の計算を入力x0〜xnと結合重み係数w0〜wnとの積和演算のみで簡潔に表現できる。本実施形態では図4に示す通り、バイアス係数bの加算演算の表現を入力x0=1と結合重み係数w0=bとして表現することにする。
図5は実施形態に係るニューラルネットワーク演算におけるニューロンの活性化関数fを示す図であり、x軸は活性化関数fの入力u、y軸は活性化関数fの出力f(u)である。本発明の実施形態では活性化関数fはステップ関数を使用する。本実施形態では活性化関数としてステップ関数を使用するが、ニューラルネットワーク演算で使用されるその他の活性化関数としてシグモイド関数等がある。図5に示す通り、ステップ関数は入力uが負の値(<0)の場合は出力f(u)=0を出力し、入力uが正の値(≧0)の場合は出力f(u)=1を出力する関数である。前述した図4のニューロン10において、ステップ関数の活性化関数fを使用した場合、入力x0〜xnと結合重み係数w0〜wnとの積和演算結果が負の値の場合は出力y=0が出力され、積和演算結果が正の値の場合は出力y=1が出力される。
<不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路の全体構成>
図6は、実施形態に係る不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路の全体構成を示す図である。本発明のニューラルネットワーク演算回路は、メモリセルアレイ20、ワード線選択回路30、カラムゲート40、判定回路50、書き込み回路60、制御回路70を備えている。
メモリセルアレイ20は不揮発性半導体記憶素子がマトリックス状に配置されており、不揮発性半導体記憶素子にはニューラルネットワーク演算で使用される結合重み係数が格納される。メモリセルアレイ20は複数のワード線WL0〜WLn、複数のビット線BL0〜BLm、複数のソース線SL0〜SLmを有している。
ワード線選択回路30はメモリセルアレイ20のワード線WL0〜WLnを駆動する回路である。ニューラルネットワーク演算のニューロンの入力に対応してワード線を選択状態、あるいは非選択状態とする(後述)。
カラムゲート40はビット線BL0〜BLm、ソース線SL0〜SLmに接続され、複数のビット線、複数のソース線から所定のビット線、ソース線を選択して、後述する判定回路50、書き込み回路60に接続する回路である。
判定回路50はカラムゲート40を介してビット線BL0〜BLm、ソース線SL0〜SLmが接続され、ビット線あるいはソース線に流れる電流値を検知して出力データを出力する回路であって、メモリセルアレイ20のメモリセルに格納されたデータの読み出し、及びニューラルネットワーク演算のニューロンの出力データを出力する(後述)。
書き込み回路60はカラムゲート40を介してビット線BL0〜BLm、ソース線SL0〜SLmが接続され、メモリセルアレイ20の不揮発性半導体記憶素子に書き換え電圧を印加する回路である。
制御回路70はメモリセルアレイ20、ワード線選択回路30、カラムゲート40、判定回路50、書き込み回路60の動作を制御する回路であり、メモリセルアレイ20のメモリセルに対する読み出し動作、書き込み動作、及びニューラルネットワーク演算動作の制御を行う。
<不揮発性半導体記憶素子の構成>
図7A〜図7Cは、実施形態に係る不揮発性半導体記憶素子の回路図、断面図、及び各動作における印加電圧を示す図である。
図7Aは、図6におけるメモリセルアレイ20を構成する不揮発性半導体記憶素子であるメモリセルMCの回路図を示したものである。メモリセルMCは抵抗変化素子RPとセルトランジスタT0の直列接続されたもので構成され、1つのセルトランジスタT0と1つの抵抗変化素子RPから構成される『1T1R』型のメモリセルである。抵抗変化素子RPは抵抗変化型メモリReRAM(Resistive Random Access Memory)と呼ばれる不揮発性半導体記憶素子である。メモリセルMCのワード線WLはセルトランジスタT0のゲート端子に接続され、ビット線BLは抵抗変化素子RPに接続され、ソース線SLはセルトランジスタT0のソース端子に接続される。
図7Bは、メモリセルMCの断面図を示したものである。半導体基板80上に拡散領域81a、81bが形成されており、拡散領域81aがセルトランジスタT0のソース端子として、拡散領域81bがセルトランジスタのドレイン端子として作用する。拡散領域81a、81b間がセルトランジスタT0のチャネル領域として作用し、このチャネル領域上に酸化膜82、ポリシリコンで形成されるゲート電極83が形成され、セルトランジスタT0として動作する。セルトランジスタT0のソース端子である拡散領域81aはビア84aを介して第1配線層85aであるソース線SLに接続される。セルトランジスタT0のドレイン端子である拡散領域81bはビア84bを介して第1配線層85bに接続される。更に、第1配線層85bはビア86を介して第2配線層87に接続され、第2配線層87はビア88を介して抵抗変化素子RPに接続される。抵抗変化素子RPは下部電極89、抵抗変化層90、上部電極91から構成される。抵抗変化素子RPはビア92を介して第3配線層93であるビット線BLに接続される。
図7Cは、メモリセルMCの各動作モードにおける印加電圧を示す図である。
リセット動作(高抵抗化)はワード線WLにVg_reset(例えば2V)の電圧を印加することでセルトランジスタT0を選択状態とし、ビット線BLにVreset(例えば2.0V)の電圧を印加し、ソース線SLに接地電圧VSS(0V)を印加する。これにより、抵抗変化素子RPの上部電極に正の電圧が印加され高抵抗状態に抵抗変化する。
セット動作(低抵抗化)はワード線WLにVg_set(例えば2.0V)の電圧を印加することでセルトランジスタT0を選択状態とし、ビット線BLに接地電圧VSS(0V)を印加し、ソース線SLにVset(例えば2.0V)の電圧を印加する。これにより、抵抗変化素子RPの下部電極に正の電圧が印加され低抵抗状態に抵抗変化する。
読み出し動作はワード線WLにVg_read(例えば1.1V)の電圧を印加することでセルトランジスタT0を選択状態とし、ビット線BLにVread(例えば0.4V)の電圧を印加し、ソース線SLに接地電圧VSS(0V)を印加する。これにより、抵抗変化素子RPが高抵抗状態(リセット状態)の場合は小さなメモリセル電流が流れ、また、抵抗変化素子RPが低抵抗状態(セット状態)の場合は大きなメモリセル電流が流れ、この電流値の差異を判定回路で判定することでメモリセルに格納されたデータの読み出し動作を行う。
メモリセルMCを0データあるいは1データを格納する半導体メモリとして用いる場合は抵抗変化素子RPの抵抗値は高抵抗状態(0データ)と低抵抗状態(1データ)の2つの抵抗状態(デジタル)のみを取り得るが、本発明のニューラルネットワーク演算回路として用いる場合は抵抗変化素子RPの抵抗値を多階調(アナログ)の値に設定して使用する。
<不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路の詳細構成>
図1A及び図1Bは、実施形態に係る不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路の詳細構成を示す図である。
図1Aはニューラルネットワーク演算で用いられるニューロンを示す図であり、図4と同一である。ニューロン10はn+1個の入力x0〜xnが各々結合重み係数w0〜wnを有して入力されており、入力x0〜xnは0データあるいは1データのいずれかの値を、結合重み係数w0〜wnは多階調(アナログ)の値を取り得る。入力x0〜xnと結合重み係数w0〜wnとの積和演算結果に対して、図5に示したステップ関数である活性化関数fの演算が行われて出力yが出力される。
図1Bは図1Aのニューロン10の演算処理を行う詳細回路構成を示す図である。メモリセルアレイは、複数のワード線WL0〜WLn、複数のビット線BL0、BL1、複数のソース線SL0、SL1を有している。
ニューロン10の入力x0〜xnとしてワード線WL0〜WLnが対応しており、入力x0がワード線WL0に、入力x1がワード線WL1に、入力xn−1がワード線WLn−1に、入力xnがワード線WLnに対応している。ワード線選択回路30は入力x0〜xnに応じてワード線WL0〜WLnを選択状態あるいは非選択状態とする回路である。入力が0データの場合はワード線を非選択状態とし、入力が1データの場合はワード線を選択状態とする。ニューラルネットワーク演算では入力x0〜xnは各々0データあるいは1データの値を任意に取り得るため、入力x0〜xnの中に1データが複数個ある場合、ワード線選択回路30は複数のワード線を同時に多重選択することになる。
ニューロン10の結合重み係数w0〜wnとしてメモリセルから構成される演算ユニットPU0〜PUnが対応しており、結合重み係数w0が演算ユニットPU0に、結合重み係数w1が演算ユニットPU1に、結合重み係数wn−1が演算ユニットPUn−1に、結合重み係数wnが演算ユニットPUnに対応している。
演算ユニットPU0は抵抗変化素子RPとセルトランジスタT0から構成されるメモリセルと、抵抗変化素子RNとセルトランジスタT1から構成されるメモリセルとから構成される。すわなち、1つの演算ユニットは2つのメモリセルから構成される。演算ユニットPU0はワード線WL0、ビット線BL0、BL1、ソース線SL0、SL1に接続されており、ワード線WL0はセルトランジスタT0、T1のゲート端子に、ビット線BL0は抵抗変化素子RPに、ソース線SL0はセルトランジスタT0のソース端子に、ビット線BL1は抵抗変化素子RNに、ソース線SL1はセルトランジスタT1のソース端子に接続されている。入力x0は演算ユニットPU0のワード線WL0として入力され、結合重み係数w0は演算ユニットPU0の2つの抵抗変化素子RP、RNに抵抗値(コンダクタンス)として格納される。演算ユニットPU1、PUn−1、PUnの構成も演算ユニットPU0の構成と同様であるため詳細な説明は割愛する。すなわち、入力x0〜xnは各々演算ユニットPU0〜PUnに接続されるワード線WL0〜WLnとして入力され、結合重み係数w0〜wnは各々演算ユニットPU0〜PUnの抵抗変化素子RP、RNに抵抗値(コンダクタンス)として格納される。
ビット線BL0はカラムゲートトランジスタYT0を介して判定回路50に接続され、ビット線BL1はカラムゲートトランジスタYT1を介して判定回路50に接続される。カラムゲートトランジスタYT0、YT1のゲート端子はカラムゲート制御信号YGに接続されており、カラムゲート制御信号YGが活性化されるとビット線BL0、BL1は判定回路50に接続される。ソース線SL0はディスチャージトランジスタDT0を介して接地電圧に接続され、ソース線SL1はディスチャージトランジスタDT1を介して接地電圧に接続される。ディスチャージトランジスタDT0、DT1のゲート端子はディスチャージ制御信号DISに接続されており、ディスチャージ制御信号DISが活性化されるとソース線SL0、SL1は接地電圧に設定される。ニューラルネットワーク演算動作を行う場合はカラムゲート制御信号YG、ディスチャージ制御信号DISを活性化することで、ビット線BL0、BL1を判定回路50に、ソース線SL0、SL1を接地電圧に接続する。
判定回路50はカラムゲートトランジスタYT0、YT1を介して接続されるビット線BL0、BL1に流れる電流値を検知、比較して出力yを出力する回路である。出力yは0データあるいは1データのいずれかの値を取り得る。ビット線BL0に流れる電流値がビット線BL1に流れる電流値より小さい場合は0データの出力yを出力し、ビット線BL0に流れる電流値がビット線BL1に流れる電流値より大きい場合は1データの出力yを出力する。すなわち、判定回路50はビット線BL0、BL1に流れる電流値の大小関係を判定して出力yを出力する回路である。
電流印加回路100はビット線BL0、BL1の少なくとも片方に電流を印加する回路である。
図16Aに示すように、電流印加回路100は電流源110の入力がスイッチトランジスタYTpを介してビット線BL0に接続され、電流源110の入力がスイッチトランジスタYTnを介してビット線BL1に接続され、電流源110で発生した電流をビット線BL0、又はビット線BL1に印加可能な回路である。また、スイッチトランジスタYTpを介したビット線BL0への接続と、スイッチトランジスタYTnを介したビット線BL1への接続は、どちらか片方のみでもよい。
図16Bは、電流印加回路100の構成例2を示す図である。電流印加回路100は電流源110の入力がスイッチトランジスタYTpを介してビット線BL0に接続され、電流源111の入力がスイッチトランジスタYTnを介してビット線BL1に接続され、電流源110で発生した電流をビット線BL0、電流源111で発生した電流をビット線BL1に印加可能な回路である。
図16Cは、電流印加回路100の構成例3を示す図である。電流印加回路100は電流発生回路120の一端がスイッチトランジスタYTpを介してビット線BL0に接続され、電流発生回路120の一端がスイッチトランジスタYTnを介してビット線BL1に接続され、電流発生回路120のもう一端はディスチャージ制御信号DISを活性化することで、接地電圧に接続し、電流発生回路120で発生した電流をビット線BL0、又はビット線BL1に印加可能な回路である。また、スイッチトランジスタYTpを介したビット線BL0への接続と、スイッチトランジスタYTnを介したビット線BL1への接続は、どちらか片方のみでもよい。
図16Dは、電流印加回路100の構成例4を示す図である。電流印加回路100は電流発生回路120の一端がスイッチトランジスタYTpを介してビット線BL0に接続され、電流発生回路121の一端がスイッチトランジスタYTnを介してビット線BL1に接続され、電流発生回路120、121のもう一端はディスチャージ制御信号DISを活性化することで、接地電圧に接続し、電流発生回路120で発生した電流をビット線BL0、電流発生回路121で発生した電流をビット線BL1に印加可能な回路である。
図16E、図16F、図16G、図16Hは電流印加回路100に電流発生回路120の具体的構成を示した図である。図16Eに示すように、電流発生回路120は抵抗素子Rwで構成され、抵抗素子Rwは、固定抵抗素子や不揮発性記憶素子で構成してもよい。図16Fに示すように、電流発生回路120はロードトランジスタWTで構成され、ロードトランジスタWTのゲートはロードゲート電圧WLwで制御される。図16Gに示すように、電流発生回路120は抵抗素子Rw0〜Rw2と選択トランジスタST0〜ST2との直列接続の構成が、少なくとも1つ以上並列に接続されている。図16Hに示すように、電流発生回路120はロードトランジスタWT0〜WT2と選択トランジスタST0〜ST2との直列接続の構成が、少なくとも1つ以上並列に接続され、ロードトランジスタWT0〜WT2のゲートはロードゲート電圧WLw0〜WLw2で制御される。
図17は、電流印加回路100の構成例5を示す図である。図17に示すように電流印加回路100はメモリセルアレイの中に構成してもよい。追加する電流はメモリセルから構成される電流印加ユニットPUαp、PUαnが対応しており、追加する結合重み係数wαpが電流印加ユニットPUαpに、追加する結合重み係数wαnが電流印加ユニットPUαnに対応している。
電流印加ユニットPUαp、PUαnは抵抗変化素子RPとセルトランジスタT0から構成されるメモリセルと、抵抗変化素子RNとセルトランジスタT1から構成されるメモリセルとから構成される。すわなち、1つの電流印加ユニットは2つのメモリセルから構成される。電流印加ユニットPUαpはワード線WLαp、ビット線BL0、BL1、ソース線SL0、SL1に接続されており、ワード線WLαpはセルトランジスタT0、T1のゲート端子に、ビット線BL0は抵抗変化素子RPに、ソース線SL0はセルトランジスタT0のソース端子に、ビット線BL1は抵抗変化素子RNに、ソース線SL1はセルトランジスタT1のソース端子に接続されている。電流印加ユニットPUαnの構成も電流印加ユニットPUαpの構成と同様であるため詳細な説明は割愛する。すなわち、抵抗変化素子RPにBL0に印加する電流に相当する抵抗値を設定し、抵抗変化素子RNにBL1に印加する電流に相当する抵抗値を設定し、対応するワード線WLαp、WLαnを選択することで、任意の電流値をビット線BL0、BL1に印加することが可能である。ここで、抵抗変化素子は固定抵抗素子、あるいはロードトランジスタで構成されてもよい。また電流印加ユニットPUαp、PUαnは1つ以上の任意の数を設定可能である。
以上のように構成された不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路の動作原理と動作方法、及び結合重み係数を抵抗変化素子へ格納する方法について、以降詳細に説明する。
<不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路の動作原理>
図8A及び図8Bは、実施形態に係るニューラルネットワーク演算回路の動作原理を示す計算、及び演算ユニットの動作を示す図である。
図8Aは、実施形態に係るニューラルネットワーク演算回路の動作原理を示す計算を示す図である。図8Aの式(1)に示す通り、ニューロン10が行う演算は入力xiと結合重み係数wiの積和演算結果に対してステップ関数である活性化関数fの演算処理を行ったものである。本発明では図8Aの式(2)に示す通り、結合重み係数wiを抵抗変化素子(メモリセル)に流れる電流値Iiに置き換えて、入力xiと抵抗変化素子(メモリセル)に流れる電流値Iiとの積和演算を行うことが特徴である。
ここで、ニューラルネットワーク演算における結合重み係数wiは正の値(≧0)、負の値(<0)の双方を取り、積和演算動作において入力xiと結合重み係数wiの積が正の値の場合は加算、負の値の場合は減算が行われる。しかしながら、抵抗変化素子(メモリセル)に流れる電流値Iiは正の値しか取り得ることができないため、入力xiと結合重み係数wiの積が正の値の場合の加算演算は電流値Iiの加算で実現可能であるが、入力xiと結合重み係数wiの積が負の値の場合の減算演算を正の値の電流値Iiを用いて行うには工夫が必要である。
図8Bは、実施形態に係る演算ユニットPUiの動作を示す。演算ユニットPUiの構成は図1A及び図1Bで説明したものであり、詳細な説明は割愛する。本発明は結合重み係数wiを2個の抵抗変化素子RP、RNに格納することが特徴であり、抵抗変化素子RPに設定する抵抗値をRpi、抵抗変化素子RNに設定する抵抗値をRniとし、ビット線BL0、BL1に印加する電圧をVblとし、抵抗変化素子RP、RNに流れる電流値をIpi、Iniとする。本発明では正の積和演算結果をビット線BL0に流れる電流に加算し、負の積和演算結果をビット線BL1に流れる電流に加算することが特徴であり、上記のように電流が流れるよう抵抗変化素子RP、RNの抵抗値Rpi、Rni(電流値Ipi、Ini)を設定する。この演算ユニットPUiを図1Bに示すように入力x0〜xn(結合重み係数w0〜wn)の個数だけビット線BL0、BL1に並列接続することで、ニューロン10の正の積和演算結果をビット線BL0に流れる電流値として、負の積和演算結果をビット線BL1に流れる電流値として得ることができる。図8Aの式(3)、式(4)、式(5)に上述した動作の計算を示す。すなわち、演算ユニットPUiの抵抗変化素子RP、RNに対して結合重み係数wiに相当する抵抗値Rpi、Rniを適切に書き込むことで、ビット線BL0、BL1に各々正の積和演算結果、負の積和演算結果に対応した電流値を得ることが可能となる。
図8Aの式(5)において、活性化関数fはステップ関数(入力が負の値(<0)の場合は0データ出力、正の値(≧0)の場合は1データ出力)であるため、正の積和演算結果であるビット線BL0に流れる電流値が負の積和演算結果であるビット線BL1に流れる電流値より小さい場合、すなわち全ての積和演算結果が負の値の場合は0データを出力し、正の積和演算結果であるビット線BL0に流れる電流値が負の積和演算結果であるビット線BL1に流れる電流値より大きい場合、すなわち全ての積和演算結果が正の値の場合は1データを出力するようにビット線BL0、BL1に流れる電流値を検出、判定することで、ニューロン10のニューラルネットワーク演算が抵抗変化素子RP、RNを有する演算ユニットPUiを用いて可能となる。
図9A〜図9Dは、実施形態に係る演算ユニットの詳細動作を示す図である。図9Aは演算ユニットPUiの動作を示す図であり、図8Bと同一であるため詳細な説明は割愛する。以下、演算ユニットPUiにおける、入力xiと結合重み係数wiとの積和演算動作について説明する。
図9Bは、実施形態に係る演算ユニットPUiの入力xiに対するワード線WLiの状態を示す図である。入力xiは0データあるいは1データのいずれかの値を取り、入力xiが0データの場合、ワード線WLiは非選択状態とされ、入力xiが1データの場合、ワード線WLiは選択状態とされる。ワード線WLiはセルトランジスタT0、T1のゲート端子に接続されており、ワード線WLiが非選択状態の場合、セルトランジスタT0、T1は非活性化状態(遮断状態)となり、抵抗変化素子RP、RNの抵抗値Rpi、Rniに係わらずビット線BL0、BL1に電流が流れない。一方、ワード線WLiが選択状態の場合、セルトランジスタT0、T1は活性化状態(接続状態)となり、抵抗変化素子RP、RNの抵抗値Rpi、Rniに基づいてビット線BL0、BL1に電流が流れる。
図9Cは、実施形態に係る演算ユニットPUiの抵抗変化素子RP、RNの電流範囲、及び抵抗変化素子に書き込む電流値の計算を示す図である。抵抗変化素子RP、RNが流す電流値の取り得る範囲を最小値Iminから最大値Imaxとして説明する。ニューロンに入力される結合重み係数の絶対値|wi|が0〜1の範囲となるよう正規化を行い、正規化後の結合重み係数|wi|に比例した電流値(アナログ値)となるように抵抗変化素子に書き込む電流値を決定する。
結合重み係数wiが正の値(≧0)の場合、入力xi(0データあるいは1データ)と結合重み係数wi(≧0)との積和演算結果(≧0)を正の積和演算結果の電流が流れるビット線BL0に電流値として加算するために、ビット線BL0に接続される抵抗変化素子RPに対して、結合重み係数の絶対値|wi|に比例した電流値Imin+(Imax−Imin)×|wi|が流れる抵抗値Rpiの書き込みを行い、ビット線BL1に接続される抵抗変化素子RNに対して、電流値Imin(結合重み係数0相当)となる抵抗値Rniの書き込みを行う。
一方、結合重み係数wiが負の値(<0)の場合、入力xi(0データあるいは1データ)と結合重み係数wi(<0)との積和演算結果(<0)を負の積和演算結果の電流が流れるビット線BL1に電流値として加算するために、ビット線BL1に接続される抵抗変化素子RNに対して、結合重み係数の絶対値|wi|に比例した電流値Imin+(Imax−Imin)×|wi|が流れる抵抗値Rniの書き込みを行い、ビット線BL0に接続される抵抗変化素子RPに対して、電流値Imin(結合重み係数0相当)となる抵抗値Rpiの書き込みを行う。
上述のように抵抗変化素子RP、RNに書き込む抵抗値(電流値)を設定することで、ビット線BL0に流れる電流(正の積和演算結果に相当)と、ビット線BL1に流れる電流(負の積和演算結果に相当)との差分電流(Imax−Imin)×|wi|が入力と結合重み係数との積和演算結果に相当する電流値として得られる。結合重み係数の絶対値|wi|を0〜1の範囲となるよう正規化する方法の詳細は後述する。
図9Dは、実施形態に係る演算ユニットPUiの入力xiと結合重み係数wiとの積和演算動作を示す図である。
入力xiが0データの場合、結合重み係数wiの値に関係なく、積和演算結果xi×wiは0となる。入力xiが0データであるため、ワード線WLiは非選択状態となり、セルトランジスタT0、T1は非活性化状態(遮断状態)となるため、ビット線BL0、BL1に流れる電流値Ipi、Iniは0となる。すなわち、積和演算結果xi×wiが0であるため、正の積和演算結果に相当する電流が流れるビット線BL0、負の積和演算結果に相当する電流が流れるビット線BL1の双方に電流が流れない。
入力xiが1データ、結合重み係数wiが正の値(≧0)の場合、積和演算結果xi×wiは正の値(≧0)となる。入力xiが1データであるため、ワード線WLiは選択状態となり、セルトランジスタT0、T1は活性化状態(接続状態)となるため、抵抗変化素子RP、RNの抵抗値に基づいて、ビット線BL0、BL1に図9Cで説明した電流Ipi、Iniが流れる。ビット線BL0に流れる正の積和演算結果に相当する電流Ipiと、ビット線BL1に流れる負の積和演算結果に相当する電流Iniとの差分電流(Imax−Imin)×|wi|が入力xiと結合重み係数wiとの積和演算結果xi×wi(≧0)に相当する電流として、ビット線BL0にビット線BL1と比べて多く流れる。
入力xiが1データ、結合重み係数wiが負の値(<0)の場合、積和演算結果xi×wiは負の値(<0)となる。入力xiが1データであるため、ワード線WLiは選択状態となり、セルトランジスタT0、T1は活性化状態(接続状態)となるため、抵抗変化素子RP、RNの抵抗値に基づいて、ビット線BL0、BL1に図9Cで説明した電流Ipi、Iniが流れる。ビット線BL0に正の積和演算結果に相当する電流Ipiと、ビット線BL1に負の積和演算結果に相当する電流Iniとの差分電流(Imax−Imin)×|wi|が入力xiと結合重み係数wiとの積和演算結果xi×wi(≦0)に相当する電流として、ビット線BL1にビット線0と比べて多く流れる。
このように、入力xiと結合重み係数wiとの積和演算結果に相当する電流がビット線BL0、BL1に流れ、正の積和演算結果の場合はビット線BL0にビット線BL1と比べて多く流れ、負の積和演算結果の場合はビット線BL1にビット線BL0と比べて多く流れる。演算ユニットPUiを入力x0〜xn(結合重み係数w0〜wn)の個数だけビット線BL0、BL1に並列接続することで、ニューロン10の積和演算結果をビット線BL0に流れる電流と、ビット線BL1に流れる電流の差分電流として得ることができる。
ここで、ビット線BL0、BL1に接続される判定回路を用いて、ビット線BL0に流れる電流値がビット線BL1に流れる電流値より小さい場合、すなわち積和演算結果が負の値の場合に0データの出力データを出力し、ビット線BL0に流れる電流値がビット線BL1に流れる電流値より大きい場合、すなわち積和演算結果が正の値の場合に1データの出力データを出力するようにすると、判定回路がステップ関数の活性化関数の演算を行うことに相当し、積和演算と活性化関数の演算処理を行うニューラルネットワーク演算が可能となる。
<不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路の第1の実施形態>
前述にて本発明の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路の動作原理について説明した。以下では具体的な実施形態について説明する。
図10Aは、第1の実施形態に係るニューラルネットワーク演算の構成を示す図であり、図10Bは、第1の実施形態に係るニューラルネットワーク演算の結合重み係数の値を示す図である。図10Aに示す通り、ニューロン10は4つの入力x0〜x3と対応する結合重み係数w0〜w3を有しており、ニューロン10が行う演算を図10Aの式(1)に示す。ニューロン10の活性化関数fはステップ関数である。
図10Bに示す通り、ニューロン10が有する結合重み係数はw0=+0.6、w1=−0.9、w2=−1.2、w3=+1.5である。以下、図10A及び図10Bに示すニューロン10の演算動作を行う不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路について説明する。
図11は、第1の実施形態に係るニューラルネットワーク演算回路の詳細構成を示す図である。図11において、図1Bの構成要件と同一のものは同一の符号、番号を付与しており、その詳細な説明は割愛する。第1の実施形態のニューラルネットワーク演算回路は4入力、1出力のニューロンであり、結合重み係数w0〜w3を格納する4つの演算ユニットPU0〜PU3、及び入力x0〜x3に対応する4本のワード線WL0〜WL3、抵抗変化素子RPとセルトランジスタT0が接続されるビット線BL0、ソース線SL0、抵抗変化素子RNとセルトランジスタT1が接続されるビット線BL1、ソース線SL1を備えている。
ニューラルネットワーク演算動作を行う場合、入力x0〜x3に応じてワード線WL0〜WL3を各々選択状態、非選択状態とし、演算ユニットPU0〜PU3のセルトランジスタT0、T1を選択状態、非選択状態とする。ビット線BL0、BL1はカラムゲートYT0、YT1を介して判定回路50からビット線電圧が供給され、ソース線SL0、SL1はディスチャージトランジスタDT0、DT1を介して接地電圧に接続される。これにより、ビット線BL0に正の積和演算結果に相当する電流が流れ、ビット線BL1に負の積和演算結果に相当する電流が流れる。判定回路50はビット線BL0、BL1に流れる電流の大小関係を検知、判定することで出力yを出力する。すなわち、ニューロン10の積和演算結果が負の値(<0)の場合は0データを出力し、正の値(≧0)の場合は1データを出力する。判定回路50は積和演算結果を入力とした活性化関数f(ステップ関数)の演算結果を出力する。
図12A及び図12Bは、第1の実施形態に係る演算ユニットPU0〜PU3の抵抗変化素子RP、RNの電流範囲、及び抵抗変化素子RP、RNに書き込む電流値(抵抗値)を示す図である。図12Aに示す通り、第1の実施形態では抵抗変化素子RP、RNが流す電流値の取り得る範囲は0uAから50uAとする。すなわち、電流値の最小値Iminは0uA、電流値の最大値Imaxは50uAであり、50uAの電流範囲(ダイナミックレンジ)を使用する。
図12Bに示す通り、始めに結合重み係数w0〜w3を0〜1の範囲となるよう正規化を行う。本実施形態では、結合重み係数w0〜w3の絶対値が最大のものはw3=+1.5であり、この結合重み係数の正規化後の値をw3=+1.0とする。この正規化により残りの結合重み係数の正規化後の値はw0=+0.4、w1=−0.6、w2=−0.8となる。
次に、図12Aに示す通り、正規化された結合重み係数を用いて演算ユニットPU0〜PU3の抵抗変化素子RP、RNに書き込む電流値を決定する。図12Bに抵抗変化素子RP、RNに書き込む電流値の計算結果を示す。結合重み係数w0の正規化後の値は+0.4と正の値のため、抵抗変化素子RPに書き込む電流値は20uA、抵抗変化素子RNに書き込む電流値は0uAとなる。結合重み係数w1の正規化後の値は−0.6と負の値のため、抵抗変化素子RPに書き込む電流値は0uA、抵抗変化素子RNに書き込む電流値は30uAとなる。結合重み係数w2の正規化後の値は−0.8と負の値のため、抵抗変化素子RPに書き込む電流値は0uA、抵抗変化素子RNに書き込む電流値は40uAとなる。結合重み係数w3の正規化後の値は+1.0と正の値のため、抵抗変化素子RPに書き込む電流値は50uA、抵抗変化素子RNに書き込む電流値は0uAとなる。このように演算ユニットPU0〜PU3の抵抗変化素子RP、RNに電流値(抵抗値)を書き込むことで、ニューラルネットワーク演算を行うことが可能となる。
更に第1の実施形態において、電流印加回路を使用することで、抵抗変化素子RP、RNの書き換えを行うことなく、結合重み係数を調整したニューラルネットワーク演算を行う方法について説明する。
例えば、結合重み係数w0を+0.9にした場合のニューラルネットワーク演算を行うためには、図10Aに示すように結合重み係数w0に結合重み係数αを追加する。図10Bに示すように結合重み係数w0は+0.6のため、結合重み係数αは+0.3となる。この時に、ニューロン10が行う演算を図10Aの式(2)に示す。
次に、図12Aに示す通り、抵抗変化素子RP、RNと同様に、正規化された結合重み係数を用いて電流印加回路の印加電流値を決定する。図12Bに電流印加回路の印加電流値の計算結果を示す。入力x0が入力されワード線WL0が選択状態の場合、結合重み係数αの正規化後の値は+0.2と正の値のため、電流印加回路はBL0側に電流値10uAを印加する。
このように電流印加回路を使用することで、抵抗変化素子RP、RNの書き換えを行うことなく、結合重み係数を調整したニューラルネットワーク演算を行うことが可能となる。
<不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路の第2の実施形態>
図13A〜図13Dは、第2の実施形態に係るニューラルネットワーク回路の構成、真理値表、結合重み係数の値、及び入力層、隠れ層、出力層の演算動作を示す図である。
図13Aは、第2の実施形態に係るニューラルネットワーク回路の構成を示す図である。第2の実施形態のニューラルネットワーク回路は入力層1、隠れ層2、出力層3を有した多層ニューラルネットワーク回路である。
入力層1は3つの入力x0〜x2を有しており、入力x0は常時1データの入力であり、前述の図4で示した通り、入力x0とその結合重み係数で隠れ層2のバイアス係数の演算を行うものである。2つの入力x1、x2が外部から入力データとして入力される。
隠れ層2は1つの入力y0と3つのニューロンy1〜y3を有しており、入力y0は常時1データの入力であり、前述の図4で示した通り、入力y0とその結合重み係数で出力層3のバイアス係数の演算を行うものである。3つのニューロンy1〜y3は各々入力層1から3つの入力x0〜x2とその結合重み係数を受けて出力y1〜y3を出力する。
出力層3は2つのニューロンz1、z2を有しており、隠れ層2から4つの入力y0〜y3とその結合重み係数を受けて出力z1、z2を出力する。
ニューロンy1〜y3、z1、z2のニューラルネットワーク演算の計算を図13Aの式(1)と式(2)に示す。ここで、結合重み係数wik_yは隠れ層2のニューロンy1〜y3の計算で使用される結合重み係数、結合重み係数wik_zは出力層3の計算で使用される結合重み係数であり、活性化関数fはステップ関数である。
図13Bは、第2の実施形態に係るニューラルネットワーク回路の真理値表を示す図である。2つの入力のx1、x2、出力z1、z2は0データあるいは1データの値を取り、出力z1は入力x1、x2が共に1データの場合のみ1データを出力し、その他の場合は0データを出力する。また出力z2は入力x1、x2が共に1データの場合のみ0データを出力し、その他の場合は1データを出力する。すなわち、第2の実施形態に係るニューラルネットワーク回路は出力z1が入力x1、x2のAND論理を出力し、出力z2が入力x1、x2のNAND論理を出力する回路である。
図13Cは、第2の実施形態に係るニューラルネットワーク回路の結合重み係数を示す図である。隠れ層2のニューロンy1〜y3は各々3つの入力x0〜x2に対応した3つの結合重み係数を有している。また、出力層3のニューロンz1、z2は各々4つの入力y0〜y3に対応した4つの結合重み係数を有している。
図13Dは、第2の実施形態に係るニューラルネットワーク回路の入力層、隠れ層、出力層の演算動作を示す図である。入力層1の入力の組み合わせは4通りである。隠れ層2における入力層1からの入力x0〜x2を受けたニューロンy1〜y3の積和演算結果と積和演算結果を入力とした活性化関数(ステップ関数)の出力結果、及び出力層3における隠れ層2からの入力y0〜y3を受けたニューロンz1、z2の積和演算結果と積和演算結果を入力とした活性化関数(ステップ関数)の出力結果は図13Dの通りであり、図13Bの真理値表に示す通り、出力z1は入力x1、x2のAND論理が出力され、出力z2は入力x1、x2のNAND論理が出力される。
図14A及び図14Bは、第2の実施形態に係るニューラルネットワーク演算回路の演算ユニットの抵抗変化素子の電流範囲、及び抵抗変化素子に書き込む電流値を示す図である。図14Aに示す通り、第1の実施形態と同様、第2の実施形態では抵抗変化素子RP、RNが流す電流値の取り得る範囲は0uAから50uAとする。すなわち、電流値の最小値Iminは0uA、電流値の最大値Imaxは50uAであり、50uAの電流範囲(ダイナミックレンジ)を使用する。
図14Bは、隠れ層2のニューロンy1〜y3、出力層3のニューロンz1、z2のニューラルネットワーク演算に使用する結合重み係数を演算ユニットの抵抗変化素子RP、RNに書き込む電流値を示す図である。始めに結合重み係数を0〜1の範囲に正規化された結合重み係数を算出し、正規化後の結合重み係数から抵抗変化素子RP、RNに書き込む電流値を決定する。結合重み係数の正規化はニューロン毎に実施する。
隠れ層2のニューロンy1の結合重み係数w10_y=+0.8、w11_y=−0.6、w12_y=−0.4を抵抗変化素子RP、RNに書き込む電流値を計算する方法を説明する。3つの結合重み係数を各々3つの演算ユニットの抵抗変化素子RP、RNに抵抗値(電流値)として書き込む。結合重み係数の正規化を行うにあたり、結合重み係数w10_y、w11_y、w12_yの絶対値が最大のものはw10_y=+0.8であり、この結合重み係数の正規化後の値をw10_y=+1.0とする。この正規化により残りの結合重み係数の正規化後の値はw11_y=−0.75、w12_y=−0.5となる。
次に、図14Aに示す通り、正規化された結合重み係数を用いて、演算ユニットの抵抗変化素子RP、RNに書き込む電流値を決定する。図14Bに抵抗変化素子RP、RNに書き込む電流値の計算結果を示す。結合重み係数w10_yの正規化後の値は+1.0と正の値のため、抵抗変化素子RPに書き込む電流値は50uA、抵抗変化素子RNに書き込む電流値は0uAとなる。結合重み係数w11_yの正規化後の値は−0.75と負の値のため、抵抗変化素子RPに書き込む電流値は0uA、抵抗変化素子RNに書き込む電流値は37.5uAとなる。結合重み係数w12_yの正規化後の値は−0.5と負の値のため、抵抗変化素子RPに書き込む電流値は0uA、抵抗変化素子RNに書き込む電流値は25uAとなる。同様に、隠れ層2のニューロンy2、y3、出力層3のニューロンz1に対して演算ユニットの抵抗変化素子RP、RNに書き込む電流値を計算した結果を図14Bに示す。
ニューラルネットワーク回路の演算動作は、メモリセルアレイに配置される複数の演算ユニットの抵抗変化素子RP、RNに対して図14Bに示す電流値(抵抗値)を書き込み、始めに入力層1の入力データを入力とし、隠れ層2の演算に必要な結合重み係数が格納された演算ユニットを選択してビット線に流れる電流を検知、判定することで、隠れ層2の出力データを決定する。次に隠れ層2の出力データと入力として、出力層3の演算に必要な結合重み係数が格納された演算ユニットを選択してビット線に流れる電流を検知、判定することで、出力層3の出力データを決定する。このように動作させることで、多層ニューラルネットワーク演算を行うことが可能となる。
図15A〜図15Cに、第2の実施形態に係るニューラルネットワーク回路において、電流印加回路を使用することで、結合重み係数の書き込み誤差をキャンセルする方法を示す。図15Aは、出力層の結合重み係数を示す図である。結合重み係数w20_zは理想値が−0.2に対し、書き込み結果は+0.1となっている。また結合重み係数w22_zは理想値が−0.3に対し、書き込み結果は−0.8となっている。
図15Cは、第2の実施形態に係る出力層のニューラルネットワーク演算回路の詳細構成を示す図である。図15Cにおいて、図1Bの構成要件と同一のものは同一の符号、番号を付与しており、その詳細な説明は割愛する。第2の実施形態の出力層のニューラルネットワーク演算回路は4入力、2出力のニューロンであり、結合重み係数w10_z〜w13_zを格納する4つの演算ユニットPU10〜PU13、結合重み係数w20_z〜w23_zを格納する4つの演算ユニットPU20〜PU23、及び入力y0〜y3に対応する4本のワード線WL0〜WL3、抵抗変化素子RPとセルトランジスタT0が接続されるビット線BL0、ソース線SL0、抵抗変化素子RNとセルトランジスタT1が接続されるビット線BL1、ソース線SL1、抵抗変化素子RPとセルトランジスタT2が接続されるビット線BL2、ソース線SL2、抵抗変化素子RNとセルトランジスタT3が接続されるビット線BL3、ソース線SL3を備えている。またビット線BL0、ビット線BL1には電流印加回路100が接続され、ビット線BL2、ビット線BL3にも電流印加回路100が接続される。
ニューラルネットワーク演算動作を行う場合、入力y0〜y3に応じてワード線WL0〜WL3を各々選択状態、非選択状態とし、演算ユニットPU10〜PU13、PU20〜PU23のセルトランジスタT0、T1、T2、T3を選択状態、非選択状態とする。ビット線BL0、BL1、BL2、BL3はカラムゲートYT0、YT1、YT2、YT3を介して判定回路50からビット線電圧が供給され、ソース線SL0、SL1、SL2、SL3はディスチャージトランジスタDT0、DT1、DT2、DT3を介して接地電圧に接続される。これにより、ビット線BL0に出力z0に対応する正の積和演算結果に相当する電流が流れ、ビット線BL1に出力z0に対応する負の積和演算結果に相当する電流が流れる。また、ビット線BL2に出力z1に対応する正の積和演算結果に相当する電流が流れ、ビット線BL3に出力z1に対応する負の積和演算結果に相当する電流が流れる。判定回路50はビット線BL0、BL1に流れる電流の大小関係を検知、判定することで出力z0を出力する。また判定回路50はビット線BL2、BL3に流れる電流の大小関係を検知、判定することで出力z1を出力する。すなわち、積和演算結果が負の値(<0)の場合は0データを出力し、正の値(≧0)の場合は1データを出力する。判定回路50は積和演算結果を入力とした活性化関数f(ステップ関数)の演算結果を出力する。しかし、本発明の第2の実施形態に係るニューラルネットワーク演算のように、2つの出力z0、z1のどちらか一方が1データを出力するニューラルネットワーク演算においても、結合重み係数の書き込み誤差や判定回路の誤差等により、両方が1データを出力する場合や、両方が0データを出力する場合がある。両方が1データを出力する場合には、ビット線BL1、BL3に各々の電流印加回路100から電流を印加することで、判定回路に印加される電流の大小関係が小さい判定回路の出力を1データから0データに変更することが可能であり、両方が0データを出力する場合には、ビット線BL0、BL2に各々の電流印加回路100から電流を印加することで、判定回路に印加される電流の大小関係が小さい判定回路の出力を0データから1データに変更することが可能である。
図15Bは、第2の実施形態に係る出力層のニューラルネットワーク演算結果を示す図である。理想値でのニューラルネットワーク演算では出力z1は入力x1、x2のAND論理が出力され、出力z2は入力x1、x2のNAND論理が出力されるが、図15Aに示すように結合重み係数の書き込み結果に誤差がある場合は、出力z1、z2の両方が1データを出力する場合や、出力z1、z2の両方が0データを出力する場合がある。出力z1、z2の両方が1データを出力する場合にはビット線BL1、BL3に結合重み係数αとして−0.5に相当する電流を印加し、出力z1、z2の両方が0データを出力する場合にはビット線BL0、BL2に結合重み係数αとして+0.5に相当する電流を印加することで、結合重み係数の書き込み結果に誤差がある場合にも、出力z1は入力x1、x2のAND論理が出力され、出力z2は入力x1、x2のNAND論理が出力されるニューラルネットワーク演算回路を構成することが可能である。
<結言>
以上のように、本発明の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路は、不揮発性半導体記憶素子に流れる電流値を用いてニューラルネットワーク回路の積和演算動作を行う。これにより、従来のデジタル回路で構成される大容量のメモリ回路やレジスタ回路、大規模な乗算回路や累積回路(アキュムレータ回路)、及び複雑な制御回路を搭載することなく、積和演算動作を行うことが可能となるため、ニューラルネットワーク演算回路の低消費電力化、及び半導体集積回路のチップ面積縮小化が可能となる。また、ニューロンの入力データと出力データが0データ、あるいは1データの2値のデジタルデータを取り得るニューラルネットワーク回路であるため、ニューロン間の情報伝達をデジタル伝送することが可能となり、複数のニューロンを用いた大規模なニューラルネットワーク回路の実装が容易となり、大規模なニューラルネットワーク回路の半導体集積化が可能となる。すなわち、本発明の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路は、低消費電力化と大規模集積化を実現することが可能である。
以上、本発明の実施形態を説明してきたが、本発明の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路は、上述の例示にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更等を加えたものに対しても有効である。
例えば、上記実施形態の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路は、抵抗変化型不揮発性メモリ(ReRAM)の例であったが、本発明は、磁気抵抗型不揮発性メモリ(MRAM)、相変化型不揮発性メモリ(PRAM)、強誘電体型不揮発性メモリ(FeRAM)等、抵抗変化型メモリ以外の不揮発性半導体記憶素子でも適用可能である。
本発明に係る不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路は、不揮発性半導体記憶素子を用いて積和演算動作を行う構成のため、従来のデジタル回路を用いた乗算回路や累積回路(アキュムレータ回路)等を搭載することなく、積和演算動作を行うことが可能である。また、入力データと出力データを2値のデジタル化することで大規模なニューラルネットワーク回路を容易に集積化することが可能である。
従って、ニューラルネットワーク演算回路の低消費電力化と大規模集積化を実現することができるという効果を有し、例えば、自らが学習と判断を行う人工知能(AI:Artificial Intelligence)技術を搭載した半導体集積回路、及びそれらを搭載した電子機器等に対して有用である。
1 入力層
2 隠れ層
3 出力層
10 ニューロン
11 結合重み
20 メモリセルアレイ
30 ワード線選択回路
40 カラムゲート
50 判定回路
60 書き込み回路
70 制御回路
80 半導体基板
81a、81b 拡散領域
82 酸化膜
83 ゲート電極(ワード線)
84a、84b、86、88、92 ビア
85a、85b 第1配線層
87 第2配線層
89 下部電極
90 抵抗変化層
91 上部電極
93 第3配線層
100 電流印加回路
110、111 電流源
120、121 電流発生回路
x0〜xn 入力
w0〜wn、wαp〜wαn 結合重み係数
b バイアス係数
f 活性化関数
y 出力
PU0〜PUn、PU10〜PU13、PU20〜PU23 演算ユニット
PUαp、PUαn 電流印加ユニット
MC メモリセル
T0、T1 セルトランジスタ
RP、RN 抵抗変化素子
Rw、Rw0、Rw1、Rw2 抵抗素子(固定抵抗素子あるいは抵抗変化素子)
YT0、YT1、YT2、YT3 カラムゲートトランジスタ
YTp、YTn スイッチトランジスタ
ST0、ST1、ST2 選択トランジスタ
WT、WT0、WT1、WT2 ロードトランジスタ
DT0、DT1、DT2、DT3、DTα ディスチャージトランジスタ
WL0〜WLn、WLαp、WLαn ワード線
BL0〜BLm ビット線
SL0〜SLm ソース線
YG カラムゲート選択信号
DIS ディスチャージ制御信号
Vbl ビット線電圧
Rpi、Rni 抵抗変化素子の抵抗値
Ipi、Ini 抵抗変化素子に流れる電流値

Claims (22)

  1. 第1の論理値、あるいは第2の論理値のデータを取り得る複数の入力データと、
    前記複数の入力データに各々対応する複数の結合重み係数と、
    前記複数の入力データと、対応する前記結合重み係数との積和演算結果に応じて第1の論理値、あるいは第2の論理値の出力データを出力するニューラルネットワーク演算回路であって、
    複数のワード線と、
    第1のデータ線と、
    第2のデータ線と、
    第3のデータ線と、
    第4のデータ線と、
    第1の不揮発性半導体記憶素子と第1のセルトランジスタとの直列接続で構成され、前記第1の不揮発性半導体記憶素子の一端が前記第1のデータ線に、前記第1のセルトランジスタの一端が前記第2のデータ線に、前記第1のセルトランジスタのゲートが前記ワード線に接続され、且つ、第2の不揮発性半導体記憶素子と第2のセルトランジスタとの直列接続で構成され、前記第2の不揮発性半導体記憶素子の一端が前記第3のデータ線に、前記第2のセルトランジスタの一端が前記第4のデータ線に、前記第2のセルトランジスタのゲートが前記ワード線に接続される複数の演算ユニットと、
    前記複数のワード線を選択状態あるいは非選択状態とするワード線選択回路と、
    前記第1のデータ線と前記第3のデータ線に生じる電圧値あるいは電流値の大小関係を判定して第1の論理値、あるいは第2の論理値のデータを出力する判定回路に接続され、
    前記第2のデータ線と前記第4のデータ線は接地電位に接続され、前記第1のデータ線あるいは前記第3のデータ線の少なくとも1本に接続された電流印加回路とを備え、
    または、前記第2のデータ線と前記第4のデータ線に生じる電圧値あるいは電流値の大小関係を判定して第1の論理値、あるいは第2の論理値のデータを出力する判定回路に接続され、前記第1のデータ線と前記第3のデータ線は接地電位に接続され、前記第2のデータ線あるいは前記第4のデータ線の少なくとも1本に接続された電流印加回路とを備え、
    前記複数の演算ユニットの前記第1の不揮発性半導体記憶素子と前記第2の不揮発性半導体記憶素子に複数の結合重み係数を格納し、
    前記第1のデータ線、あるいは前記第2のデータ線、あるいは前記第3のデータ線、あるいは前記第4のデータ線の任意の1本に前記電流印加回路から電流を印加することで、任意の結合重み係数を調整する機能を持ち、
    前記ワード線選択回路が、前記複数の入力データに応じて前記複数のワード線を選択状態あるいは非選択状態とし、
    前記判定回路が出力データを出力する、
    不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路。
  2. 前記電流印加回路は、
    第1の電流源の入力が、第1のスイッチトランジスタを介して、前記第1のデータ線あるいは前記第2のデータ線、又は第2のスイッチトランジスタを介して、前記第3のデータ線あるいは前記第4のデータ線の、少なくともどちらか片方に接続される
    請求項1記載の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路。
  3. 前記電流印加回路は、
    第2の電流源の入力が第1のスイッチトランジスタを介して、前記第1のデータ線あるいは前記第2のデータ線に接続され、
    第3の電流源の入力が第2のスイッチトランジスタを介して、前記第3のデータ線あるいは前記第4のデータ線に接続される
    請求項1記載の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路。
  4. 前記電流印加回路は、
    第1の電流発生回路の一端が第1のスイッチトランジスタを介して、前記第1のデータ線あるいは前記第2のデータ線、又は第2のスイッチトランジスタを介して、前記第3のデータ線あるいは前記第4のデータ線の、少なくともどちらか片方に接続され、
    前記第1の電流発生回路のもう一端は接地電位に接続される
    請求項1記載の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路。
  5. 前記電流印加回路は、
    第2の電流発生回路の一端が第1のスイッチトランジスタを介して、前記第1のデータ線あるいは前記第2のデータ線に接続され、前記第2の電流発生回路のもう一端は接地電位に接続され、
    第3の電流発生回路の一旦が第2のスイッチトランジスタを介して、前記第3のデータ線あるいは前記第4のデータ線に接続され、前記第3の電流発生回路のもう一端は接地電位に接続される
    請求項1記載の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路。
  6. 前記第1の電流発生回路は、第1の抵抗素子で構成され、
    前記第1の抵抗素子の一端が前記第1の電流発生回路の一端に接続され、
    前記第1の抵抗素子のもう一端が接地電位に接続される
    請求項4記載の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路。
  7. 前記第1の電流発生回路は、第1のロードトランジスタで構成され、
    前記第1のロードトランジスタの一端が前記第1の電流発生回路の一端に接続され、
    前記第1のロードトランジスタのもう一端が接地電位に接続され、
    前記第1のロードトランジスタのゲートが第1のロードゲート線に接続された
    請求項4記載の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路。
  8. 前記第1の電流発生回路は、
    第1の抵抗素子と第1の選択トランジスタとの直列接続の構成が、少なくとも1つ以上並列に接続され、
    前記第1の抵抗素子の一端が前記第1の電流発生回路の一端に接続され、
    前記第1の選択トランジスタの一端が接地電位に接続され、
    前記第1の選択トランジスタのゲートが第1の選択ゲート線に接続された
    請求項4記載の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路。
  9. 前記第1の電流発生回路は、
    第1のロードトランジスタと第1の選択トランジスタとの直列接続の構成が、少なくとも1つ以上並列に接続され、
    前記第1のロードトランジスタの一端が前記第1の電流発生回路の一端に接続され、
    前記第1の選択トランジスタの一端が接地電位に接続され、
    前記第1のロードトランジスタのゲートが第1のロードゲート線に接続され、
    前記第1の選択トランジスタのゲートが第1の選択ゲート線に接続された
    請求項4記載の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路。
  10. 前記第2、第3の電流発生回路は、第1の抵抗素子と第2の抵抗素子で構成され、
    前記第1の抵抗素子の一端が前記第2の電流発生回路の一端に接続され、
    前記第2の抵抗素子の一端が前記第3の電流発生回路の一端に接続され、
    前記第1の抵抗素子と前記第2の抵抗素子のもう一端が接地電位に接続される
    請求項5記載の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路。
  11. 前記第2、第3の電流発生回路は、第1のロードトランジスタと第2のロードトランジスタで構成され、
    前記第1のロードトランジスタの一端が前記第2の電流発生回路の一端に接続され、
    前記第2のロードトランジスタの一端が前記第3の電流発生回路の一端に接続され、
    前記第1のロードトランジスタと前記第2のロードトランジスタのもう一端が接地電位に接続され、
    前記第1のロードトランジスタのゲートが第1のロードゲート線に接続され、
    前記第2のロードトランジスタのゲートが第2のロードゲート線に接続された
    請求項5記載の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路。
  12. 前記第2、第3の電流発生回路は、
    第1の抵抗素子と第1の選択トランジスタとの直列接続の構成が、少なくとも1つ以上並列に接続され、
    前記第1の抵抗素子の一端が前記第2の電流発生回路の一端に接続され、
    前記第1の選択トランジスタの一端が接地電位に接続され、
    第2の抵抗素子と第2の選択トランジスタとの直列接続の構成が、少なくとも1つ以上並列に接続され、
    前記第2の抵抗素子の一端が前記第3の電流発生回路の一旦に接続され、
    前記第2の選択トランジスタの一端が接地電位に接続され、
    前記第1の選択トランジスタのゲートが第1の選択ゲート線に接続され、
    前記第2の選択トランジスタのゲートが第2の選択ゲート線に接続された
    請求項5記載の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路。
  13. 前記第2、第3の電流発生回路は、
    第1のロードトランジスタと第1の選択トランジスタとの直列接続の構成が、少なくとも1つ以上並列に接続され、
    前記第1のロードトランジスタの一端が前記第2の電流発生回路の一端に接続され、
    前記第1の選択トランジスタの一端が接地電位に接続され、
    第2のロードトランジスタと第2の選択トランジスタとの直列接続の構成が、少なくとも1つ以上並列に接続され、
    前記第2のロードトランジスタの一端が前記第3の電流発生回路の一旦に接続され、
    前記第2の選択トランジスタの一端が接地電位に接続され、
    前記第1のロードトランジスタのゲートが第1のロードゲート線に接続され、
    前記第2のロードトランジスタのゲートが第2のロードゲート線に接続され、
    前記第1の選択トランジスタのゲートが第1の選択ゲート線に接続され、
    前記第2の選択トランジスタのゲートが第2の選択ゲート線に接続された
    請求項5記載の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路。
  14. 前記電流印加回路は、
    第3の抵抗素子と第3のセルトランジスタとの直列接続で構成され、第3の抵抗素子の一端が前記第1のデータ線に、前記第3のセルトランジスタの一端が前記第2のデータ線に、前記第3のセルトランジスタのゲートが前記ワード線に接続され、且つ、第4の抵抗素子と第4のセルトランジスタとの直列接続で構成され、前記第4の抵抗素子の一端が前記第3のデータ線に、前記第4のセルトランジスタの一端が前記第4のデータ線に、前記第4のセルトランジスタのゲートが前記ワード線に接続される少なくとも1つ以上の電流印加ユニットで構成される
    請求項1記載の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路。
  15. 前記第1、第2の抵抗素子は、
    固定抵抗素子、あるいは第3の不揮発性半導体記憶素子で構成される
    請求項6、請求項8、請求項10、又は請求項12記載の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路。
  16. 前記第3の抵抗素子、前記第4の抵抗素子は、
    固定抵抗素子、あるいは第3の不揮発性半導体記憶素子で構成される
    請求項14記載の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路。
  17. 前記複数の演算ユニットの前記第1の不揮発性半導体記憶素子と前記第2の不揮発性半導体記憶素子への前記複数の結合重み係数の格納において、
    前記結合重み係数が正の値の場合、前記第1の不揮発性半導体記憶素子に流れる電流値が前記結合重み係数の値に比例した電流値となるように、前記第1の不揮発性半導体記憶素子に書き込みを行い、
    前記結合重み係数が負の値の場合、前記第2の不揮発性半導体記憶素子に流れる電流値が前記結合重み係数の値に比例した電流値となるように、前記第2の不揮発性半導体記憶素子に書き込みを行う、
    請求項1記載の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路。
  18. 前記複数の演算ユニットの前記第1の不揮発性半導体記憶素子と前記第2の不揮発性半導体記憶素子への前記複数の結合重み係数の格納において、
    前記結合重み係数が正の値の場合、前記第1の不揮発性半導体記憶素子に流れる電流値が前記第2の不揮発性半導体記憶素子に流れる電流値よりも大きくなり、且つその電流差が前記結合重み係数の値に比例した電流値となるように、前記第1の不揮発性半導体記憶素子と前記第2の不揮発性半導体記憶素子に書き込みを行い、
    前記結合重み係数が負の値の場合、前記第2の不揮発性半導体記憶素子に流れる電流値が前記第1の不揮発性半導体記憶素子に流れる電流値よりも大きくなり、且つその電流差が前記結合重み係数の値に比例した電流値となるように、前記第1の不揮発性半導体記憶素子と前記第2の不揮発性半導体記憶素子に書き込みを行う、
    請求項1記載の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路。
  19. 前記ワード線選択回路は、
    前記入力データが第1の論理値の場合、対応するワード線を非選択状態とし、
    前記入力データが第2の論理値の場合、対応するワード線を選択状態とする、
    請求項1記載の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路。
  20. 前記第1のデータ線あるいは前記第2のデータ線に、結合重み係数が正の値である複数の入力データと、対応する正の値の結合重み係数との積和演算結果に対応した電流値が流れ、
    前記第3のデータ線あるいは前記第4のデータ線に、結合重み係数が負の値である複数の入力データと、対応する負の値の結合重み係数との積和演算結果に対応した電流値が流れる、
    請求項1記載の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路。
  21. 前記判定回路は、
    前記第1のデータ線あるいは前記第2のデータ線に流れる電流値が前記第3のデータ線あるいは前記第4のデータ線に流れる電流値よりも小さい場合、第1の論理値を出力し、
    前記第1のデータ線あるいは前記第2のデータ線に流れる電流値が前記第3のデータ線あるいは前記第4のデータ線に流れる電流値よりも大きい場合、第2の論理値を出力する、
    請求項1記載の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路。
  22. 前記電流印加回路を前記第1のデータ線あるいは前記第2のデータ線に接続し、電流を印加した場合には、
    前記第1のデータ線あるいは前記第2のデータ線に、結合重み係数が正の値である複数の入力データと、対応する正の値の結合重み係数との積和演算結果に対応した電流値と、前記電流印加回路で印加した電流値との和が流れ、
    前記電流印加回路を前記第3のデータ線あるいは前記第4のデータ線に接続し、電流を印加した場合には、
    前記第3のデータ線あるいは前記第4のデータ線に、結合重み係数が負の値である複数の入力データと、対応する負の値の結合重み係数との積和演算結果に対応した電流値と、前記電流印加回路で印加した電流値との和が流れる
    請求項1記載の不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路。
JP2019540951A 2017-09-07 2018-09-03 不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路 Active JP6956191B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017171952 2017-09-07
JP2017171952 2017-09-07
PCT/JP2018/032676 WO2019049842A1 (ja) 2017-09-07 2018-09-03 不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路

Publications (2)

Publication Number Publication Date
JPWO2019049842A1 JPWO2019049842A1 (ja) 2020-08-06
JP6956191B2 true JP6956191B2 (ja) 2021-11-02

Family

ID=65633993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019540951A Active JP6956191B2 (ja) 2017-09-07 2018-09-03 不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路

Country Status (4)

Country Link
US (1) US11615299B2 (ja)
JP (1) JP6956191B2 (ja)
CN (1) CN111052154B (ja)
WO (1) WO2019049842A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11347999B2 (en) 2019-05-22 2022-05-31 International Business Machines Corporation Closed loop programming of phase-change memory
US11663455B2 (en) * 2020-02-12 2023-05-30 Ememory Technology Inc. Resistive random-access memory cell and associated cell array structure
JP7356393B2 (ja) 2020-04-10 2023-10-04 ルネサスエレクトロニクス株式会社 半導体装置
CN111681696B (zh) * 2020-05-28 2022-07-08 中国科学院微电子研究所 基于非易失存储器的存储和数据处理方法、装置及设备
CN111782580B (zh) * 2020-06-30 2024-03-01 北京百度网讯科技有限公司 复杂计算装置、方法、人工智能芯片和电子设备
CN111833888B (zh) * 2020-07-24 2022-11-11 清华大学 一种语音关键词识别的近传感器处理系统、电路及方法
TWI734604B (zh) * 2020-09-03 2021-07-21 旺宏電子股份有限公司 三維nand人工智慧加速器之辨識方法與控制電路
WO2022230674A1 (ja) * 2021-04-28 2022-11-03 国立大学法人東北大学 演算処理装置
US20230326499A1 (en) * 2022-04-12 2023-10-12 Stmicroelectronics S.R.L. Signed and binary weighted computation for an in-memory computation system
CN115148845B (zh) * 2022-09-05 2023-06-27 浙江大学杭州国际科创中心 一种感光神经元晶体管及其制备方法、使用方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5155802A (en) * 1987-12-03 1992-10-13 Trustees Of The Univ. Of Penna. General purpose neural computer
JPH02161556A (ja) 1988-12-14 1990-06-21 Sumitomo Electric Ind Ltd ニューラルネットワークシステム
US5087826A (en) * 1990-12-28 1992-02-11 Intel Corporation Multi-layer neural network employing multiplexed output neurons
JPH05264645A (ja) * 1992-03-19 1993-10-12 Hitachi Ltd 絶縁物の劣化推定法
US5264734A (en) * 1992-05-19 1993-11-23 Intel Corporation Difference calculating neural network utilizing switched capacitors
US5256911A (en) * 1992-06-10 1993-10-26 Intel Corporation Neural network with multiplexed snyaptic processing
JPH06259585A (ja) 1993-03-10 1994-09-16 Toyota Central Res & Dev Lab Inc ニューラルネットワーク装置
JP2001188767A (ja) 1999-12-28 2001-07-10 Fuji Xerox Co Ltd ニューラルネットワーク演算装置及びニューラルネットワークの演算方法
US6501256B1 (en) * 2001-06-29 2002-12-31 Intel Corporation Trimmable bandgap voltage reference
KR100400317B1 (ko) * 2001-06-30 2003-10-01 주식회사 하이닉스반도체 클럭 동기 장치의 지연 회로
WO2004100266A1 (ja) * 2003-05-09 2004-11-18 Matsushita Electric Industrial Co., Ltd. 不揮発性メモリおよびその製造方法
US7302513B2 (en) * 2006-04-03 2007-11-27 Blaise Laurent Mouttet Programmable crossbar signal processor
JP5160304B2 (ja) 2008-05-22 2013-03-13 シャープ株式会社 抵抗変化型可変抵抗素子を備えた積演算装置、及び積和演算装置、これらの装置を各ニューロン素子に備えるニューラルネットワーク、並びに積演算方法
US8018758B2 (en) * 2009-07-06 2011-09-13 Magic Technologies, Inc. Gate drive voltage boost schemes for memory array
US8467226B2 (en) * 2011-01-14 2013-06-18 Micron Technology, Inc. Programming an array of resistance random access memory cells using unipolar pulses
WO2012105164A1 (ja) * 2011-02-01 2012-08-09 パナソニック株式会社 不揮発性半導体記憶装置
KR101888468B1 (ko) * 2011-06-08 2018-08-16 삼성전자주식회사 Stdp 기능 셀을 위한 시냅스, stdp 기능 셀 및 stdp 기능 셀을 이용한 뉴로모픽 회로
CN104160450B (zh) * 2012-03-07 2017-06-09 松下知识产权经营株式会社 非易失性半导体存储装置
US10474948B2 (en) * 2015-03-27 2019-11-12 University Of Dayton Analog neuromorphic circuit implemented using resistive memories
CN105404925A (zh) * 2015-11-02 2016-03-16 上海新储集成电路有限公司 一种三维神经网络芯片

Also Published As

Publication number Publication date
US20200202207A1 (en) 2020-06-25
WO2019049842A1 (ja) 2019-03-14
JPWO2019049842A1 (ja) 2020-08-06
US11615299B2 (en) 2023-03-28
CN111052154B (zh) 2023-10-17
CN111052154A (zh) 2020-04-21

Similar Documents

Publication Publication Date Title
JP6858870B2 (ja) 不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路
JP6956191B2 (ja) 不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路
Sun et al. XNOR-RRAM: A scalable and parallel resistive synaptic architecture for binary neural networks
US11663457B2 (en) Neural network circuits having non-volatile synapse arrays
CN110782028A (zh) 具有差分二进制非易失性存储器单元结构的可配置精密神经网络
CN110825345A (zh) 使用非易失性存储器单元的乘法
US11354569B2 (en) Neural network computation circuit including semiconductor storage elements
CN110729011B (zh) 用于类神经网路的存储器内运算装置
TW201937413A (zh) 具有非揮發性突觸陣列的神經網路電路
US20210117500A1 (en) Methods to tolerate programming and retention errors of crossbar memory arrays
US20200302277A1 (en) Neural network system including gate circuit for controlling memristor array circuit
TWI783538B (zh) 多階超低功率推理引擎加速器
JP7442625B2 (ja) 相変化メモリ・シナプスのプログラム中にドリフト係数外れ値を抑制すること
WO2023171683A1 (ja) ニューラルネットワーク演算回路
US20220164638A1 (en) Methods and apparatus for neural network arrays
US11881260B2 (en) Neuromorphic computing device and method of designing the same
KR20210083599A (ko) 멀티 비트 특성을 갖는 뉴로모픽 시냅스 소자 및 이의 동작 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211004

R151 Written notification of patent or utility model registration

Ref document number: 6956191

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151