JP2021518615A - 効率的な行列乗算のためのシステムおよび方法 - Google Patents

効率的な行列乗算のためのシステムおよび方法 Download PDF

Info

Publication number
JP2021518615A
JP2021518615A JP2020551826A JP2020551826A JP2021518615A JP 2021518615 A JP2021518615 A JP 2021518615A JP 2020551826 A JP2020551826 A JP 2020551826A JP 2020551826 A JP2020551826 A JP 2020551826A JP 2021518615 A JP2021518615 A JP 2021518615A
Authority
JP
Japan
Prior art keywords
electrodes
analog
voltage
input
digital
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020551826A
Other languages
English (en)
Other versions
JP7130766B2 (ja
Inventor
ケンダル・ジャック・デビッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rain Neuromorphics Inc
Original Assignee
Rain Neuromorphics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rain Neuromorphics Inc filed Critical Rain Neuromorphics Inc
Publication of JP2021518615A publication Critical patent/JP2021518615A/ja
Application granted granted Critical
Publication of JP7130766B2 publication Critical patent/JP7130766B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06GANALOGUE COMPUTERS
    • G06G7/00Devices in which the computing operation is performed by varying electric or magnetic quantities
    • G06G7/12Arrangements for performing computing operations, e.g. operational amplifiers
    • G06G7/16Arrangements for performing computing operations, e.g. operational amplifiers for multiplication or division
    • G06G7/163Arrangements for performing computing operations, e.g. operational amplifiers for multiplication or division using a variable impedance controlled by one of the input signals, variable amplification or transfer function
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C11/00Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C11/54Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using elements simulating biological cells, e.g. neuron
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C13/00Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00
    • G11C13/0002Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00 using resistive RAM [RRAM] elements
    • G11C13/0004Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00 using resistive RAM [RRAM] elements comprising amorphous/crystalline phase transition cells
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C13/00Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00
    • G11C13/0002Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00 using resistive RAM [RRAM] elements
    • G11C13/0021Auxiliary circuits
    • G11C13/0023Address circuits or decoders
    • G11C13/0026Bit-line or column circuits
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C13/00Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00
    • G11C13/0002Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00 using resistive RAM [RRAM] elements
    • G11C13/0021Auxiliary circuits
    • G11C13/0023Address circuits or decoders
    • G11C13/0028Word-line or row circuits
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C13/00Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00
    • G11C13/0002Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00 using resistive RAM [RRAM] elements
    • G11C13/0021Auxiliary circuits
    • G11C13/003Cell access
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C13/00Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00
    • G11C13/0002Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00 using resistive RAM [RRAM] elements
    • G11C13/0021Auxiliary circuits
    • G11C13/004Reading or sensing circuits or methods
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C13/00Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00
    • G11C13/0002Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00 using resistive RAM [RRAM] elements
    • G11C13/0021Auxiliary circuits
    • G11C13/0069Writing or programming circuits or methods
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C7/00Arrangements for writing information into, or reading information out from, a digital store
    • G11C7/10Input/output [I/O] data interface arrangements, e.g. I/O data control circuits, I/O data buffers
    • G11C7/1006Data managing, e.g. manipulating data before writing or reading out, data bus switches or control circuits therefor
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C13/00Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00
    • G11C13/0002Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00 using resistive RAM [RRAM] elements
    • G11C13/0021Auxiliary circuits
    • G11C13/0069Writing or programming circuits or methods
    • G11C2013/0073Write using bi-directional cell biasing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C2213/00Indexing scheme relating to G11C13/00 for features not covered by this group
    • G11C2213/10Resistive cells; Technology aspects
    • G11C2213/18Memory cell being a nanowire having RADIAL composition
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C2213/00Indexing scheme relating to G11C13/00 for features not covered by this group
    • G11C2213/10Resistive cells; Technology aspects
    • G11C2213/19Memory cell comprising at least a nanowire and only two terminals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C2213/00Indexing scheme relating to G11C13/00 for features not covered by this group
    • G11C2213/70Resistive array aspects
    • G11C2213/77Array wherein the memory element being directly connected to the bit lines and word lines without any access device being used

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Neurology (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Power Engineering (AREA)
  • Semiconductor Memories (AREA)
  • Complex Calculations (AREA)

Abstract

疎に接続されたコンダクタンス行列およびアナログ混合信号(AMS)技法を使用する効率的なベクトル−行列乗算を実行するためのシステムおよび方法が開示される。金属電極は、同軸ナノワイヤを使用して疎に接続されている。各電極は、ニューラルネットワーク層での入出力ノードまたはニューロンとして使用することができる。ニューラルネットワークのシナプスは、同軸ナノワイヤによって提供されるランダム接続によって作成される。金属電極のサブセットを使用して入力電圧のベクトルを受信することができ、金属電極の補完サブセットを使用して出力電流を読み出すことができる。出力電流は、入力電圧のベクトルとコンダクタンスの疎に接続された行列とのベクトル−行列乗算の結果である。【選択図】図3

Description

関連出願への相互参照
本出願は、「Analog Processor for Sparse Vector−Matrix Multiplication」という名称の2018年4月5日出願の米国仮特許出願第62/653,194号に対する優先権の利益を主張するものであり、上記仮特許出願の内容全体を参照により本明細書に援用し、本明細書の一部とみなすべきである。
本発明は、概してコンピュータハードウェアに関し、特に、人工知能およびメモリデバイスなどの分野で効率的な行列演算を実行するように設計されたアクセラレータに関する。
行列演算は、様々な現代の計算タスクで使用される。多くの物理的現象を、数値の1つまたは複数の行列によって表して、現代のコンピュータで処理することができる。例えば、静止写真、ビデオ画像フレーム、センサ出力データ、発話の間隔、金融取引データ、自立駆動型センサデータ、および多くの他の物理的物体またはパラメータを、現代のコンピュータにおける処理、操作、および演算に適した数値の1つまたは複数の行列によって表すことができる。汎用の計算ハードウェアを使用して行列演算を実行することができるが、行列データおよび行列演算は、それらの特徴により、汎用コンピュータと比較して、行列ワークロードおよび行列演算をより効率的に処理するためにカスタマイズされたハードウェアを設計するのに良好な候補になり得る。現代の計算タスクで頻繁に使用される行列演算の一形態は、デジタルベクトル−行列乗算である。
従来のデジタルベクトル−行列乗算では、入力値のベクトルが、パラメータ値の行列と共に提供される。これら2つの結果の乗算が、単一のベクトル出力をもたらす。入力ベクトルと出力ベクトルとのサイズがどちらもnである場合、この演算の計算複雑性は、O(n2)としてスケーリングされる。
クロスバーアレイおよび関連のハードウェアを用いたベクトル−行列乗算の代替的な形態は、インメモリ・コンピューティングの概念を使用し、データをアレイにロードすることができるスピードによってのみ制限される。これにより、計算時間のO(n)スケーリングがもたらされる。これらのアーキテクチャは、一般にドット積エンジン(DPE)として知られている。しかし、このO(n)スケーリングを維持するために、DPEは、密クロスバー行列でパラメータ値を記憶するためのO(n2)空間リソースをオンチップで必要とする。したがって、既存のDPEを配備することにより、場合によっては、計算時間効率とオンチップ領域との望ましくないトレードオフが必要とされる。
したがって、ベクトル−行列乗算を可能にするデバイスおよびデバイスを操作する方法が必要であり、これはまた、従来のDPEの場合のようにチップ領域について二次関数的にスケーリングするのではなく、計算時間および空間リソースについてO(n)としてスケーリングする。
本発明の一態様では、疎結合ベクトル−行列乗算のシステムが開示される。このシステムは、シリコン基板と、基板内または基板上に形成された回路層と、回路層に形成された複数の電極と、複数の電極にランダムに形成されたメッシュとを含み、回路層が、複数のデジタル入力信号を受信し、複数のデジタル入力信号を複数のアナログ入力信号に変換し、複数のアナログ入力信号を複数の電極の入力セットに書き込み、複数の電極の出力セットから複数のアナログ出力信号を読み出し、複数のアナログ出力信号を複数のデジタル出力信号に変換し、複数のデジタル出力信号を出力するように構成される。
いくつかの実施形態では、メッシュは、二端子不揮発性メモリ(NVM)材料で被包された金属コアを有する同軸ナノワイヤを含む。
一実施形態では、不揮発性メモリ材料は、電圧制御された抵抗を含む。
別の実施形態では、回路層は、複数のデジタル入力信号を受信するように構成された入力レジスタと、複数のデジタル入力信号を複数のアナログ入力信号に変換するように構成された1つまたは複数のデジタル/アナログ変換器と、複数のアナログ出力信号を複数のデジタル出力信号に変換するように構成された1つまたは複数のアナログ/デジタル変換器と、複数のデジタル出力信号を受信して記憶するように構成された出力レジスタとを含む。
一実施形態では、回路層は、複数の電極にバイアス電圧および/または訓練電圧を選択的に提供するように構成された列ドライバおよび行ドライバをさらに含む。
別の実施形態では、複数のアナログ入力信号は電圧を含み、複数のアナログ出力信号は電流を含み、またはその逆である。
いくつかの実施形態では、複数のアナログ入力信号は電圧を含み、複数のアナログ出力信号は電流を含み、回路層は、複数の電極に結合された複数の増幅器をさらに含み、複数の電極の入力セットに結合された増幅器が、サンプルホールド(SAH)増幅器として構成され、入力セットに複数のアナログ入力信号を書き込むように構成され、複数の電極の出力セットに結合された増幅器が、電流感知増幅器として構成され、複数のアナログ出力信号を読み出すように構成される。
一実施形態では、複数の電極が、ニューラルネットワーク層にニューロンを含む。
別の実施形態では、複数の電極およびランダムに形成されたメッシュは、コンダクタンスの行列を含む。
いくつかの実施形態では、コンダクタンスの行列は、温度駆動型の相変化メモリ機構、ユニポーラ抵抗スイッチング、およびバイポーラメモリスタ機構のうちの1つまたは複数を使用して調整可能である。
本発明の別の態様では、疎結合ベクトル−行列乗算の方法が開示される。この方法は、シリコン基板に複数の電極を提供するステップと、複数の電極に、ランダムに配置された同軸ナノワイヤの層を形成するステップと、複数のデジタル入力信号を受信するステップと、複数のデジタル入力信号を複数のアナログ入力信号に変換するステップと、複数のアナログ入力信号を複数の電極の入力セットに書き込むステップと、複数の電極の出力セットから複数のアナログ出力信号を読み出すステップと、複数のアナログ出力信号を複数のデジタル出力信号に変換するステップと、複数のデジタル出力信号を出力するステップとを含む。
一実施形態では、同軸ナノワイヤは、二端子不揮発性メモリ(NVM)材料で被包された金属コアを含む。
別の実施形態では、NVM材料が、電圧制御された抵抗、メモリスタ、相変化材料(PCM)、および抵抗変化型メモリ(ReRAM)材料のうちの1つまたは複数を含む。
いくつかの実施形態では、この方法は、複数の電極にバイアス電圧を選択的に提供して、複数の電極への電圧の書込み、または複数の電極からの電流の読出しをイネーブルにするステップをさらに含む。
一実施形態では、電圧制御された抵抗が、複数の電極と、ランダムに配置された同軸ナノワイヤとの交点に形成され、方法は、複数の電極に訓練電圧を選択的に提供して、電圧制御された抵抗を調節することをさらに含む。
いくつかの実施形態では、この方法は、複数の電極のうちのどの電極が訓練電圧を印加されるかを示す訓練信号を受信するステップをさらに含む。
一実施形態では、複数の電極は、ニューラルネットワーク層にニューロンを含む。
別の実施形態では、複数の電極、およびランダムに配置された同軸ナノワイヤの層が、コンダクタンスの行列を形成し、コンダクタンスは、勾配降下を実行することによって調整される。
いくつかの実施形態では、複数のアナログ入力信号は電圧を含み、複数のアナログ出力信号は電流を含む。
一実施形態では、入力セットおよび出力セットは、複数の電極のうちの電極の半数をそれぞれ含む。
以下の図面およびに本明細書における関連の記載は、本発明の特定の実施形態を例示するために提供され、限定するものとは意図されていない。
図1は、ベクトル−行列乗算を実行するために使用されるドット積エンジンでの行列を示す図である。
図2は、高効率計算ハードウェアを構築する際に利用することができる同軸ナノワイヤを示す図である。
図3は、一実施形態による疎結合ベクトル−行列乗算(SVMM)エンジンを示す図である。
図4は、図3の実施形態の回路層および電極の一実施形態を示す図である。
図5は、一実施形態による、疎結合ベクトル行列乗算の方法の流れ図を示す図である。
いくつかの実施形態の以下の詳細な説明は、本発明の特定の実施形態の様々な説明を提示する。しかし、本発明は、特許請求の範囲によって定義されて網羅される多くの異なる方法で具現化することができる。本明細書では図面を参照し、図面中、同様の参照番号は、同一の要素または機能的に同様の要素を示すことがある。
特に定義しない限り、本明細書で使用される全ての用語は、本発明が属する技術分野の当業者によって一般に理解される意味と同一の意味を有する。本明細書での開示全体を通して言及される全ての特許、特許出願、および出版物の全体を参照により援用する。本明細書での用語に関して複数の定義がある場合、本項の定義を優先させる。
定義
本明細書で使用するとき、用語「約」は、開示される特定の測定値または大きさの範囲を表す。例えば、語句「約10」は、指定された数字が、1%、3%、5%、7%、10%、15%、または20%だけ変動してもよいことを意味する。したがって、20%の変動範囲では、語句「約10」は、8〜12の範囲を意味する。
本開示において用語「1つ」が使用されるとき、特に指示がない限り、「少なくとも1つ」または「1つまたは複数」を意味する。
用語「プロセッサ」は、ソフトウェアプログラミング命令をロードして実行するために最適化された様々なマイクロプロセッサ、コントローラ、および/またはハードウェアおよびソフトウェア、またはプロセッサ、例えば画像処理に関連する大容量の行列データを扱うために最適化されたグラフィックスプロセッシングユニット(GPU)を表すことができる。
用語「コンダクタンス」は、構成要素が電気を伝導する度合いを表す。コンダクタンスは、構成要素の両端間の電位差に対する、構成要素を通って流れる電流の比として計算することができる。コンダクタンスは、抵抗の逆数であり、ジーメンスの単位で測定される。
本明細書で述べる行列乗算エンジンの文脈での用語「密結合」は、行列乗算エンジンの各入力ノードから各出力ノードへの電気的接続または経路が存在するエンジンを表すことができる。
本明細書で述べる行列乗算エンジンの文脈での用語「疎結合」は、行列乗算エンジンの入力ノードと出力ノードとの間で実現可能または利用可能な接続が全て形成されているわけではないエンジンを表すことができる。
密行列乗算エンジン
ベクトル−行列乗算の実行に特化したハードウェアの一例は、クロスバーアーキテクチャに基づくドット積エンジンである。
図1は、ベクトル−行列乗算を実行するために使用されるドット積エンジンでの行列20の図を示す。行列20は、クロスバーアレイアーキテクチャを利用し、垂直出力電流線と交差する水平入力電圧線を含む。一例として、行列20を使用してニューラルネットワークの文脈でベクトル−行列乗算を実行するとき、入力電圧線/出力電流線は、ニューラルネットワーク層でのニューロンでよい。入力電圧線および出力電流線は、導電性金属材料で作製される。入力電圧線と出力電流線との交点で、不揮発性メモリ(NVM)で作製された材料21が、入力電圧線を、交差する出力電流線に接続する。いくつかの実装形態では、これは、NVMタイプの材料21を挟持するように電極線(水平線および垂直線)をリソグラフィによりパターン形成することによって実現される。入力電圧のベクトルが、入力電圧線に印加される。各列での出力電流は、その列と入力電圧線との各交点からの電流の和によって決定され、各交点に関してキルヒホッフの電流法則(KCL)を適用することによって決定される。行列20は、適切な電圧を印加することによって制御可能な抵抗を有するNVM材料21によって部分的に形成される。したがって、パラメータ値の行列(例えば、ニューラルネットワークの層における重みの行列)は、所望の計算のパラメータ値の行列と一致するように交点抵抗を調節することによって行列20に構成することができる。
密行列乗算エンジンの性能
行列20を利用するドット積エンジンは、密アレイ構造として特徴付けることができ、各入力と各出力とが接続される。とりわけ、行列20を実装するために必要とされるチップ領域は、提供する入力および出力ニューロンの数に対して二次関数的にスケーリングする。言い換えると、入力/出力ニューロンと、行列20を実装するために必要とされるチップ領域とは、異なる割合でスケーリングする。入力/出力ニューロンが、(行列20の縁部で)線形にスケーリングする一方で、それらの追加のニューロンのベクトル−行列乗算を実装するために必要とされるチップ領域は、(行列20の領域で)二次関数的に増大する。
同軸ナノワイヤ
新材料の最近の発見により、計算ハードウェア、およびソフトウェアの実行をタスクとして課せられたハードウェアを設計するための手法に革新がもたらされる可能性がある。従来のシリコン材料に基づいてのみ設計された計算ハードウェアは、その性能の物理的限界に近づいているので、新材料のみに基づく設計、またはシリコンベースの回路と組み合わせた新材料に基づく設計が、ハードウェアの効率の向上に有望である。ナノスケール材料、例えばナノワイヤ、および望ましい機械的または電気的特性を有する材料の発見および形成可能性が、行列乗算を実行するためにカスタマイズされて最適化されたハードウェアを含めた計算法およびデバイスの発展および改良に有望である。
図2は、以下に述べるように、高効率の計算ハードウェアを構築するときに利用することができる同軸ナノワイヤ10の図を示す。同軸ナノワイヤ10は、二端子不揮発性メモリ(NVM)材料14に被包された金属コア12を含む。同軸ナノワイヤ10は、2つの金属電極16および18に接触する。
NVM材料は二端子デバイスであり、その抵抗は、あるしきい値電圧よりも高いまたは低い電圧が2つの端子間に印加されることによって制御される。例えば、電極16が、正のしきい値電圧(SET電圧)よりも高い電圧をNVM材料14に印加するとき、NVM材料14は絶縁破壊を受けるおそれがあり、1つまたは複数の導電性フィラメントがNVM材料14を通して形成され、それによりNVM材料14の電気抵抗を低下させ、その導電性を高める。その後、ここではより高い導電性のNVM材料14および金属コア12によって、電極16と電極18との電気的接続を強化することができる。電極16が、負のしきい値電圧(RESET電圧)よりも低い電圧をNVM材料14に印加するとき、絶縁破壊プロセスが逆となり、フィラメントが溶解し、NVM材料14の電気抵抗が、その元の値または何らかの他のより低い抵抗に戻り、それにより電極16と電極18との電気的接続を弱める。SET電圧よりも高い電圧の場合、NVM材料14は低抵抗状態(LRS)に変換され、RESET電圧よりも低い電圧の場合、NVM材料14は高抵抗状態(HRS)に変換される。言い換えると、同軸ナノワイヤ10は、その接点と電極との交点にメモリデバイスを形成する。界面での抵抗は、前に印加された電圧(前の電圧がSET電圧よりも高かった、またはRESET電圧よりも低かったかどうか)に応じて決まる。
NVM材料14の例としては、メモリスタ、相変化材料(PCM)、抵抗変化型メモリ(ReRAM)材料、または抵抗が電圧制御される任意の他の材料、例えば1つまたは複数のしきい値電圧に対する印加電圧に応答して抵抗を保つ任意の材料を含む。
疎結合ベクトル−行列乗算エンジン
同軸ナノワイヤ10の適用は、行列乗算を実行するように設計されたハードウェアの文脈で考察することができる。行列乗算は、多くの現代の計算タスク、例えば人工知能(AI)、機械学習、ニューラルネットワーク、ニューラルネットワーク訓練、様々な変換(例えば離散フーリエ変換)などで使用される。行列乗算を効率的に実行することができるハードウェアを作製するために、同軸ナノワイヤ10のシェルの不揮発性であり制御可能なメモリ特性を活用することができる。現代の計算タスクで使用される行列乗算の一形態は、デジタルベクトル−行列乗算であり、入力値のベクトルにパラメータ値の行列が乗算される。この乗算により、出力ベクトルが得られる。パラメータ値の行列を作成するために同軸ナノワイヤ10を使用することができる。パラメータ値は、様々な計算タスクで使用される任意のパラメータ値、例えばニューラルネットワークの層での重みでよい。入力値のベクトルに重みの行列を乗算して、層の出力ベクトルを生成することができる。
ベクトル−行列乗算を実行することができる計算ハードウェアを設計するために、デジタル入力値をアナログ入力電圧のベクトルで表すことができ、コンダクタンスの行列は、パラメータ値の行列を表すことができる。オームの法則の式(I=VG、Iは電流、Vは電圧、Gはコンダクタンス)を使用して、電流のアナログ出力ベクトルを得ることができ、これは、入力値とパラメータ値の行列との乗算の出力となる。アナログ出力ベクトルは、デジタル出力値に変換して出力することができる。
図1のドット積エンジンと比較して、ベクトル−行列乗算を実行するための代替エンジンは、チップ領域にわたって分散されて、同軸ナノワイヤ10と疎に接続された電極を使用することができ、電極は、図1のドット積エンジンの場合のようにクロスバーアレイの外側縁のみではなく、電極が存在するチップ領域全体にわたって入力および出力ノードを分散させることができる。同軸ナノワイヤ10と疎に接続された分散された電極のネットワークは、コンダクタンス行列を作成することができ、コンダクタンス行列は、所望の計算においてパラメータ行列として使用することができる。電極のサブセットを使用して入力電圧のベクトルを提供することができ、電極の補完サブセットをプローブして、出力電流のベクトルを読み出すことができる。電流の出力ベクトルは、オームの法則に従って、入力電圧のベクトルとコンダクタンスの行列とのベクトル−行列乗算により得られる。
図3は、疎結合ベクトル−行列乗算(SVMM)エンジン22の図を示す。SVMMエンジン22は、シリコン基板24と、回路層26内の制御回路構成、例えば補完金属酸化膜半導体(CMOS)層と、電極のグリッド28と、グリッド28の上に堆積された同軸ナノワイヤ10のランダムに形成されたメッシュ30とを含む。メッシュ30は、電極グリッド28の上方に置かれ、または電極グリッド28の上に形成され、メッシュ30と電極グリッド28の上部との物理的接触を提供する。代替として、グリッド28の電極を、金属のピラーとしてメッシュ30を通して成長させることができる。グリッド28の電極の上にランダムに堆積された同軸ナノワイヤ10は、それらが接触する電極間に電気的接続を提供することができる。その結果、同軸ナノワイヤ10は、グリッド28の電極を疎に接続する。電極間の電気的接続の強度は、同軸ナノワイヤ10の抵抗の増減に基づいて変更され得る。
SVMMエンジン22の訓練モードにおいて、回路層26での回路構成を使用して、グリッド28の電極を介して、メッシュ30の同軸ナノワイヤ10の一部または全てにSET電圧またはRESET電圧を印加することができる。メッシュ30の同軸ナノワイヤ10の電気抵抗は、グリッド28の電極を介して受け取る電圧に応じて増加または減少することができ、それにより、グリッド28の電極間の電気的接続を強めたり弱めたりすることができる。メッシュ30の同軸ナノワイヤ10はランダムに形成されるので、NVMタイプの材料およびナノワイヤ10の金属コアを通じて、グリッド28の電極間のランダムな電気的接続を生成することができる。したがって、グリッド28の電極は、メッシュ30の同軸ナノワイヤ10を介して疎に接続される。
メッシュ30と疎に接続されたグリッド28は、コンダクタンスの疎に接続された行列を形成し、ベクトル−行列乗算のためにこれを使用することができる。入力電圧のベクトルは、グリッド28の電極のサブセット(入力電極)に印加することができ、残りの電極(出力電極)を使用して電流の出力ベクトルを読み出すことができる。この構成では、電流の出力ベクトルは、オームの法則に従って、入力電圧のベクトルと、グリッド28によって形成されたコンダクタンスの疎に接続された行列とのベクトル−行列乗算の出力となる。
様々な用途において、グリッド28の電極とメッシュ30との交点に形成される抵抗は、コンダクタンスの有用な行列が形成されるまで、入力/出力対の既知の組に調整または当てはめを行うことによって調節することができる。言い換えると、SVMMエンジン22によって形成されるコンダクタンスの行列は、メッシュ30の同軸ナノワイヤ10を介するグリッド28の電極間のランダムな接続によって形成された未知のまたはランダムな抵抗から作製されるが、コンダクタンスは、SET電圧および/またはRESET電圧の組合せをグリッド28の電極に印加し、出力を観察することによって調節することができる。電極−メッシュ界面の抵抗を調節すべき方向を決定するために、様々な当てはめ技法およびアルゴリズムを使用してよい。
グリッド28とメッシュ30とによって形成されたコンダクタンスの行列に対応する界面抵抗は、様々な手段によって調節することができ、例えば、グリッド28の電極での電圧パルスを使用して、温度駆動型の相変化メモリ機構、ユニポーラ抵抗スイッチング、またはバイポーラメモリスタ機構に従って抵抗を切り替えるまたは変えることによって調節することができる。これらの技法を使用して、例えば連想メモリ(CAM)、ニューラルネットワーク層、またはより汎用のメモリインターコネクトとして、コンダクタンス行列の値をタスクに合わせて調整することができる。SVMMエンジン22に関連して使用することができるアルゴリズムの例は、2018年5月21日出願の「DEEP LEARNING IN BIPARTITE MEMRISTIVE NETWORKS」という名称の国際特許出願PCT/US2018/033669号で見ることができる。一実施形態では、勾配降下学習を使用して、SVMMエンジン22のコンダクタンス行列を調整することができる。
グリッド28の形状、数、および幾何学的特徴は、実装形態に基づいて変更することができる。いくつかの実施形態では、電極は、グリッド形式である必要はない。様々な設計および実装形態を考慮して、記載する技術の精神から逸脱することなく、SVMMエンジン22の代替の幾何学的特徴を定めてよい。
図4は、回路層26とグリッド28の電極との実施形態の図を示す。回路層26は、CMOS層として実装することができ、いくつかの構成要素、例えば、入力レジスタ32、出力レジスタ34、列ドライバ36、行ドライバ38、1つまたは複数のデジタル/アナログ変換器(DAC)40、1つまたは複数のアナログ/デジタル変換器(ADC)42、増幅器46、スイッチ44、ならびに、回路層26にSVMMエンジン22の機能を実装するために使用され得る他の構成要素および回路構成を含むことができる。例示の目的でグリッド28の電極を示すが、いくつかの実施形態では、グリッド28の電極は、回路層26の上方に成長した金属ピラーであり、回路層26の一部でなくてもよい。メッシュ30は、図4に示されていないが、図3に関連して述べたように、グリッド28の電極の上方に作られて、それらの電極間のランダムな電気的接続を提供する。
グリッド28の電極は、列ドライバ36と行ドライバ38とに接続することができる。列ドライバ36および行ドライバ38は、グリッド28の電極に様々な電圧を提供するための回路構成(例えば、論理ゲート、高電力および低電力供給レールなど)を含む。一実施形態では、行ドライバ36および列ドライバ38は、RESET電圧よりも高くSET電圧よりも低い範囲内で1つまたは複数のバイアス電圧を提供し、グリッド28の1つまたは複数の電極への電圧の書込み、および/またはそれらの電極からの電流の読出しをイネーブルにすることができる。列ドライバ36および行ドライバ38は、グリッド28の1つまたは複数の電極に対する訓練信号を受信することができる。訓練信号がONの場合、列ドライバ36および/または行ドライバ38は、SET電圧よりも高い、またはRESET電圧よりも低い訓練電圧パルスを提供し、電極−メッシュ界面での抵抗を調節することができる。グリッド28内の1つまたは複数の電極に関する訓練信号がOFFの場合、列ドライバ36および/または行ドライバ38は、SET電圧よりも高い電圧、またはRESET電圧よりも低い電圧を印加しない。
いくつかの実施形態では、SVMMエンジン22は、仮想接地(mid−supply)で動作し、訓練信号がONであるとき、一連のパルス電圧は、グリッド28の1つまたは複数の電極を高電力供給レール(Vdd)または低電力供給レール(接地)に接続するトランジスタゲートに送られる。列ドライバ36および行ドライバ38は、グリッド28の電極とメッシュ30との界面での抵抗が移動されるべき方向(例えば、高くするまたは低くする)を示す1つまたは複数の制御信号を受信することができる。
回路層26は、グリッド28の各電極を個別にアドレス指定することを可能にするように設計することができ、または効率化の目的で、グリッド28の複数の電極を並列でアドレス指定するように、かつ回路層26およびその構成要素によって費やされるオンチップ領域を節約するように設計することができる。
SVMMエンジン22は、SVMMエンジン22が使用される用途に応じて、様々な信号源からデジタル入力信号を(例えば、所定の間隔で、間断的に、またはランダムに)受信することができる。デジタル入力信号は、センサ入力データ、物理的現象を表す数学的画像パラメータ、人工知能入力データ、訓練入力データ、静止写真、ビデオ画像のフレーム、発話の間隔、およびベクトル−行列乗算の目的での任意の他の入力信号を含むことができる。
1つまたは複数のDAC40を使用して、デジタル入力信号をアナログ電圧に変換することができ、このアナログ電圧をグリッド28の電極に供給することができる。1つまたは複数のADC42は、アナログ出力電流をデジタル信号に変換することができ、このデジタル信号を出力レジスタ34に出力し、さらなる処理または他のタスクのためにオフチップで伝送することができる。
SVMMエンジン22は、エッジノードのみが入力または出力ノードであり得るデバイスとは対照的に、グリッド28の各電極が入力または出力ノードであり得るように構成することができる。効率化の目的で、グリッド28の複数の電極を入力電極として並列に設定することができ、残りの電極は出力電極として読み出すことができる。回路層26は、スイッチ44と共に設計することができ、スイッチ44は、グリッド28の電極をDAC40に接続することができ、入力信号を受信するために電極を利用可能にする。スイッチ44をトグルして、グリッド28の電極をADC42に接続し、電極を出力電極として利用可能にすることができる。効率化の目的で、グリッド28の複数の電極(例えば、それらのうちの1つまたは複数の列)を入力電極として使用することができる(例えば、スイッチ44をDAC40に適切に位置決めすることによって、または当業者に知られている他の技法によって)。グリッド28の残りの電極(例えば残りの列)を出力電極として使用することができる。いくつかの実施形態では、入力電極と出力電極との組のサイズは、(例えばスイッチ44の代わりに永続的な接続によって)永続性のあるものでも、(例えばスイッチ44を個々にまたはバッチで制御する入力/出力セレクタ信号によって)融通性のあるものでも、永続性と融通性との組合せでもよい。
例示の目的で、一例として、回路層26は、入力信号用に使用される列AおよびBと、出力信号の読出し用に使用される列CおよびDとで構成される。グリッド28の各電極は、回路層26の増幅器46に接続される。増幅器46は、その対応する電極が入力ノードとなる場合、バッファすなわちサンプルホールド(SAH)増幅器として構成することができる。また、増幅器46はその対応する電極が出力ノードとなる場合、電流出力を感知するためにトランスインピーダンス増幅器として構成することができる。
一実施形態では、コントローラ48は、入力または出力増幅器として増幅器46を個々にまたはバッチで構成することができる。コントローラ48は、回路層26内の回路の他の機能を調整することもでき、例えば、入力/出力セレクタ信号を介するスイッチ44の制御、増幅器46の構成、ならびに上述したような列ドライバ36および行ドライバ38に関連する様々な機能を調整することもできる。コントローラ48は、SVMMエンジン22の様々な動作および構成要素のタイミング、例えば入力レジスタ32からグリッド28の入力電極に入力ベクトルを供給するタイミング、グリッド28の出力電極から出力電流を読み出すタイミング、ならびに他の機能および構成要素のタイミングを管理することもできる。コントローラ48は、その機能を実施するために、短期メモリおよび/または長期メモリ、ストレージ、1つまたは複数のプロセッサ、クロック信号、および他の構成要素などの回路構成を含むことができる。
電極の動作モード
動作モードに応じて、グリッド28の電極に対して様々な操作を実施することができる。1つのモードでは、1つまたは複数の電極を訓練モードにすることができ、電極−メッシュ界面での抵抗を調節することができる。ニューラルネットワーク訓練などいくつかの用途では、コンダクタンスの有効な行列を構成するために、ニューラルネットワークでの訓練アルゴリズム(例えば勾配降下)に基づいて界面抵抗を調節することができるので、用語「訓練」が使用される。そのような操作中、電極−メッシュ界面での個々の抵抗は知られていなくてもよく、それにもかかわらず、訓練アルゴリズムを使用して入力/出力対を観察し電極−メッシュ界面の集合の抵抗によってコンダクタンスの有効な行列が作成されるまで、抵抗を上下に調節することができる。
別のモードでは、1つまたは複数の電極はWRITEモードでよく、適当量の電圧バイアスが、列ドライバ36および/または行ドライバ38から印加され、入力電圧値が、1つまたは複数の対応するDAC40を介して1つまたは複数の電極で供給される。
別のモードでは、1つまたは複数の電極はREADモードでよく、適当量の電圧バイアスが、列ドライバ36および/または行ドライバ38から印加され、出力電流が、1つまたは複数の対応するADC42を介して1つまたは複数の電極から読み出される。
SVMMエンジン22の例示的な動作
ここで、SVMMエンジン22の一例および構成を、図4に関連して述べる。列AおよびBは入力電極として割り当てられ、列CおよびDは出力電極として割り当てられる。列AおよびBでの増幅器46は、SAH増幅器として構成され、列CおよびDでの増幅器46は、電流を感知することが可能なトランスインピーダンス増幅器として構成される。列AおよびBでのスイッチ44は、列AおよびBでの増幅器46をDAC40に接続する。列CおよびDでのスイッチ44は、列CおよびDでの増幅器46を列CおよびDのADC42に接続する。列ドライバ36および行ドライバ38は、適切なバイアス電圧を電極に供給して、WRITEモードでは列AおよびBでの電極をイネーブルにし、READモードでは列CおよびDでの電極をイネーブルにする。
1つまたは複数のDAC40は、入力レジスタ32で受信されたデジタル入力信号の第1のベクトルをアナログ信号に変換し、それらのアナログ信号を列Aでの増幅器46に設定する。SAH増幅器として構成されている列Aでの増幅器46は、列Aでの電極で入力電圧を保持する。次に、1つまたは複数のDAC40は、入力レジスタ32で受信されたデジタル入力信号の第2のベクトルをアナログ信号に変換し、それらのアナログ信号を列Bでの増幅器46に設定する。SAH増幅器として構成されている列Bでの増幅器46は、列Bでの電極で入力電圧を保持する。追加の列が入力用に使用される場合、入力列が供給されるまで、このプロセスを続行することができる。
入力電圧が列AおよびBでの電極に書き込まれるとき、コントローラ48は、列CおよびDでのADC42で走査して出力電流を読み出し、結果を出力レジスタ34に出力し始めることができる。
列ドライバ36および行ドライバ38が1つまたは複数の電極を訓練モードにし、それらの電極にVddまたは接地電圧を印加し、電極−メッシュ界面での抵抗を調節するステップを追加して、上記のプロセスを繰り返すことができる。本実装形態では、VddはSET電圧よりも高く、接地電圧はRESET電圧よりも低い。
SVMMエンジン22およびその回路層26を構成することができ、ここでは、個々の電極を入力/出力ノードとして使用することができる。一例として、グリッド28での電極のうちの半数を入力電極として使用することができ、グリッド28での電極のうちの半数を出力電極として使用することができる。用途に応じて、入力または出力としての電極の他の分割法も可能である。DAC40は、バッファまたはSAH増幅器として構成される増幅器46を介して入力電極に入力電圧(V1)を書き込み、したがって電極にV1が保持される。次いで、DAC40は、次の入力電極の増幅器46を介して次の入力電極に次の入力電圧(V2)を書き込む。最後の入力電極が入力電圧(Vm)を受け取るまでプロセスが続行され、ここで、mは、グリッド28での電極の半数である。ここまでに、乗算は既に行われている。電圧に電極−メッシュ界面抵抗を乗算して、オームの法則に従って、出力電極で出力電流を生成する。
入力電極への電圧の書込みが完了すると、コントローラ48は、出力ノードを通って走査し、電流感知増幅器として構成される増幅器46を介して第1の出力電流(I1)を読み出し、ADC42を使用して出力電流I1をデジタル出力に変換し、出力レジスタ34をアップデートすることができる。次いで、次の出力電流I2が、電流感知増幅器として構成された第2の出力電極の増幅器46を介して第2の出力電極から読み出される。最後の出力電極の出力電流が読み出されるまでこのプロセスが続行され、出力レジスタ34がアップデートされる。ノード(または、SVMMエンジン22がニューラルネットワークで使用される場合にはニューロン)は、1回通過される。
SVMMの用途および性能の分析
SVMMエンジン22は、多くの用途で効果的に使用することができ、SVMMエンジン22のコンダクタンスの行列を、所望の機能、例えばニューラルネットワークおよび他の文脈での活性化機能を最適化するように様々な方向に調節することができる。他の計算タスクも、SVMMエンジン22を利用することができる。例として様々な画像処理タスクが挙げられ、ここで、画像は、物理的現象、例えば発話、天気、温度、または他のデータ構造、例えば、金融データ、レーダデータ、センサデータ、静止写真、ビデオ画像フレーム、および他の用途に存在し得るようなデータ構造を表す行列データである。
コンダクタンスの疎結合ネットワークを利用するSVMMエンジン22は、コンダクタンスの密結合ネットワークを使用するデバイスと比較して、実質的な性能の利点を提供する。疎結合ネットワークは、人間の脳が機能する方法に類似している。疎結合ネットワークでは、あらゆる情報ノードが、他の全ての情報ノードに接続されているとは限らない。いくつかの情報ノードのみが接続されている。疎結合性は、全ての情報ノードが接続されている密結合ネットワークなどのより高価なネットワークと比較して、領域およびリソースを経済的に使用して、秀でた計算能力を実現可能にすると考えられる。さらに、密結合ネットワークを利用するドット積エンジンは、コンダクタンス行列の抵抗を正確に制御する必要性、およびナノスケール材料の電気的または機械的制御の難しさにより、高価であり、設計および動作が複雑であることが実証されている。
さらに、SVMMエンジン22のコンダクタンスの疎行列は、行列乗算のために密結合ネットワークを利用するデバイスと比較して、より高い性能対面積比を提供する。SVMMエンジン22の疎結合ネットワークでは、入力および出力ノード(またはニューラルネットワークの文脈ではニューロン)は、エンジンのコンダクタンス行列の領域にわたって存在することができる。対照的に、密結合ネットワークでの入力および出力ノード(またはニューロン)は、ネットワークの外側縁にのみ存在する。これは、密結合ネットワークを使用するデバイスと比較して、SVMMエンジン22に二次関数的スケーリングの利点をもたらす。ニューロンの数が増えるとき、SVMMエンジン22は、ニューロンの同じ密度を維持することができるが、密結合ネットワークを使用するデバイスは密度を失い始める。
ハードウェアに関して、SVMMエンジン22は、コンピュータシステム、グラフィックスプロセッシングユニット(GPU)、ハードウェアアクセラレータの一部として、または人工知能プロセッサ、機械学習プロセッサ、メモリインターコネクト、もしくは行列演算が使用される他のデバイスの一部として実装することができる。
図5は、一実施形態による疎結合ベクトル−行列乗算の方法50の流れ図を示す。この方法は、図3および4の実施形態を使用するハードウェアで実施することができる。方法50は、ステップ52から始まる。この方法はステップ54に進み、シリコン基板に複数の電極を提供する。次いで、この方法は、ステップ56に進み、ランダムに配置された同軸ナノワイヤの層を複数の電極に形成する。次いで、この方法は、ステップ58に進み、複数のデジタル入力信号を受信する。この方法は、ステップ60に進み、複数のデジタル入力信号を複数のアナログ入力信号に変換する。次いで、この方法は、ステップ62に進み、複数のアナログ入力信号を複数の電極の入力セットに書き込む。次いで、この方法は、ステップ64に進み、複数の電極の出力セットから複数のアナログ出力信号を読み出す。次いで、この方法は、ステップ66に進み、複数のアナログ出力信号を複数のデジタル出力信号に変換する。次いで、この方法は、ステップ68に進み、複数のデジタル出力信号を出力する。この方法は、ステップ70で終了する。
多数の電気パラメータの観点から電気的特性を定義することができることを当業者は理解することができる。例えば、上述したシステムおよび方法は、コンダクタンス、電圧、および電流に関して示して説明してきたが、これらのパラメータは関連しており、当業者は、コンダクタンスの代わりに抵抗、電圧の代わりに電流、および電流の代わりに電圧に関して、上記の同じシステムを容易に説明もしくは設計することができ、または同じ方法を実施することができる。例えば、電流および電圧はオームの法則に関係するので、電圧の代わりに電流を使用して電極に書き込み、電圧を出力で読み出すことができる。

Claims (20)

  1. 疎結合ベクトル−行列乗算のシステムであって、
    基板と、
    前記基板内または前記基板上に形成された回路層と、
    前記回路層に形成された複数の電極と、
    前記複数の電極にランダムに形成されたメッシュとを備え、前記回路層が、
    複数のデジタル入力信号を受信し、
    前記複数のデジタル入力信号を複数のアナログ入力信号に変換し、
    前記複数のアナログ入力信号を前記複数の電極の入力セットに書き込み、
    前記複数の電極の出力セットから複数のアナログ出力信号を読み出し、
    前記複数のアナログ出力信号を複数のデジタル出力信号に変換し、
    前記複数のデジタル出力信号を出力する
    ように構成される、システム。
  2. 請求項1に記載のシステムであって、前記メッシュが、二端子不揮発性メモリ(NVM)材料で被包された金属コアを有する同軸ナノワイヤを含む、システム。
  3. 請求項2に記載のシステムであって、前記不揮発性メモリ材料が、電圧制御された抵抗を含む、システム。
  4. 請求項1に記載のシステムであって、
    前記回路層が、
    前記複数の前記デジタル入力信号を受信するように構成された入力レジスタと、
    前記複数のデジタル入力信号を複数のアナログ入力信号に変換するように構成された1つまたは複数のデジタル/アナログ変換器と、
    前記複数のアナログ出力信号を前記複数のデジタル出力信号に変換するように構成された1つまたは複数のアナログ/デジタル変換器と、
    前記複数のデジタル出力信号を受信して記憶するように構成された出力レジスタと
    を備える、システム。
  5. 請求項4に記載のシステムであって、前記回路層が、前記複数の前記電極にバイアス電圧および/または訓練電圧を選択的に提供するように構成された列ドライバおよび行ドライバをさらに含む、システム。
  6. 請求項1に記載のシステムであって、前記複数のアナログ入力信号が電圧を含み、前記複数のアナログ出力信号が電流を含み、またはその逆である、システム。
  7. 請求項1に記載のシステムであって、
    前記複数のアナログ入力信号が電圧を含み、前記複数のアナログ出力信号が電流を含み、前記回路層が、
    前記複数の電極に結合された複数の増幅器をさらに含み、前記複数の電極の前記入力セットに結合された増幅器が、サンプルホールド(SAH)増幅器として構成され、前記入力セットに前記複数のアナログ入力信号を書き込むように構成され、前記複数の前記電極の前記出力セットに結合された増幅器が、電流感知増幅器として構成され、前記複数のアナログ出力信号を読み出すように構成される、
    システム。
  8. 請求項1に記載のシステムであって、前記複数の電極が、ニューラルネットワーク層にニューロンを含む、システム。
  9. 請求項1に記載のシステムであって、前記複数の電極および前記ランダムに形成されたメッシュが、コンダクタンスの行列を含む、システム。
  10. 請求項8に記載のシステムであって、コンダクタンスの前記行列が、温度駆動型の相変化メモリ機構、ユニポーラ抵抗スイッチング、およびバイポーラメモリスタ機構のうちの1つまたは複数を使用して調整可能である、システム。
  11. 疎結合ベクトル−行列乗算の方法であって、
    シリコン基板に複数の電極を提供するステップと、
    ランダムに配置された同軸ナノワイヤの層を前記複数の電極に形成するステップと、
    複数のデジタル入力信号を受信するステップと、
    前記複数のデジタル入力信号を複数のアナログ入力信号に変換するステップと、
    前記複数のアナログ入力信号を前記複数の電極の入力セットに書き込むステップと、
    前記複数の電極の出力セットから複数のアナログ出力信号を読み出すステップと、
    前記複数のアナログ出力信号を複数のデジタル出力信号に変換するステップと、
    前記複数のデジタル出力信号を出力するステップと
    を含む方法。
  12. 請求項11に記載の方法であって、前記同軸ナノワイヤが、二端子不揮発性メモリ(NVM)材料で被包された金属コアを含む、方法。
  13. 請求項12に記載の方法であって、前記NVM材料が、電圧制御された抵抗、メモリスタ、相変化材料(PCM)、および抵抗変化型メモリ(ReRAM)材料のうちの1つまたは複数を含む、方法。
  14. 請求項11に記載の方法であって、
    前記複数の前記電極にバイアス電圧を選択的に提供して、前記複数の前記電極への電圧の書込み、または前記複数の前記電極からの電流の読出しをイネーブルにするステップ
    をさらに含む、方法。
  15. 請求項11に記載の方法であって、電圧制御された抵抗が、前記複数の前記電極と、前記ランダムに配置された同軸ナノワイヤとの交点に形成され、前記方法が、前記複数の前記電極に訓練電圧を選択的に提供して、前記電圧制御された抵抗を調節することをさらに含む、方法。
  16. 請求項15に記載の方法であって、前記複数の前記電極のうちのどの電極が前記訓練電圧を印加されるかを示す訓練信号を受信するステップをさらに含む、方法。
  17. 請求項11に記載の方法であって、前記複数の前記電極が、ニューラルネットワーク層にニューロンを含む、方法。
  18. 請求項11に記載の方法であって、前記複数の前記電極、およびランダムに配置された同軸ナノワイヤの前記層が、コンダクタンスの行列を形成し、前記コンダクタンスが、勾配降下を実行することによって調整される、方法。
  19. 請求項11に記載の方法であって、前記複数のアナログ入力信号が電圧を含み、前記複数のアナログ出力信号が電流を含む、方法。
  20. 請求項11に記載の方法であって、前記入力セットおよび前記出力セットが、前記複数の電極のうちの前記電極の半数をそれぞれ含む、方法。
JP2020551826A 2018-04-05 2019-04-05 効率的な行列乗算のためのシステムおよび方法 Active JP7130766B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862653194P 2018-04-05 2018-04-05
US62/653,194 2018-04-05
PCT/US2019/025961 WO2019195660A1 (en) 2018-04-05 2019-04-05 Systems and methods for efficient matrix multiplication

Publications (2)

Publication Number Publication Date
JP2021518615A true JP2021518615A (ja) 2021-08-02
JP7130766B2 JP7130766B2 (ja) 2022-09-05

Family

ID=68063847

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020551826A Active JP7130766B2 (ja) 2018-04-05 2019-04-05 効率的な行列乗算のためのシステムおよび方法

Country Status (5)

Country Link
US (3) US10430493B1 (ja)
EP (1) EP3776271A4 (ja)
JP (1) JP7130766B2 (ja)
KR (1) KR102449941B1 (ja)
WO (1) WO2019195660A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3090431A1 (en) 2018-02-26 2019-08-29 Orpyx Medical Technologies Inc. Resistance measurement array
EP3776271A4 (en) * 2018-04-05 2022-01-19 Rain Neuromorphics Inc. SYSTEMS AND METHODS FOR EFFICIENT MATRIX MULTIPLICATION
US10440341B1 (en) * 2018-06-07 2019-10-08 Micron Technology, Inc. Image processor formed in an array of memory cells
KR102105936B1 (ko) * 2018-06-25 2020-05-28 포항공과대학교 산학협력단 웨이트 행렬 입력 회로 및 웨이트 행렬 회로
US11132423B2 (en) * 2018-10-31 2021-09-28 Hewlett Packard Enterprise Development Lp Partition matrices into sub-matrices that include nonzero elements
US12008475B2 (en) * 2018-11-14 2024-06-11 Nvidia Corporation Transposed sparse matrix multiply by dense matrix for neural network training
US11184446B2 (en) 2018-12-05 2021-11-23 Micron Technology, Inc. Methods and apparatus for incentivizing participation in fog networks
US20200194501A1 (en) * 2018-12-13 2020-06-18 Tetramem Inc. Implementing phase change material-based selectors in a crossbar array
US11256778B2 (en) 2019-02-14 2022-02-22 Micron Technology, Inc. Methods and apparatus for checking the results of characterized memory searches
US11327551B2 (en) 2019-02-14 2022-05-10 Micron Technology, Inc. Methods and apparatus for characterizing memory devices
US12118056B2 (en) * 2019-05-03 2024-10-15 Micron Technology, Inc. Methods and apparatus for performing matrix transformations within a memory array
JP7062617B2 (ja) * 2019-06-26 2022-05-06 株式会社東芝 演算装置および演算方法
US10867655B1 (en) 2019-07-08 2020-12-15 Micron Technology, Inc. Methods and apparatus for dynamically adjusting performance of partitioned memory
US11449577B2 (en) 2019-11-20 2022-09-20 Micron Technology, Inc. Methods and apparatus for performing video processing matrix operations within a memory array
CN111026700B (zh) * 2019-11-21 2022-02-01 清华大学 实现加速的存内计算架构及其加速方法
US11853385B2 (en) 2019-12-05 2023-12-26 Micron Technology, Inc. Methods and apparatus for performing diversity matrix operations within a memory array
KR20210071471A (ko) * 2019-12-06 2021-06-16 삼성전자주식회사 뉴럴 네트워크의 행렬 곱셈 연산을 수행하는 장치 및 방법
US11450712B2 (en) 2020-02-18 2022-09-20 Rain Neuromorphics Inc. Memristive device
WO2021262730A1 (en) * 2020-06-25 2021-12-30 Rain Neuromorphics Inc. Lithographic memristive array
CN113094791B (zh) * 2021-04-13 2024-02-20 笔天科技(广州)有限公司 一种基于矩阵运算的建筑数据分析处理方法
CN115424646A (zh) * 2022-11-07 2022-12-02 上海亿铸智能科技有限公司 面向忆阻器阵列的存算一体稀疏感知灵敏放大器及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003263624A (ja) * 2002-03-07 2003-09-19 Matsushita Electric Ind Co Ltd ニューラル・ネットワーク装置の学習演算回路
JP2005182785A (ja) * 2003-12-09 2005-07-07 Microsoft Corp グラフィックス処理ユニットを使用して機械学習技術の処理を速め、最適化するシステムおよび方法
US20170228345A1 (en) * 2016-02-08 2017-08-10 Spero Devices, Inc. Analog Co-Processor
JP2017527000A (ja) * 2014-06-19 2017-09-14 ユニバーシティ オブ フロリダ リサーチ ファンデーション インコーポレーティッド メムリスティブナノファイバーニューラルネットワーク

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0185757B1 (ko) 1994-02-14 1999-05-15 정호선 혼돈 순환 신경회로망의 학습방법
JPH09185596A (ja) 1996-01-08 1997-07-15 Ricoh Co Ltd パルス密度型信号処理回路網における結合係数更新方法
US7392230B2 (en) 2002-03-12 2008-06-24 Knowmtech, Llc Physical neural network liquid state machine utilizing nanotechnology
WO2008042900A2 (en) 2006-10-02 2008-04-10 University Of Florida Research Foundation, Inc. Pulse-based feature extraction for neural recordings
WO2009134291A2 (en) * 2008-01-21 2009-11-05 President And Fellows Of Harvard College Nanoscale wire-based memory devices
US20120036919A1 (en) * 2009-04-15 2012-02-16 Kamins Theodore I Nanowire sensor having a nanowire and electrically conductive film
US8050078B2 (en) 2009-10-27 2011-11-01 Hewlett-Packard Development Company, L.P. Nanowire-based memristor devices
US8433665B2 (en) 2010-07-07 2013-04-30 Qualcomm Incorporated Methods and systems for three-memristor synapse with STDP and dopamine signaling
KR20140071813A (ko) 2012-12-04 2014-06-12 삼성전자주식회사 파이버 상에 형성된 저항성 메모리 소자 및 그 제종 방법
US10198691B2 (en) 2014-06-19 2019-02-05 University Of Florida Research Foundation, Inc. Memristive nanofiber neural networks
JP6594945B2 (ja) * 2014-07-07 2019-10-23 プロヴェナンス アセット グループ エルエルシー 検知デバイスおよびその製造方法
US9934463B2 (en) * 2015-05-15 2018-04-03 Arizona Board Of Regents On Behalf Of Arizona State University Neuromorphic computational system(s) using resistive synaptic devices
EP3262571B1 (en) * 2016-03-11 2022-03-02 Hewlett Packard Enterprise Development LP Hardware accelerators for calculating node values of neural networks
US10762426B2 (en) 2016-08-12 2020-09-01 Beijing Deephi Intelligent Technology Co., Ltd. Multi-iteration compression for deep neural networks
US10171084B2 (en) * 2017-04-24 2019-01-01 The Regents Of The University Of Michigan Sparse coding with Memristor networks
US20180336470A1 (en) 2017-05-22 2018-11-22 University Of Florida Research Foundation, Inc. Deep learning in bipartite memristive networks
US11538989B2 (en) * 2017-07-31 2022-12-27 University Of Central Florida Research Foundation, Inc. 3-D crossbar architecture for fast energy-efficient in-memory computing of graph transitive closure
EP3776271A4 (en) * 2018-04-05 2022-01-19 Rain Neuromorphics Inc. SYSTEMS AND METHODS FOR EFFICIENT MATRIX MULTIPLICATION

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003263624A (ja) * 2002-03-07 2003-09-19 Matsushita Electric Ind Co Ltd ニューラル・ネットワーク装置の学習演算回路
JP2005182785A (ja) * 2003-12-09 2005-07-07 Microsoft Corp グラフィックス処理ユニットを使用して機械学習技術の処理を速め、最適化するシステムおよび方法
JP2017527000A (ja) * 2014-06-19 2017-09-14 ユニバーシティ オブ フロリダ リサーチ ファンデーション インコーポレーティッド メムリスティブナノファイバーニューラルネットワーク
US20170228345A1 (en) * 2016-02-08 2017-08-10 Spero Devices, Inc. Analog Co-Processor

Also Published As

Publication number Publication date
US20190311018A1 (en) 2019-10-10
US10990651B2 (en) 2021-04-27
US10430493B1 (en) 2019-10-01
WO2019195660A1 (en) 2019-10-10
JP7130766B2 (ja) 2022-09-05
KR102449941B1 (ko) 2022-10-06
EP3776271A1 (en) 2021-02-17
US20210216610A1 (en) 2021-07-15
US20200042572A1 (en) 2020-02-06
EP3776271A4 (en) 2022-01-19
KR20200124705A (ko) 2020-11-03

Similar Documents

Publication Publication Date Title
JP7130766B2 (ja) 効率的な行列乗算のためのシステムおよび方法
CN110352436B (zh) 用于神经网络训练的具有迟滞更新的电阻处理单元
JP7336819B2 (ja) 抵抗処理ユニット・アレイのクロスポイント・デバイスに重みを記憶するための方法、そのクロスポイント・デバイス、ニューラル・ネットワークを実施するためのクロスポイント・アレイ、そのシステム、およびニューラル・ネットワークを実施するための方法
US9466362B2 (en) Resistive cross-point architecture for robust data representation with arbitrary precision
US10692570B2 (en) Neural network matrix multiplication in memory cells
TWI661428B (zh) 神經形態權重單元及其形成的方法以及人工神經網路
Rajendran et al. Neuromorphic computing based on emerging memory technologies
US20190122105A1 (en) Training of artificial neural networks
US9852006B2 (en) Consolidating multiple neurosynaptic core circuits into one reconfigurable memory block maintaining neuronal information for the core circuits
WO2022222498A1 (zh) 基于忆阻器阵列的数据处理方法、电子装置
CN112005252B (zh) 具有单独权重更新和干扰电路的电阻式处理单元架构
US11157803B2 (en) Neuromorphic device including a synapse having a variable resistor and a transistor connected in parallel with each other
Dong et al. Convolutional neural networks based on RRAM devices for image recognition and online learning tasks
Hu et al. Dot-product engine as computing memory to accelerate machine learning algorithms
JP2022502760A (ja) アナログ・クロスポイント・アレイにおいて対称点をゼロ重み点として一致させるためのアライメント方法、そのベクトル行列
JP7357079B2 (ja) 相変化メモリの閉ループ・プログラミング
CN108154225B (zh) 一种使用模拟计算的神经网络芯片
Jain et al. Neural network accelerator design with resistive crossbars: Opportunities and challenges
US10832773B1 (en) Architecture for enabling zero value shifting
KR102514931B1 (ko) 확장 가능한 뉴로모픽 회로
CN113994346A (zh) 具有突触电子学和cmos集成记忆电阻器的可扩展集成电路
Zhou et al. Synchronous Unsupervised STDP Learning with Stochastic STT-MRAM Switching
CN114143412B (zh) 图像处理方法和图像处理装置
CN114004343B (zh) 基于忆阻器脉冲耦合神经网络的最短路径获取方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211116

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220824

R150 Certificate of patent or registration of utility model

Ref document number: 7130766

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150