JP2021507349A - 抵抗処理ユニット・アレイのクロスポイント・デバイスに重みを記憶するための方法、そのクロスポイント・デバイス、ニューラル・ネットワークを実施するためのクロスポイント・アレイ、そのシステム、およびニューラル・ネットワークを実施するための方法 - Google Patents

抵抗処理ユニット・アレイのクロスポイント・デバイスに重みを記憶するための方法、そのクロスポイント・デバイス、ニューラル・ネットワークを実施するためのクロスポイント・アレイ、そのシステム、およびニューラル・ネットワークを実施するための方法 Download PDF

Info

Publication number
JP2021507349A
JP2021507349A JP2020531461A JP2020531461A JP2021507349A JP 2021507349 A JP2021507349 A JP 2021507349A JP 2020531461 A JP2020531461 A JP 2020531461A JP 2020531461 A JP2020531461 A JP 2020531461A JP 2021507349 A JP2021507349 A JP 2021507349A
Authority
JP
Japan
Prior art keywords
crosspoint
resistor
resistance
array
counter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020531461A
Other languages
English (en)
Other versions
JP2021507349A5 (ja
JP7336819B2 (ja
Inventor
コスワッタ、シユランガ
リ、ユーロン
ソロモン、ポール、マイケル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2021507349A publication Critical patent/JP2021507349A/ja
Publication of JP2021507349A5 publication Critical patent/JP2021507349A5/ja
Application granted granted Critical
Publication of JP7336819B2 publication Critical patent/JP7336819B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03KPULSE TECHNIQUE
    • H03K19/00Logic circuits, i.e. having at least two inputs acting on one output; Inverting circuits
    • H03K19/20Logic circuits, i.e. having at least two inputs acting on one output; Inverting circuits characterised by logic function, e.g. AND, OR, NOR, NOT circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Abstract

【課題】ニューラル・ネットワークを実施するための、抵抗処理ユニット(RPU)アレイのクロスポイント・デバイスに重みを記憶するための方法を提供。【解決手段】クロスポイント・デバイスの一組の単一ビット・カウンタからの各単一ビット・カウンタの状態を設定するステップを含み、単一ビット・カウンタの状態がクロスポイント・デバイスに記憶される重みを表す。クロスポイント・デバイスの抵抗器デバイスの電気コンダクタンスを調整するステップをさらに含む。抵抗器デバイスは、一組の抵抗回路を含み、各抵抗回路が一組の単一ビット・カウンタからのそれぞれの単一ビット・カウンタに関連付けられ、電気抵抗が、関連付けられた単一ビット・カウンタの状態に従って各抵抗回路を活性化または非活性化することによって調整される。【選択図】図17

Description

本発明は、一般に、本明細書ではプログラム可能で再構成可能な人工ニューラル・ネットワーク用のカウンタ・ベースの抵抗処理ユニット(RPU:resistive processing unit)と呼ばれる、トレーニング可能な抵抗クロスポイント・デバイスの構成に関する。より詳細には、本発明は、RPU以外の追加の処理要素を必要としないローカル・データ記憶およびローカル・データ処理を提供し、それによって行列反転(matrix inversion)、行列分解(matrix decomposition)などのアルゴリズムを実施するANNの能力を加速する、抵抗処理ユニット(RPU)のクロスバー・アレイから形成された人工ニューラル・ネットワーク(ANN)に関する。
コンピュータによる文字認識および画像認識などの技術的問題は、機械学習技術によってうまく処理されることが知られている。「機械学習」は、データから学習する電子システムの主要な機能を広く説明するために使用される。機械学習および認知科学では、ANNは、動物の生体ニューラル・ネットワーク、特に脳に発想を得た統計学習モデルのファミリーである。ANNを使用して、多数の入力に依存する、一般に未知であるシステムおよび機能を推定または近似することができる。クロスバー・アレイは、ANNアーキテクチャ、ニューロモーフィック・マイクロチップ、超高密度不揮発性メモリを含む、様々な電子回路およびデバイスを形成するために使用される高密度、低コストの回路アーキテクチャである。基本的なクロスバー・アレイ構成は、一組の導電性行ワイヤ、および一組の導電性行ワイヤと交差するように形成された一組の導電性列ワイヤを含む。2組のワイヤ間の交差部は、いわゆるクロスポイント・デバイスによって分離される。
本発明は、抵抗処理ユニット(RPU)アレイのクロスポイント・デバイスに重みを記憶するための方法、そのクロスポイント・デバイス、ニューラル・ネットワークを実施するためのクロスポイント・アレイ、そのシステム、およびニューラル・ネットワークを実施するための方法を提供する。
本発明の一実施形態によると、クロスポイント・デバイスに重みを記憶するための方法は、クロスポイント・デバイスの一組の単一ビット・カウンタからの各単一ビット・カウンタの状態を設定するステップを含み、単一ビット・カウンタの状態が、クロスポイント・デバイスに記憶される重みを表す。本方法は、クロスポイント・デバイスの抵抗器デバイスの電気コンダクタンスを調整するステップをさらに含む。抵抗器デバイスは、一組の抵抗回路を含み、各抵抗回路は、一組の単一ビット・カウンタからのそれぞれの単一ビット・カウンタに関連付けられている。抵抗器デバイスの電気コンダクタンスは、関連付けられた単一ビット・カウンタの状態に従って各抵抗回路を活性化または非活性化することによって調整される。
本発明の一実施形態によると、クロスポイント・デバイスは、一組の単一ビット・カウンタを有するカウンタを含み、単一ビット・カウンタの状態が、クロスポイント・デバイスに記憶される重みを表す。抵抗器デバイスは、一組の抵抗回路を含み、各抵抗回路は、一組の単一ビット・カウンタからのそれぞれの単一ビット・カウンタに関連付けられている。抵抗回路は、関連付けられた単一ビット・カウンタの状態に従って活性化または非活性化され、抵抗器デバイスの電気コンダクタンスは、活性化された抵抗回路に少なくとも部分的に基づいて調整される。
本発明の一実施形態によると、ニューラル・ネットワークを実施するためのシステムは、複数のノードを含むクロスポイント・アレイを含み、各ノードがニューラル・ネットワークのニューロン間の接続を表し、各ノードがノードに割り当てられた重みを記憶する。クロスポイント・アレイは、各ノードにクロスポイント・デバイスを含む。クロスポイント・デバイスは、複数の単一ビット・カウンタを有するカウンタを含み、単一ビット・カウンタの状態がクロスポイント・デバイスに記憶される重みを表す。さらに、クロスポイント・デバイスは、複数の抵抗回路を有する抵抗器デバイスを含み、各抵抗回路が、単一ビット・カウンタからのそれぞれの単一ビット・カウンタに関連付けられている。抵抗回路は、関連付けられた単一ビット・カウンタの状態に従って活性化または非活性化され、抵抗器デバイスの電気コンダクタンスが、活性化された抵抗回路に少なくとも部分的に基づいて調整される。さらに、グローバル・コントローラがクロスポイント・アレイの各クロスポイント・デバイスに記憶された値を調整する。
本発明の一実施形態によると、ニューラル・ネットワークを実施するためのクロスポイント・アレイは、クロスポイント・デバイスがクロスポイント・アレイの各ノードにある、一組のクロスポイント・デバイスを含み、各ノードがニューラル・ネットワークのニューロン間の接続を表し、各ノードがノードに割り当てられた重みを記憶する。クロスポイント・デバイスは、一組の単一ビット・カウンタを有するカウンタを含み、単一ビット・カウンタの状態が、クロスポイント・デバイスに記憶される重みを表す。抵抗器デバイスは、一組の抵抗回路を含み、各抵抗回路は、一組の単一ビット・カウンタからのそれぞれの単一ビット・カウンタに関連付けられている。抵抗回路は、関連付けられた単一ビット・カウンタの状態に従って活性化または非活性化され、抵抗器デバイスの電気コンダクタンスが、活性化された抵抗回路に少なくとも部分的に基づいて調整される。
本発明の一実施形態によると、ニューラル・ネットワークを実施するための方法は、グローバル・コントローラによって、クロスポイント・アレイにロードされるマトリックスを選択するステップを含み、マトリックスがニューラル・ネットワークの2つの層間の接続に対応する。本方法は、クロスポイント・アレイのクロスポイントにおけるローカル・コントローラによって、クロスポイントに関連付けられたクロスポイント・デバイスの重み値をロードするステップをさらに含み、重み値が、選択されたマトリックスのクロスポイントに割り当てられる。さらに、本方法は、クロスポイント・デバイスによって、クロスポイントに関連付けられた抵抗器デバイスのコンダクタンスを調整するステップを含み、コンダクタンスがクロスポイント・デバイスにロードされた重み値に対応する。
追加の技術的特徴および利点は、本発明の技術を通じて実現される。本発明の実施形態は、本明細書で詳細に説明され、特許請求される主題の一部と見なされる。より良好な理解のために、詳細な説明および図面を参照されたい。
本明細書に記載される例は、以下の図を参照してよりよく理解されるであろう。図における構成要素は、必ずしも縮尺通りではない。さらに、図において、同様の参照番号は、異なる図の全体を通して対応する部分を示す。
生体ニューロンの入力および出力接続の簡略図である。 図1に示す生体ニューロンの簡略化されたモデルである。 図2に示す生体ニューロンのモデルを組み込んだANNの簡略化されたモデルを示す図である。 重み更新方法の簡略化されたブロック図である。 本発明の一実施形態による重みのアレイを含むANNの図である。 本発明の一実施形態によるRPUデバイスのクロスバー・アレイを、RPUの動作を示す電圧シーケンスとともに示す図である。 本発明の一実施形態による、RPUアレイのクロスポイント・デバイスとして使用することができるカウンタ・ベースのRPUを示す図である。 カウンタの状態に少なくとも部分的に基づいた抵抗器デバイスの調整可能な抵抗である。 幅に少なくとも部分的に基づいてFETの抵抗/コンダクタンスを変化させることを示す図である。 ゲート長に少なくとも部分的に基づいてFETの抵抗/コンダクタンスを変化させることを示す図である。 垂直の幾何学的形状を使用した可変抵抗/コンダクタンスを有する抵抗器デバイスの例を示す図である。 本発明の一実施形態による、RPUアレイのクロスポイント・デバイスとして使用することができるカウンタ・ベースのRPUを示す図である。 抵抗器ラダーを有するRPUがRPUアレイのクロスポイント・デバイスとしてどのように接続されるかを示す図である。 RPUおよび接続回路を使用して実行される順方向伝搬パスを示す図である。 RPUおよび接続回路を使用して実行される逆方向伝搬パスを示す図である。 RPUデバイスを使用するRPUアレイを示す図である。 RPUデバイスを使用するRPUアレイ内のデータフローを示す図である。
本明細書に示される図は、例示的なものである。本発明の思想から逸脱することなく、本明細書に記載される図または動作に対して多くの変形形態があり得る。例えば、アクションは、異なる順序で実行することができ、またはアクションは、追加、削除、または変更することができる。また、「結合された」という用語およびその変形形態は、2つの要素間に通信経路を有することを表し、それらの間に介在する要素/接続がない要素間の直接的な接続を意味するものではない。これらの変形形態はすべて、本明細書の一部と考えられる。
本発明の様々な実施形態は、関連する図面を参照して本明細書で説明される。本発明の範囲から逸脱することなく本発明の代替の実施形態を考案することができる。以下の説明および図面において、様々な接続および位置関係(例えば、上、下、隣接など)が要素間に記載されている。これらの接続または位置関係あるいはその両方は、別段の規定がない限り、直接的または間接的であってもよく、本発明は、この点に関して限定的であることは意図されていない。したがって、エンティティの結合は、直接的または間接的な結合のいずれかを指すことができ、エンティティ間の位置関係は、直接的または間接的な位置関係であってもよい。さらに、本明細書で説明される様々なタスクおよびプロセス・ステップは、本明細書で詳細に説明されない追加のステップまたは機能を有する、より包括的な手順またはプロセスに組み込むことができる。
以下の定義および略語は、特許請求の範囲および本明細書の解釈のために使用されるべきである。本明細書で使用されるとき、用語「備える」、「備えている」、「含む」、「含んでいる」、「有する」、「有している」、「含有する」、または「含有している」、あるいはそれらの任意の他の変形形態は、非排他的な包含を含むことが意図されている。例えば、要素の列挙を含む組成物、混合物、プロセス、方法、物品、または装置は、必ずしもそれらの要素だけに限定されず、明示的に列挙されていない、またはそのような組成物、混合物、プロセス、方法、物品、もしくは装置に固有の他の要素を含むことができる。
さらに、「例示的」という用語は、本明細書では、「例、実例、または例示として役立つ」ことを意味するために使用される。「例示的」として本明細書に記載される任意の実施形態または設計は、他の実施形態または設計よりも好ましいもしくは有利であると必ずしも解釈されるべきではない。「少なくとも1つ」および「1つまたは複数」という用語は、1以上の任意の整数、すなわち1、2、3、4などを含むものと理解することができる。「複数」という用語は、2以上の任意の整数、すなわち2、3、4、5などを含むものと理解することができる。「接続」という用語は、間接的な「接続」および直接的な「接続」を含むことができる。
「約」、「実質的に」、「およそ」、およびそれらの変形形態の用語は、出願を申請する時点で利用可能な機器に基づいた特定の量の測定値に関連付けられた誤差の程度を含むことが意図されている。例えば、「約」は、所与の値の±8%、または5%、または2%の範囲を含むことができる。
簡潔にするために、本発明の態様を作成および使用することに関連する従来の技法は、本明細書で詳細に説明されることがあり、またはされないことがある。特に、本明細書に記載されている様々な技術的特徴を実施するためのコンピューティング・システムおよび特定のコンピュータ・プログラムの様々な態様は、よく知られている。したがって、簡潔にするために、多くの従来の実施態様の詳細は、よく知られているシステムまたはプロセスあるいはその両方の詳細を提供することなく、本明細書で簡単に言及されるか、または完全に省略される。
本発明の1つまたは複数の実施形態は、脳の構造および機能のモデリングに特に重点を置いた生体ニューラル・ネットワークの文脈で説明されているが、本明細書で引用される教示の実施は、特定の環境のモデリングに限定されないことがあらかじめ理解されているものとする。むしろ、本発明の実施形態は、環境への様々な入力をベクトルに転換することができる限り、例えば、気象パターン、インターネットから収集された任意のデータなどを含む、任意のタイプの環境をモデル化することが可能である。
人工ニューラル・ネットワーク(ANN)を使用して、多数の入力に依存する、一般に未知のシステムおよび機能を推定または近似することができる。ニューラル・ネットワークは、相互接続された「ニューロン」の概念に基づくクラスのアルゴリズムを使用する。典型的なニューラル・ネットワークでは、ニューロンは、入力に対して動作する所与の活性化関数(activation function)を有する。適切な接続の重みを決定すること(「トレーニング」とも呼ばれるプロセス)によって、ニューラル・ネットワークは、画像や文字などの所望のパターンの認識を効率的に行う。多くの場合、これらのニューロンは、グループ間の接続をより明確にし、値をそれぞれ計算するために、「層」にグループ化される。ニューラル・ネットワークのトレーニングは、計算量の多いプロセスである。
ANNは、多くの場合、シミュレートされた「ニューロン」として機能し、電子信号の形態で互いに「メッセージ」を交換する、相互接続されたプロセッサ要素のいわゆる「ニューロモーフィック」システムとして具現化される。生体ニューロン間でメッセージを伝達するシナプス神経伝達物質接続のいわゆる「可塑性」と同様に、シミュレートされたニューロン間で電子メッセージを伝達するANNの接続には、所与の接続の強弱に対応する数値的な重みが付けられている。ANNが入力に適応し、学習することができるように、重みは、経験に基づいて調節および調整され得る。例えば、手書き認識用のANNは、入力画像のピクセルによって活性化することができる一組の入力ニューロンによって定義される。ネットワークの設計者によって決定された関数によって重み付けされ、変換された後、これらの入力ニューロンの活性化は、その後、「隠れ(hidden)」ニューロンとしばしば呼ばれる他の下流のニューロンに渡される。このプロセスは、出力ニューロンが活性化されるまで繰り返される。活性化された出力ニューロンは、どの文字が読み取られたかを判定する。
クロスバー・アレイは、クロスポイント・アレイまたはクロスワイヤ・アレイとも呼ばれ、ANNアーキテクチャ、ニューロモーフィック・マイクロチップ、超高密度不揮発性メモリなどの、様々な電子回路およびデバイスを形成するために使用される高密度、低コストの回路アーキテクチャである。基本的なクロスバー・アレイ構成は、一組の導電性行ワイヤ、および一組の導電性行ワイヤと交差するように形成された一組の導電性列ワイヤを含む。2組のワイヤ間の交差部は、薄膜材料から形成することができる、いわゆるクロスポイント・デバイスによって分離される。
クロスポイント・デバイスは、事実上、ニューロン間のANNの重み付けされた接続として機能する。ナノスケール・デバイス、例えば、「理想的な」導通状態のスイッチング特性を有するメモリスタは、高いエネルギー効率でシナプス可塑性をエミュレートするために、クロスポイント・デバイスとしてしばしば使用される。理想的なメモリスタ材料の導通状態(例えば、抵抗)は、行ワイヤと列ワイヤの個々のワイヤ間に印加される電圧を制御することによって変更することができる。デジタル・データは、高い導通状態または低い導通状態を実現するために、交差部におけるメモリスタ材料の導通状態を変更することによって記憶することができる。メモリスタ材料は、材料の導通状態を選択的に設定することによって、2つ以上の別個の導通状態を維持するようにプログラムすることもできる。メモリスタ材料の導通状態は、材料に電圧を印加し、ターゲット・クロスポイント・デバイスを通過する電流を測定することによって読み出すことができる。しかしながら、これまでのところ、メモリスタおよびその他の抵抗ランダム・アクセス・メモリ(RRAM)ベースのクロスポイント・デバイスには、ANNアプリケーションに有害ないくつかの実用上の欠点があり、著しいデバイス間ばらつき、および「セット(すなわち、抵抗を増分するための)」操作と「リセット(すなわち、抵抗を減分するための)」操作の非対称性が、2つのそのような主たる制約である。
消費電力を制限するために、ANNチップ・アーキテクチャのクロスポイント・デバイスは、しばしば、オフライン学習技術を利用するように設計されており、ターゲット関数の近似は、最初のトレーニング・フェーズが解決されると、変化しない。オフライン学習は、非常にわずかな電力しか引き出さないように、クロスバー・タイプのANNアーキテクチャのクロスポイント・デバイスを簡略化することができる。
電力消費がより低くなる可能性があるにもかかわらず、オフライン・トレーニングの実行は、トレーニング・データの入力−出力ペアを一致させるために、典型的には、トレーニング中にANNモデルのかなりな数の調整可能パラメータ(例えば、重み)を修正する必要があるため、困難であり、リソースを大量に消費する可能性がある。したがって、省電力のオフライン学習技法を優先するためにANNアーキテクチャのクロスポイント・デバイスを簡略化することは、典型的には、トレーニング速度およびトレーニング効率が最適化されないことを意味する。
電力消費を許容範囲内に維持する単純なクロスポイント・デバイスを提供すること、ならびにANNアーキテクチャのトレーニングの速度および効率を加速することにより、全体的なANNの性能が向上し、より幅広いANNアプリケーションが可能になる。したがって、本明細書では、アレイ内に記憶される対応する重みを表す調整可能なコンダクタンス(抵抗)を提供することができるカウンタ・ベースのクロスポイント・デバイスを使用して、クロスポイント・アレイを使用およびトレーニングすることを容易にする技術的解決策が記載される。さらに、重み記憶のための典型的なコンデンサ・ベースの実施態様と比較して、本明細書に記載される技術的解決策は、電荷損失(charge-loss)および更新電流に対する厳しい要件などの技術的課題に対処する。また、メモリスタまたはRRAMベースのクロスポイント・デバイスとは異なり、カウンタ・ベースのクロスポイント・デバイスは、デバイス間のばらつきが少なく(十分に確立された半導体技術プロセスによってもたらされる)、重み値のアップ・カウント対ダウン・カウントの理想的な対称性を有する。
本明細書に記載される技術的解決策は、特定のクロック・イベントに少なくとも部分的に基づいて、カウンタ・ベースのクロスポイント・デバイスによって記憶された値を更新することをさらに容易にする。クロック・イベントは、ニューラル・ネットワークを表すクロスポイント・アレイを容易にし、順方向または逆方向あるいはその両方の伝播後に記憶された重みを更新する。次いで、記憶された重みが、その後の順方向または逆方向あるいはその両方の伝播中に使用される。
RPUアレイのRPUとしてカウンタ・ベースのクロスポイント・デバイスを使用することにより、RPUアレイが従来のCMOS技術の堅牢性を有することが容易になる。さらに、デジタル・カウンタを使用することにより、重み増分の増加対減少の対称性が容易になる。さらに、カウンタ・ベースのクロスポイント・デバイスにより、RPUアレイが逆方向伝播に対して確率的並列更新アルゴリズム(stochastic parallel update algorithm)で動作することが容易になる。
1つまたは複数の例では、重み要素は、クロスポイント・デバイスのデジタル・カウンタ(例えば、J‐Kフリップ・フロップ・ベースのカウンタ)に記憶される。カウンタの各ビットは、クロスポイント・デバイスの抵抗回路のスタックからの1つまたは複数の抵抗回路に関連付けられている。カウンタのビットは、FETスタックの総抵抗が変換素子(すなわち、各RPUセルの抵抗器素子)として使用されるように、直列に接続されたFETのゲート端子を制御する。したがって、カウンタのビットは、さらに詳細に説明されるように、抵抗回路のスタックの総抵抗の制御を容易にする。
本発明の実施形態は、電子システムを対象としているが、参照および説明を容易にするために、電子システムの様々な態様は、例えば、ニューロン、可塑性およびシナプスなどの神経学的専門用語を使用して説明される。電子システムについての本明細書における議論または例示に対して、神経学的専門用語または神経学的省略表記の使用は、参照を容易にするためのものであり、記載された神経機能または神経構成要素の神経形態学的なANN等価物をカバーすることが意図されていることが理解されよう。
0と1を操作する従来のデジタル・モデルを利用する代わりに、ANNは、推定または近似されるコア・システム機能の実質的に機能的な等価物である処理要素間の接続を作成する。例えば、IBM(商標)のSyNapse(商標)コンピュータ・チップは、哺乳類の脳と同様の形態、機能、アーキテクチャを提供しようとする電子ニューロモーフィック・マシンの中心的な構成要素である。IBM SyNapseコンピュータ・チップは従来のコンピュータ・チップと同じ基本的なトランジスタ構成要素を使用しているが、そのトランジスタは、ニューロンの挙動およびそれらのシナプス接続を模倣するように構成されている。IBM SyNapseコンピュータ・チップは、100万強のシミュレートされた「ニューロン」のネットワークを使用して情報を処理し、この「ニューロン」が、生体ニューロン間のシナプス通信と同様の電気スパイクを使用して互いに通信する。IBM SyNapseアーキテクチャは、メモリ(すなわち、シミュレートされた「シナプス」)を読み出して単純な動作を実行するプロセッサの構成(すなわち、シミュレートされた「ニューロン」)を含む。異なるコアに典型的には配置されているこれらのプロセッサ間の通信は、オン・チップ・ネットワーク・ルータによって実行される。
ここで、図1、図2、および図3を参照して、典型的なANNがどのように動作するかについての一般的な説明を提供する。本明細書で前述したように、典型的なANNは、ニューロンと呼ばれる約1,000億の相互接続された細胞を含む人間の脳をモデル化している。図1は、図示するように構成および配置された、上流の入力112、114、下流の出力116、および下流の「他の」ニューロン118に接続する経路104、106、108、110を有する生体ニューロン102の簡略図を示す。各生体ニューロン102は、経路104、106、108、110を介して電気インパルスを送受信する。これらの電気インパルスの性質、およびそれらが生体ニューロン102においてどのように処理されるかが、主に全体的な脳の機能性の原因である。生体ニューロン間の経路接続は、強い場合と弱い場合がある。所与のニューロンが入力インパルスを受け取ると、ニューロンは、ニューロンの関数に従って入力を処理し、関数の結果を下流の出力または下流の「他の」ニューロンあるいはその両方に送信する。
生体ニューロン102は、図2に示す式によって表される数学関数f(x)を有するノード202として図2においてモデル化されている。ノード202は、入力212、214から電気信号を取得し、各入力212、214にそのそれぞれの接続経路204、206の強度を乗算し、入力の和を取り、その和を関数f(x)に渡して、結果216を生成し、この結果216を、最終出力または別のノードへの入力あるいはその両方とすることができる。本明細書では、アスタリスク(*)を使用して乗算を表している。弱い入力信号は、非常に小さな接続強度数で乗算されるため、弱い入力信号が関数に与える影響は非常に小さい。同様に、強い入力信号は、より強い接続強度数で乗算されるため、強い入力信号が関数に与える影響は大きい。関数f(x)は、設計選択であり、様々な関数を用いることができる。f(x)の例示的な設計選択は、双曲線正接関数(hyperbolic tangent function)であり、これは、前の和の関数(function of the previous sum)を取り、マイナス1とプラス1との間の数を出力する。
図3は、重み付けされた指向性グラフ(weighted directional graph)として編成された簡略化されたANNモデル300を示し、人工ニューロンは、ノード(例えば、302、308、316)であり、重み付けされた有向エッジ(directed edge)(例えば、m1〜m20)がノードを接続する。ANNモデル300は、ノード302、304、306が入力層ノードであり、ノード308、310、312、314が隠れ層ノードであり、ノード316、318が出力層ノードであるように編成されている。各ノードは、接続経路によって、隣接する層のすべてのノードに接続され、接続経路が、接続強度を有する指向性矢印m1〜m20として図3に示されている。1つの入力層、1つの隠れ層、および1つの出力層のみが示されているが、実際には、複数の入力層、隠れ層、および出力層が設けられてもよい。
人間の脳の機能性と同様に、ANN300の各入力層ノード302、304、306は、接続強度調整およびノード加算なしで、ソース(図示せず)から直接、入力x1、x2、x3を受け取る。したがって、図3の下部に列挙された式によって示されるように、y1=f(x1)、y2=f(x2)、およびy3=f(x3)である。各隠れ層ノード308、310、312、314は、その入力を、関連する接続経路に関連付けられた接続強度に従って、すべての入力層ノード302、304、306から受け取る。したがって、隠れ層ノード308では、y4=f(m1*y1+m5*y2+m9*y3)であり、ここで、*は、乗算を表す。図3の下部に示す関数y5〜y9を定義する式によって示されるように、隠れ層ノード310、312、314および出力層ノード316、318に対して、同様の接続強度乗算およびノード加算が実行される。
ANNモデル300は、データ・レコードを一度に1つ処理し、レコードの最初の任意の分類をレコードの既知の実際の分類と比較することによって「学習」する。「逆伝播」(すなわち、「誤差の逆方向伝播」)として知られるトレーニング方法論を使用して、最初のレコードの最初の分類からの誤差がネットワークにフィードバックされ、ネットワークの重み付き接続を2回目に修正するために使用され、このフィードバック・プロセスが引き続き何度も繰り返される。ANNのトレーニング・フェーズでは、各レコードの正しい分類がわかっており、したがって、出力ノードに「正しい」値を割り当てることができる。例えば、正しいクラスに対応するノードのノード値は、「1」(または0.9)であり、その他のノード値は、「0」(または0.1)である。したがって、出力ノードに対するネットワークの計算値をこれらの「正しい」値と比較し、各ノードの誤差項を計算することができる(すなわち、「デルタ」ルール)。次いで、これらの誤差項が、次の反復で出力値が「正しい」値に近づくように、隠れ層の重みを調整するために使用される。
ニューラル・ネットワークには多くのタイプがあるが、2つの最も広いカテゴリは、フィードフォワード・ネットワークおよびフィードバック/回帰ネットワーク(recurrent network)である。ANNモデル300は、入力、出力、および隠れ層を有する非回帰フィードフォワード・ネットワークである。信号は、一方向にのみ進むことができる。入力データは、計算を実行する処理要素の層上に渡される。各処理要素は、その入力の重み付けされた和に基づいてその計算を行う。次いで、新しい計算値が、次の層に供給される新しい入力値になる。このプロセスは、すべての層を通過して出力を決定するまで続く。しきい値伝達関数が、出力層のニューロンの出力を定量化するために使用されることがある。
フィードバック/回帰ネットワークは、フィードバック経路を含み、これは、信号がループを使用して両方向に進むことができることを意味する。ノード間の可能な接続のすべてが許可される。このタイプのネットワークにはループが存在するため、ある特定の動作の下では、このタイプのネットワークは、平衡状態に達するまで連続的に変化する非線形動的システム(non-linear dynamical system)となる可能性がある。フィードバック・ネットワークは、連想記憶(associative memory)および最適化問題においてしばしば使用され、ネットワークは、相互接続された因子の最良の配置を探す。
フィードフォワードおよび回帰ANNアーキテクチャにおける機械学習の速度および効率は、ANNクロスバー・アレイのクロスポイント・デバイスが、典型的な機械学習アルゴリズムのコア動作をどのように効果的に実行するかに依存する。機械学習の正確な定義は、定式化することが困難であるが、ANNコンテキストにおける学習プロセスは、ネットワークが特定のタスクを効率的に実行することができるようにクロスポイント・デバイスの接続重みを更新する問題と見なすことができる。クロスポイント・デバイスは、典型的には、利用可能なトレーニング・パターンから必要な接続重みを学習する。ネットワークの重みを繰り返し更新することによって、時間が経つにつれ性能が改善される。人間の専門家によって指定された一連のルールに従う代わりに、ANNは、代表的な例の所与のコレクションから(入出力関係のような)基本的なルールを「学習」する。したがって、学習アルゴリズムは、一般に、学習ルールを使用して、関連する重みを更新または調整あるいはその両方を行うための手順として定義することができる。
3つの主要な学習アルゴリズム・パラダイムは、教師あり、教師なし、およびハイブリッドである。教師あり学習(supervised learning)、または「教師」を伴う学習では、ネットワークに対して、すべての入力パターンに対する正解(出力)が提供される。重みは、ネットワークが既知の正解に可能な限り近い回答を生成することができるように決定される。強化学習(reinforcement learning)は、ネットワークには、正解自体ではなく、ネットワーク出力の正確性に関する評価(critique)のみが提供される教師あり学習の変形形態である。対照的に、教師なし学習(unsupervised learning)、または教師を伴わない学習では、トレーニング・データ・セットの各入力パターンに関連付けられた正解は、必要とされない。教師なし学習は、データの根本的な構造、またはデータ内のパターン間の相関関係を探索し、これらの相関関係からパターンをカテゴリに編成する。ハイブリッド学習は、教師あり学習と教師なし学習を組み合わせたものである。重みの部分は、通常、教師あり学習によって決定されるが、その他の部分は、教師なし学習によって取得される。
本明細書で前述したように、電力消費を制限するために、ANNチップ・アーキテクチャのクロスポイント・デバイスは、しばしば、オフライン学習技術を利用するように設計され、ターゲット関数の近似は、最初のトレーニング・フェーズが解決されると、変化しない。オフライン学習は、非常にわずかな電力しか引き出さないように、クロスバー・タイプのANNアーキテクチャのクロスポイント・デバイスを簡略化することができる。
電力消費がより低くなる可能性があるにもかかわらず、オフライン・トレーニングの実行は、トレーニング・データの入力−出力ペアを一致させるために、典型的には、トレーニング中にANNモデルのかなりな数の調整可能パラメータ(例えば、重み)を修正する必要があるため、困難であり、リソースを大量に消費する可能性がある。図4は、典型的な読み出し−処理−書き込み更新動作の簡略図を示し、CPU/GPUコア(すなわち、シミュレートされた「ニューロン」)がメモリ(すなわち、シミュレートされた「シナプス」)を読み出し、重み更新処理動作を実行し、次いで更新された重みをメモリに書き戻す。したがって、省電力のオフライン学習技法を優先するためにANNアーキテクチャのクロスポイント・デバイスを簡略化することは、典型的には、トレーニング速度およびトレーニング効率が最適化されないことを意味する。
図5は、人工ニューラル・ネットワーク(ANN)アーキテクチャ500を示す。フィードフォワード動作の間、一組の入力ニューロン502はそれぞれ、それぞれの行の重み504に対して並列に入力電圧を提供する。重み504は、本明細書に記載されるカウンタ・ベースの重み要素であるRPUデバイスなどのクロスポイント・デバイスである。重み504はそれぞれ、設定可能な抵抗値を有し、その結果、電流出力が、重み付けされた入力を表すように、重み504からそれぞれの隠れニューロン506に流れる。所与の重みによる電流出力は、

として決定され、ここで、Vは、入力ニューロン502からの入力電圧であり、rは、重み504の設定抵抗である。各重みからの電流は列ごとに加算され、隠れニューロン506に流れる。
隠れニューロン506は、重み504のアレイからの電流を使用して、いくつかの計算を実行する。次いで、隠れニューロン506は、それ自体の電圧を別のアレイの重み504’に出力する。このアレイは、同じ仕方で機能し、重み504’の列がそれぞれの隠れニューロン506から電圧を受け取って、行ごとに加算された重み付けされた電流出力を生成し、出力ニューロン508に提供する。
アレイの追加の層および隠れニューロン506を介在させることによって、任意の数のこれらのステージを実施することができることを理解されたい。
逆伝播の間、出力ニューロン508は、重み504’のアレイにわたって電圧を提供する。出力層は、生成されたネットワーク応答をトレーニング・データと比較し、誤差を計算する。誤差は、電圧パルスとしてアレイに印加され、パルスの高さまたは持続時間あるいはその両方が誤差値に比例して変調される。本例では、重み504’の行がそれぞれの出力ニューロン508から並列に電圧を受け取り、その電圧を電流に変換し、この電流を列ごとに加算して、隠れニューロン506への入力を提供する。隠れニューロン506は、重み付けされたフィードバック信号をそのフィードフォワード計算の導関数と組合せ、そのそれぞれの重み504の列にフィードバック信号電圧を出力する前に誤差値を記憶する。重み504’は、重み504と同じように動作し、ラベル付けは、重み504がニューロン502の層とニューロン506の層との間にあり、重み504’がニューロン506の層とニューロン508の層との間にあることを示すために提供されていることに留意されたい。この逆伝播は、すべての隠れニューロン506および入力ニューロン502が誤差値を記憶するまで、ネットワーク500全体を通して進む。
重み更新の間、入力ニューロン502および隠れニューロン506は、第1の重み更新電圧を重み504のクロスポイント・アレイに印加し、出力ニューロン508および隠れニューロン506は、第2の重み更新電圧を、ネットワーク500を介して重み504’のクロスポイント・アレイに印加する。さらに、重み504の更新フェーズの間に、入力層502は、入力値に比例する電圧パルスを(行ごとに)印加し、層506は、隠れ層506の誤差値に比例する電圧パルスを(列ごとに)印加する。さらに、ニューロン504’の更新フェーズの間に、隠れ層506は、そのフィードフォワード出力値に比例する電圧パルスを(列ごとに)印加し、出力層508は、出力層508の誤差に比例する電圧パルスを(行ごとに)印加する。これらの電圧の組合せにより、各重み504、504’内に状態変化が生じ、重み504、504’が新たなカウンタ値を取ることになり、ひいては抵抗値が変化する。このようにして、重み504、504’は、ニューラル・ネットワーク500をその処理における誤差に適合させるようにトレーニングすることができる。フィードフォワード、逆伝播、および重み更新という3つの動作モードは、互いに重複しないことに留意されたい。
ここで本発明の概要に移ると、本発明の実施形態は、ローカル・データ記憶機能およびローカル・データ処理機能を提供する、本明細書でクロスポイント・デバイスまたは抵抗処理ユニット(RPU)と呼ばれるプログラム可能な抵抗クロスポイント構成要素を対象とする。換言すると、データ処理を実行すると、各RPUに記憶された値が並列かつローカルに更新され、これにより、関連するデータをプロセッサおよび別の記憶素子に出し入れする必要がなくなる。さらに、記載されたRPUによって提供されるローカル・データ記憶およびローカル・データ処理は、行列反転、行列分解などのアルゴリズムを実施するANNの能力を加速させる。したがって、記載されたRPUを有する機械学習ANNアーキテクチャを実施することにより、ANNの速度、効率、および電力消費を最適化する実施態様が可能になる。記載されたRPUおよび結果として得られるANNアーキテクチャは、全体的なANN性能を向上させ、幅広い実用的なANNアプリケーションを可能にする。
記載されたRPUは、カウンタと、抵抗回路のスタックを含む抵抗器デバイスと、を含む抵抗クロスポイント・デバイスとして実施することができる。カウンタは、カウンタの各ビットを記憶および出力するデジタル回路を含む。各ビットは、抵抗回路のスタックからのそれぞれの抵抗回路に関連付けられている。各抵抗回路は、対応する所定のコンダクタンス(または抵抗)を提供する。1つまたは複数の例では、抵抗器デバイスのスタックからの抵抗回路のコンダクタンス値は、2次関数的な関係などの所定の関係を有する。ビットの状態(ON=1、OFF=0)に少なくとも部分的に基づいて、対応する抵抗回路は、その対応するコンダクタンスを抵抗器デバイスの総コンダクタンスに加算する。したがって、カウンタに記憶された値に少なくとも部分的に基づいて、抵抗器デバイスのコンダクタンス/抵抗を制御することができる。
図6は、RPUの動作を示す電圧シーケンスとともに、本発明を具現化する2端子の非線形RPUデバイスのクロスバー・アレイを示す。図6は、順方向行列乗算、逆方向行列乗算、および重み更新を実行する2次元(2D)クロスバー・アレイ800の図である。クロスバー・アレイ800は、一組の導電性行ワイヤ802、804、および806と、一組の導電性行ワイヤ802、804、806と交差する一組の導電性列ワイヤ808、810、812、および814と、から形成されている。一組の行ワイヤと一組の列ワイヤとの交差部は、RPUによって分離され、RPUは、それぞれが独自の調整可能/更新可能な抵抗重みを有する抵抗素子として図6に示され、σ11、σ21、σ31、σ41、σ12、σ22、σ32、σ42、σ13、σ23、σ33、およびσ43としてそれぞれ表されている。説明を容易にするために、図6では、1つのRPU820のみに参照番号が付けられている。順方向行列乗算では、RPUに電圧を印加し、RPUを通過する電流を測定することによって、RPUの導通状態(すなわち、記憶されている重み)を読み出すことができる。1つまたは複数の例では、クロスバー・アレイ800は、二組の導電性ワイヤ、すなわち二組の行および二組の列を含む。換言すれば、802、804、806、808、810、812、および814のそれぞれは、2つの導電性ワイヤを含む。順方向/逆方向の伝播は、第1の組のワイヤを介して行われ、更新は、第2の組のワイヤを介して行われる。
入力電圧V、V、Vは、行ワイヤ802、804、806にそれぞれ印加される。各列ワイヤ808、810、812、814は、特定の列ワイヤに沿って各RPUによって生成された電流I、I、I、Iを合計する。例えば、図6に示すように、列ワイヤ814によって生成される電流Iは、式I=Vσ41+Vσ42+Vσ43に従う。したがって、アレイ800は、RPUに記憶された値に、電圧V、V、Vによって規定される行ワイヤ入力を乗算し、各列の電流値を累積することによって順方向行列乗算を計算する。逆行列乗算(図示せず)は、非常に類似している。逆行列乗算では、列ワイヤ808、810、812、814に電圧が印加され、次いで、電流が行ワイヤ802、804、806から読み出され、累積される。以下でより詳細に説明する重み更新では、列ワイヤおよび行ワイヤに同時に電圧が印加され、関連するRPUデバイスに記憶されているコンダクタンス値がすべて並行して更新される。したがって、重み更新を実行するために必要な乗算および加算演算は、RPUデバイス自体に加えて、アレイ800の関連する行または列ワイヤを使用して、アレイ800の各RPU820においてローカルに実行される。
図6の図を引き続き参照すると、1つまたは複数の実施形態による、RPU820の正の重み更新方法論の動作、および導電性行ワイヤ806と導電性列ワイヤ812の交差部におけるその対応する重みσ33がここで提供される。2Dクロスバー・アレイ800のすべてのRPUに適用される確率的ビット・ストリーム(stochastic bit stream)の形態で必要な電圧パルスを生成するために、更新ジェネレータ回路(図示せず)がクロスバー・アレイ800の周辺に設けられ、周辺「トランスレータ」として使用される。
したがって、本明細書に記載されたRPUを含むクロスポイント・アレイを使用して実施されたANNを参照すると、アレイにおいて、各ノードの抵抗(またはコンダクタンス)の値がノード間の結合を決定し、ノードがアレイのRPUデバイスによって表される。さらに、ANNに従ってクロスポイント・アレイをトレーニングすると、所望の結合に応じて、抵抗(またはコンダクタンス)がデバイス間で異なるようになる。ニューラル・ネットワークをトレーニングするためには、抵抗値を能動的に調整する必要がある。トレーニングが完了すると、抵抗値は、新たなタスクのトレーニングが開始されるまで、クロスポイント・アレイ回路の動作中は固定されたままである。
図7は、1つまたは複数の実施形態による、RPUアレイにおいてクロスポイント・デバイスとして使用することができるカウンタ・ベースのRPUを表す。RPUデバイス820は、RPU820をクロスポイント・アレイ800に接続する一対の端子901、902を含む。
さらに、カウンタ・ベースのRPU820は、単一ビット・カウンタの組であるカウンタ920と、抵抗回路のスタックである抵抗器デバイス930と、を含む。図示するカウンタ・ベースのRPUでは、抵抗器デバイスは、抵抗回路としてトランジスタT1、T2、T3、およびT4を含む。トランジスタは、電界効果トランジスタ(FET)または任意の他のタイプのトランジスタとすることができる。しかしながら、他の実施形態では、抵抗器デバイス930は、抵抗器ラダー(図12)または任意の他のタイプの回路などの、他のタイプの抵抗回路を含み、これらを一緒に積み重ねて、本明細書に記載される技術的解決策によって提供されるような調整可能/制御可能な抵抗/コンダクタンスを提供することができる。
RPUアレイ800の第1の組の導電性ワイヤは、(重み値を更新するのとは対照的に)クロスポイント・デバイス820に記憶された重み値を読み出すために、クロスポイント・デバイス820の読み出し1 901および読み出し2 902端子と結合されている。RPUアレイ800の第2の組の導電性ワイヤは、RPUデバイス820の論理ゲート940およびアップ/ダウン・カウンタ920と結合されている。特に、第2の組のワイヤは、(a)デバイスの論理ゲート入力に接続し、共通の入射(incidence)の下でクロック・パルスを生成し、(b)カウンタのアップ/ダウン入力に接続して、記憶された重み値に従ってカウンタを調整する。第2の組のワイヤに使用される電圧は、論理ゲート940(例えば、ANDゲート)およびカウンタ920の正確な論理演算のために選択される(典型的には、0およびVDD)。さらに、第2の組の各列ワイヤは、2つのワイヤを含み、1つは後続の層−ニューロンの誤差値(δ)に比例する電圧パルスを伝達し、2つ目は誤差値の対応する符号(例えば、0V=−符号、VDD=+符号)を伝達して、クロック・パルスを増分/減分させる。
前述したように、順方向/逆方向の伝播は、第1の組の列および行のワイヤを使用して行われ、重み更新は、第2の別個の組のワイヤ(行および列)を介して行われる。順方向および逆方向の伝播の間、電圧パルスは、電流累積動作のために最適化された第1の組のワイヤのワイヤに印加される(すなわち、電圧値は、クロスポイント・デバイスがFET抵抗器スタックに基づいている場合、これらのFETが(飽和領域とは対照的に)線形領域で動作するように選択される)。一方、更新フェーズの間は、クロスバー・アレイ800の第2の組のワイヤが使用される。
カウンタ920からの各単一ビット・カウンタは、抵抗器デバイス930からのそれぞれの抵抗回路に対応する。図7に示す例では、カウンタ920は、抵抗器デバイス930からの4つの抵抗回路のスタックによってそれぞれマッピングされた4つのビットを含むことに留意されたい。しかしながら、他の例では、RPUは、本明細書に示すものとは異なる数の単一カウンタのビットおよび抵抗回路を含むことができる。
抵抗器デバイス930によって提供される抵抗/コンダクタンスは、クロスポイントに印加される電圧に少なくとも部分的に基づいて、RPU820によって出力される電流に影響を及ぼす。1つまたは複数の例では、抵抗回路のスタックは、直列に接続された抵抗回路を含む。したがって、抵抗器デバイス930の抵抗は、活性化された各抵抗回路の抵抗の合計である。抵抗器デバイス930からの抵抗回路は、カウンタ920からの対応する単一ビット・カウンタの状態に少なくとも部分的に基づいて活性化される。例えば、単一ビット・カウンタがセットされている場合(=1/ON)、対応する抵抗回路が活性化され、単一ビット・カウンタがセットされていない場合(=0/OFF)、対応する抵抗回路は、活性化されず、またはその逆も同様である。
さらに、一連の抵抗状態を生成するために、抵抗器デバイス930からの抵抗回路は、特定の制約を有する。例えば、抵抗回路は、表1に示すように2次関数的(quadratically)に増加する抵抗を有し、連続する各抵抗回路は、スタック内の前の抵抗回路の2倍の抵抗/コンダクタンスを有する。他の例では、抵抗回路は、本明細書の例とは異なる所定の関係を有することができることに留意されたい。
図8は、本発明の実施形態による、カウンタの状態に少なくとも部分的に基づいた抵抗器デバイスの調整可能な抵抗を示す。R1hi=T1のOFF状態の抵抗(例えば、100KΩ)およびR1low=T1のON状態の抵抗(例えば、10KΩ)であると考える。他の抵抗回路T2、T3、およびT4の抵抗は、抵抗回路間の関係、例えば、2次関数的な関係(表1)に少なくとも部分的に基づいて決定することができる。したがって、R2hi=2R1hi、R3hi=4R1hi、およびR4hi=8R1hiである。したがって、カウンタ920が1に設定されている場合、すなわち、T1のみがONに設定されている場合、抵抗器デバイス930の総抵抗は、R1low+R2hi+R3hi+R4hi=14R1hi+R1lowである。カウンタ920に記憶された値に従って抵抗器デバイス930の抵抗を変化させる他の構成が、図8に示されている。したがって、抵抗器デバイス930の抵抗は、(Rhi−Rlow)の刻みで直線的に変化する。
抵抗器デバイス930の抵抗回路間の関係は、抵抗器デバイス930がカウンタ値920に従って調整される直線的な刻みを変化させるように、変化させることができることに留意されたい。例えば、抵抗器デバイスで使用される抵抗回路がFETである場合、その関係は、FETの幅、長さ、しきい値電圧(Vt)またはバイアス電圧あるいはその組合せの、様々な組合せによって達成することができる。
図9は、本発明の実施形態による、FETの抵抗/コンダクタンスを、その幅に少なくとも部分的に基づいて変化させることを示す。FET T1、T2、T3、およびT4は、それぞれ、様々な幅w1、w2、w3、およびw4のソース962およびドレイン968を有し、ゲート965が実質的に同じゲート長Lを有する。幅w1、w2、w3、およびw4を、抵抗器デバイス930の抵抗/コンダクタンスを変化させるための関係に従って変化させる。例えば、幅w1は、w2の2倍、w2は、w3の2倍、w3は、w4の2倍であり、ここで、w4は、T4に割り当てられた所定のトランジスタ幅である。1つまたは複数の例では、抵抗回路として使用されるFETがFinFETである場合、フィンの数を変更することによって幅を変化させる。例えば、表2は、抵抗回路として使用されるFinFETのフィンの数を変化させることによって、抵抗器デバイス930からの抵抗回路の抵抗/コンダクタンスを変化させる4ビットの例を示す。
図10は、本発明の実施形態による、ゲート長に少なくとも部分的に基づいてFETの抵抗/コンダクタンスを変化させることを示す。この場合、FET T1、T2、T3、およびT4は、それぞれ、共通の幅wのソース962およびドレイン968と、異なるゲート長L1、L2、L3、およびL4を有するゲート965と、を有する。長さL1、L2、L3、およびL4を、抵抗器デバイス930の抵抗/コンダクタンスを変化させる関係に従って変化させる。例えば、長さL4は、L3の2倍、L3は、L2の2倍、L2は、L1の2倍であり、ここでL1は、L1に割り当てられた所定のトランジスタのゲート長である。
図11は、本発明の一実施形態による、垂直の幾何学的形状を使用した可変抵抗/コンダクタンスを有する抵抗器デバイス930の例を示す。ここでは、スタックFETは、垂直の幾何学的形状で製造されている。製造は、基板層上で実行される。基板は、二酸化シリコンを含むことができるBOX(埋め込み酸化物)層などの絶縁層の上に最上層またはシリコン層を含むシリコン・オン・インシュレータ・ウエハとすることができる。基板層は、N+シリコン基板層または任意の他のそのような材料とすることができる。
スペーサ層1010は、様々なFETのゲート用のゲート充填層1020の間にスペーサ層1010を堆積させることによって、スタック内の様々なFETを分離するために使用される。例えば、スペーサ1010は、SiNx層とすることができる。
ゲート充填1020は、アルミニウム、コバルト、銅、金、ハフニウム、ニッケル、パラジウム、プラチナ、モリブデン、ニオブ、ポリシリコン、ロジウム、銀、タンタル、窒化タンタル、スズ、窒化チタン、チタンタングステン、タングステン、バナジウム、ジルコニウム、導電性ポリマ、およびそれらの混合物からなるグループから選択されたものなどの、任意のタイプの導電性材料で構成することができる。
さらに、ゲート誘電体1030を使用して、ゲート充填層1020をスペーサおよびトランジスタチャネル1040から分離する。ゲート誘電体1030は、ヒ化アルミニウム、ヒ化アルミニウムガリウム、窒化アルミニウム、酸化アルミニウム、フッ化バリウム、酸化バリウムストロンチウムチタン、酸化バリウムチタン、フッ化カルシウム、フッ化セリウム、酸化セリウム、ヒ化ガリウム、アルミン酸ハフニウム、酸化ハフニウム、酸窒化ハフニウム、酸化ハフニウムシリコン、酸窒化ハフニウム、酸化インジウム、窒化インジウムガリウム、リン化インジウム、酸化ランタン、酸化ランタンアルミニウム、酸化ランタンシリコン、酸化鉛スカンジウムタンタル、ニオブ酸鉛亜鉛、フッ化マグネシウム、フッ化ニオブ、酸化ニオブ、窒化ケイ素、酸化ケイ素、酸化ストロンチウムビスマスタンタライト、酸化ストロンチウムチタン、酸化ジルコニウム、酸化ジルコニウムシリコン、酸化チタン、二酸化チタン、二酸化タンタル、五酸化タンタル、酸化スズ、アルミン酸ジルコニウム、酸化ジルコニウム、酸窒化ジルコニウム、酸窒化ジルコニウムシリコン、酸化イットリウム、酸化イットリウムシリコン、およびそれらの混合物からなるグループから選択されたものなどの、任意の知られている誘電体材料で構成することができる。少なくとも1つの例では、ゲート誘電体90は、酸化シリコンの誘電率よりも高い誘電率を示す。
ゲートチャネル1040をドープして、特定の電気的特性および性能特性を提供することができる。1つまたは複数の例では、チャネル1040は、ゲート電極1020によって囲まれたポリシリコン材料とすることができる。さらに、縦型FETスタックは、抵抗器デバイス930のための読み出し−1 901端子および読み出し−2 902端子を提供する端子1050を含む。
ゲート誘電体1020の堆積は、FET T1、T2、T3、およびT4のゲートの様々な長さに従って、間隔を空けて配置され、ゲート長、したがって抵抗/コンダクタンスの間の2次関数的な(または任意の他の所定の)関係を生成する。したがって、抵抗器デバイス930は、様々なゲート長を有する縦型FETスタックとすることができる。
再び図7を参照すると、カウンタ920は、xおよびδの共通の入射時に生成されるクロック・エッジでRPUアレイ800のクロスポイントに重みを記憶するように更新され、したがって、カウンタ920の確率的更新が可能になる。xおよびδは、RPUアレイ800の行および列に印加される電圧であり、電圧の確率的シーケンスを含む。xは、クロスポイント・デバイスへの入力によって生成される確率的パルス信号に対応する。1つまたは複数の例では、xは、所与の層のフィードフォワード出力に基づく確率的シーケンスであり、δは、RPUデバイス820のクロスバー・アレイの後続の層によって計算される誤差に基づいて生成される確率的シーケンスである。
したがって、確率的シーケンスxおよびδの両方が共通の波形を有するときに、クロック・エッジが生成され、論理ゲート940によってカウンタに提供される。1つまたは複数の例では、論理ゲート940は、入力としてxおよびδのシーケンスを受け取り、出力としてクロック(CLK)を提供するANDゲートである。他の例では、他の論理ゲートを使用することができる。
カウンタ920は、入力としてのCLKに加えて、δの符号を示す第2の入力を受け取る。この符号に基づいて、カウンタ920は、カウンタ920に記憶されたカウント値を増分(符号=+)または減分(符号=−)する。増分/減分に基づいて、カウンタ920の単一ビット・カウンタのビットが変化し、次いで、抵抗器デバイス930の抵抗回路が活性化/非活性化されて、抵抗器デバイス930の抵抗/コンダクタンスが調整される。
図12は、本発明の実施形態による、RPUアレイのクロスポイント・デバイスとして使用することができるカウンタ・ベースのRPUを示す。ここで、RPU820Bは、抵抗器デバイス930(図7)で用いられるFETのスタックを有するRPU820と比較して、抵抗器ラダーを変換素子として含む抵抗器デバイス930を用いている。図示する例では、4ビットの抵抗器ラダーが示されているが、他の例では、抵抗器ラダーに異なる数の抵抗回路を使用して、カウンタ920の異なる数のビットをサポートすることができることに留意されたい。図示する抵抗器ラダーは、カウンタ920の対応する単一ビット・カウンタにそれぞれ関連付けられた4つの抵抗回路を含む。
ここで、入力Kiがハイにパルスされると、ラダー回路から流出する電流Ciは、(単一ビット・カウンタ<Q1:Q4>によって表される)カウンタ920の値(すなわち、重み)に比例する。その後、順方向伝搬の間に、出力電流は、RPUアレイ800によって列ごとに累積される。さらに、逆伝播の間に、出力電流は、RPUアレイ800によって行ごとに累積される。
図示する4ビットの例では、ANDゲート1210の出力ノードの電圧が<V1:V4>(例えば、VL=0VまたはVH=1Vのいずれか)であると考える。回路からRPUアレイ800の列に流出する電流Ciは、

である。
より一般的には、rビットの場合、流出する電流は、

である。
したがって、電流は、4ビットの場合について表3に例示されているように、カウンタのデジタル値に比例し、電流は、1/16Rの刻みで直線的に変化し、ここで、Rは所定の抵抗値である。
図13は、本発明の一実施形態による、抵抗器ラダーを有するカウンタ・ベースのRPU820Bが、RPUアレイ800内のクロスポイント・デバイスとしてどのように接続されるかを示す。RPUアレイ800内でのRPU820Bの接続には、接続回路1310を使用する。接続回路1310は、さらに図示および説明されるように、4つのトランジスタTr1 1312、Tr2 1314、Tr3 1316、およびTr4 1318を含む。トランジスタTr2およびTr4は、抵抗<<R/2を有し、ここで、r=カウンタ920で使用されるビット数である。
図14は、本発明の一実施形態による、RPU820Bおよび接続回路1310を使用して実行される順方向伝搬パスを示す。順方向伝搬の間、各クロスポイントの2つのFWDトランジスタ(Tr1 1312およびTr2 1314)は、ONであり、2つのBWDトランジスタ(Tr3 1316およびTr4 1318)は、OFFである。
図15は、本発明の一実施形態による、RPU820Bおよび接続回路1310を使用して実行される逆方向伝搬パスを示す。逆伝播の間、各クロスポイントの2つのFWDトランジスタ(Tr1 1312およびTr2 1314)は、OFFであり、2つのBWDトランジスタ(Tr3 1316およびTr4 1318)は、ONである。
順方向伝搬および逆方向伝搬の両方において、RPU820Bを使用して、RPUアレイ800の動作は、前述したように継続して、電流は、順方向伝搬では列ごとに、逆方向伝搬では行ごとに累積される。
図16は、本発明の一実施形態による、カウンタ・ベースのRPUデバイスを使用するRPUアレイを示す。RPUアレイ800は、各クロスポイントにカウンタ・ベースのRPU820を含む。RPUデバイス820は、本明細書に記載されるようなFETベースまたは抵抗器ラダー・ベースの抵抗器デバイス930を使用することができる。RPUアレイ800は、各クロスポイントに、ローカル・メモリ1610およびローカル・コントローラ1620をさらに含む。
特定のクロスポイントのローカル・メモリ1610は、1つまたは複数のANNマトリックスのそれぞれによって特定のクロスポイントに割り当てられた複数の重みを記憶し、各マトリックスは、ANNの2つの隣接する層間の接続に対応する(例えば、マトリックス1は、層Aを層Bに接続し、マトリックス2は、層Bを層Cに接続するなど)。ローカル・コントローラ1620は、グローバル・コントローラ1640から命令を受け取り、処理されているANNの層に基づいて、対応する重みをRPUデバイス820にロードする。したがって、ローカル・コントローラ1620は、ローカル・メモリ1610からの対応する重み値にアクセスし、特定のクロスポイントにおいて、RPUデバイス820のカウンタ920に重み値をロードする。
さらに、グローバル・コントローラ1640は、重み更新動作後のカウンタ値の変更をローカル・コントローラ1620に命令する。1つまたは複数の例では、それに応答して、ローカル・コントローラ1620は、更新された重み値をカウンタ920から読み出し、更新された値をその後の使用のためにローカル・メモリ1610に記憶する。
1つまたは複数の例では、周辺メモリ1650は、グローバル・コントローラ1640によって使用される情報、例えば、とりわけ、どの層が処理されているかなどのANNの処理を示すパラメータ値を記憶する。
図17は、本発明の一実施形態による、カウンタ・ベースのRPUデバイスを使用したRPUアレイ内のデータフローを示す。RPUアレイ800は、各クロスポイントにカウンタ・ベースのRPU820を含む。RPUデバイス820は、本明細書に記載されるようなFETベースまたは抵抗器ラダー・ベースの抵抗器デバイス930を使用することができる。RPUアレイ800の個々のセルの重み要素は、効率的なデータ転送のためにローカル・メモリ1610のセル・レベルにローカルに記憶される。各ANN重みマトリックス(例えば、A−B層間のマトリックス1、B−C層間のマトリックス2など)の特定のセル(例えば、クロスポイント(m、n))に割り当てることができるすべての異なる重みは、ローカル・メモリ1610に記憶される。重みは、それぞれの層動作(すなわち、順方向伝搬、逆方向伝搬、および重み更新)の間にセルにロードされる。さらに、セルの値は、重み更新ステップの後にローカル・メモリ1610に戻されて記憶される。
図示するように、ローカル・コントローラ1620は、特定の層(例えば、A−B)が処理されるという指示/命令をグローバル・コントローラ1640から受け取る。したがって、特定のクロスポイント(m、n)のローカル・コントローラ1620は、ローカル・メモリ1610に記憶されているセル(m、n)の重み値を読み出し、RPUアレイ800のクロスポイント(m、n)のRPUデバイス820のカウンタ920を更新する。本明細書に記載されるように、カウンタ値は、クロスポイント(m、n)におけるRPUデバイス820の抵抗器デバイス930の抵抗/コンダクタンスを調整する。したがって、電圧シーケンス(a)が行nにおいてRPUアレイ800に印加されると、RPUデバイス820は、カウンタ値に従って、調整された抵抗/コンダクタンスに少なくとも部分的に基づいて、電流Iを出力として通過させる。列内の複数のRPUデバイス820を横切る電流は、順方向伝搬で累積され、後続の層に入力値を提供する。あるいは、逆伝播では、電流は、行にわたって累積される。
したがって、RPUアレイ800は、RPUデバイス820の調整可能な抵抗/コンダクタンスを使用してANNの複数の層を実施することを容易にし、抵抗/コンダクタンスは、RPUデバイス820の抵抗器デバイス930の対応する抵抗回路を活性化/非活性化するカウンタ920を使用して調整可能である。
本明細書に記載された本発明の実施形態は、コンデンサ・ベースの重み記憶素子を使用する際に典型的には観察される電荷損失および更新電流に対する厳しい要件を排除することによって、RPUアレイで使用される典型的な重み記憶素子を改善する。本明細書に記載された本発明の実施形態は、カウンタ・ベースのRPUデバイスを重み記憶素子として使用することを容易にし、FETスタックの総抵抗が変換素子(すなわち、各RPUセルの抵抗器素子)として使用されるように、カウンタのビットが、直列に接続されたFETのゲート端子を制御する。あるいは、本明細書に記載された本発明の実施形態は、カウンタのビットに少なくとも部分的に基づいて抵抗器ラダーが変換素子として使用されるカウンタ・ベースのRPUデバイスの使用を容易にする。
本発明の様々な実施形態の説明は、例示の目的で提示されているが、網羅的であること、または記載された本発明の実施形態に限定されることは意図されていない。多くの変更形態および変形形態が、本発明の思想から逸脱することなく、当業者には明らかであろう。本明細書で使用される用語は、本発明の実施形態の原理、市場で見出される技術に対する実際の応用または技術的改良を最も良く説明するか、または当業者が本明細書に記載される本発明の実施形態を理解することができるように選択された。

Claims (20)

  1. 抵抗処理ユニット(RPU)アレイのクロスポイント・デバイスに重みを記憶するための方法であって、
    前記クロスポイント・デバイスの複数の単一ビット・カウンタからの各単一ビット・カウンタの状態を設定するステップであり、前記単一ビット・カウンタの前記状態が前記クロスポイント・デバイスに記憶される前記重みを表す、前記設定するステップと、
    前記クロスポイント・デバイスの抵抗器デバイスの電気コンダクタンスを調整するステップであり、前記抵抗器デバイスが複数の抵抗回路を含み、各抵抗回路が前記複数の単一ビット・カウンタからのそれぞれの単一ビット・カウンタに関連付けられ、前記電気コンダクタンスが、前記関連付けられた単一ビット・カウンタの状態に応じて、各抵抗回路を活性化または非活性化することによって調整される、前記調整するステップと、
    を含む方法。
  2. 前記抵抗回路が直列に通信可能に結合されている、請求項1に記載の方法。
  3. 前記抵抗回路が2次関数的に増加する抵抗を含み、第1の抵抗回路が所定の抵抗を有し、さらなる後続の各抵抗回路が、前の抵抗回路の値の2倍の抵抗を含む、請求項1に記載の方法。
  4. 前記抵抗回路が電界効果トランジスタ(FET)を含む、請求項3に記載の方法。
  5. 前記FETが2次関数的に減少するトランジスタ幅に少なくとも部分的に基づいて、2次関数的に増加する抵抗を含む、請求項4に記載の方法。
  6. 前記FETが、2次関数的に増加するゲート長に少なくとも部分的に基づいて、2次関数的に増加する抵抗を含む、請求項4に記載の方法。
  7. 前記FETが、FETの縦型スタックの一部である、請求項6に記載の方法。
  8. 前記抵抗回路が抵抗器ラダーを含み、前記抵抗回路のそれぞれが、
    論理ゲートと、
    直列の抵抗器と、
    を備え、
    前記論理ゲートが、前記対応する単一ビット・カウンタの前記状態に少なくとも部分的に基づいて活性化される、
    請求項3に記載の方法。
  9. 抵抗処理ユニット(RPU)アレイのクロスポイントに重み値を記憶するためのクロスポイント・デバイスであって、
    複数の単一ビット・カウンタを含むカウンタであり、前記単一ビット・カウンタの状態が前記クロスポイント・デバイスに記憶される前記重みを表す、前記カウンタと、
    複数の抵抗回路を備える抵抗器デバイスであり、各抵抗回路が前記複数の単一ビット・カウンタからのそれぞれの単一ビット・カウンタに関連付けられており、前記抵抗回路が前記関連付けられた単一ビット・カウンタの状態に従って活性化または非活性化され、前記抵抗器デバイスの電気コンダクタンスが、活性化されている前記抵抗回路に少なくとも部分的に基づいて調整される、前記抵抗器デバイスと、
    を備える、クロスポイント・デバイス。
  10. 前記抵抗回路が直列に接続されている、請求項9に記載のクロスポイント・デバイス。
  11. 前記抵抗回路が、2次関数的に増加する抵抗を含み、第1の抵抗回路が所定の抵抗を有し、さらなる後続の各抵抗回路が前の抵抗回路の2倍の抵抗を有する、請求項9に記載のクロスポイント・デバイス。
  12. 前記抵抗回路が電界効果トランジスタ(FET)である、請求項11に記載のクロスポイント・デバイス。
  13. 前記FETが2次関数的に減少するトランジスタ幅に少なくとも部分的に基づいて、2次関数的に増加する抵抗を含む、請求項12に記載のクロスポイント・デバイス。
  14. 前記FETが2次関数的に増加するゲート長に少なくとも部分的に基づいて、2次関数的に増加する抵抗を含む、請求項12に記載のクロスポイント・デバイス。
  15. 前記抵抗回路が抵抗器ラダーであり、前記抵抗回路のそれぞれが、
    論理ゲートと
    直列の抵抗器と、
    を備え、
    前記論理ゲートが前記対応する単一ビット・カウンタの前記状態に少なくとも部分的に基づいて活性化される、
    請求項11に記載のクロスポイント・デバイス。
  16. ニューラル・ネットワークを実施するためのクロスポイント・アレイであって、
    各クロスポイント・デバイスが前記クロスポイント・アレイの各ノードにある複数のクロスポイント・デバイスであり、各ノードが前記ニューラル・ネットワークのニューロン間の接続を表し、各ノードが前記ノードに割り当てられた重みを記憶し、各クロスポイント・デバイスが請求項9ないし15のいずれかに記載されるようなものである、前記複数のクロスポイント・デバイス、
    を備えるクロスポイント・アレイ。
  17. ニューラル・ネットワークを実施するためのシステムであって、
    請求項16に記載されるようなクロスポイント・アレイと、
    前記クロスポイント・アレイの各クロスポイント・デバイスに記憶された値を調整するように構成されたグローバル・コントローラと、
    を備えるシステム。
  18. 前記クロスポイント・アレイが、
    各クロスポイントにおけるローカル・メモリであって、前記クロスポイントの前記クロスポイント・デバイスに割り当てられた複数の重みを記憶するように構成され、前記複数の重みのそれぞれが前記ニューラル・ネットワークからのそれぞれの層間接続に対応する、前記ローカル・メモリと、
    各クロスポイントにおけるローカル・コントローラであって、前記ローカル・メモリと結合され、
    前記ローカル・メモリから重みを読み出し、
    前記クロスポイントにおける前記クロスポイント・デバイスのカウンタの値として重みを設定する、
    ように構成されている、前記ローカル・コントローラと、
    をさらに備える、請求項17に記載のシステム。
  19. 前記ローカル・コントローラが前記クロスポイント・デバイスの前記カウンタの前記値を前記ローカル・メモリに記憶するようにさらに構成されている、請求項18に記載のシステム。
  20. ニューラル・ネットワークを実施するための方法であって、
    グローバル・コントローラによって、クロスポイント・アレイにロードされるマトリックスを選択するステップであり、前記マトリックスが前記ニューラル・ネットワークの2つの層間の接続に対応する、前記選択するステップと、
    それに応じて、前記クロスポイント・アレイのクロスポイントのローカル・コントローラによって、前記クロスポイントに関連付けられたクロスポイント・デバイスの重み値をロードするステップであり、前記重み値が前記選択されたマトリックスの前記クロスポイントに割り当てられ、請求項1ないし8のいずれかに記載の方法のステップを含む、前記ロードするステップと、
    それに応じて、前記クロスポイント・デバイスによって、前記クロスポイントに関連付けられた抵抗器デバイスのコンダクタンスを調整するステップであり、前記コンダクタンスが前記クロスポイント・デバイスにロードされた前記重み値に対応する、前記調整するステップと、
    を含む、方法。
JP2020531461A 2017-12-13 2018-11-22 抵抗処理ユニット・アレイのクロスポイント・デバイスに重みを記憶するための方法、そのクロスポイント・デバイス、ニューラル・ネットワークを実施するためのクロスポイント・アレイ、そのシステム、およびニューラル・ネットワークを実施するための方法 Active JP7336819B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/840,322 US11222259B2 (en) 2017-12-13 2017-12-13 Counter based resistive processing unit for programmable and reconfigurable artificial-neural-networks
US15/840,322 2017-12-13
PCT/IB2018/059228 WO2019116128A1 (en) 2017-12-13 2018-11-22 Counter based resistive processing unit for programmable and reconfigurable artificial-neural-networks

Publications (3)

Publication Number Publication Date
JP2021507349A true JP2021507349A (ja) 2021-02-22
JP2021507349A5 JP2021507349A5 (ja) 2021-04-01
JP7336819B2 JP7336819B2 (ja) 2023-09-01

Family

ID=66696262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020531461A Active JP7336819B2 (ja) 2017-12-13 2018-11-22 抵抗処理ユニット・アレイのクロスポイント・デバイスに重みを記憶するための方法、そのクロスポイント・デバイス、ニューラル・ネットワークを実施するためのクロスポイント・アレイ、そのシステム、およびニューラル・ネットワークを実施するための方法

Country Status (6)

Country Link
US (3) US11222259B2 (ja)
JP (1) JP7336819B2 (ja)
CN (1) CN111433792B (ja)
DE (1) DE112018005726B4 (ja)
GB (1) GB2582088B (ja)
WO (1) WO2019116128A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180136202A (ko) * 2017-06-14 2018-12-24 에스케이하이닉스 주식회사 컨볼루션 신경망 및 컨볼루션 신경망을 가진 신경망 시스템
US10303998B2 (en) * 2017-09-28 2019-05-28 International Business Machines Corporation Floating gate for neural network inference
US11222259B2 (en) 2017-12-13 2022-01-11 International Business Machines Corporation Counter based resistive processing unit for programmable and reconfigurable artificial-neural-networks
CA3020884A1 (en) * 2018-01-24 2019-07-24 Wai Kit Ricky Fok Parallel residual neural network architechture and system and method for trainning a residual neural network
US20190251430A1 (en) * 2018-02-13 2019-08-15 International Business Machines Corporation Mixed signal cmos rpu with digital weight storage
US11403529B2 (en) * 2018-04-05 2022-08-02 Western Digital Technologies, Inc. Noise injection training for memory-based learning
US10601471B1 (en) 2018-08-29 2020-03-24 Micron Technology, Inc. Neuron calculator for artificial neural networks
US11449730B2 (en) * 2018-12-24 2022-09-20 Wipro Limited Method and system for verifying classification performed by an artificial neural network
US20210034953A1 (en) * 2019-08-02 2021-02-04 Applied Materials, Inc. Reconfigurable finfet-based artificial neuron and synapse devices
US11676031B2 (en) * 2020-02-25 2023-06-13 Ventech Solutions, Inc. Anatomical position monitoring for bodily pressure ulcers
US20230080172A1 (en) * 2020-03-13 2023-03-16 Hewlett-Packard Development Company, L.P. Transmitting node instructions
US11651107B2 (en) 2020-03-17 2023-05-16 Ventech Solutions, Inc. Securing personally identifiable and private information in conversational AI-based communication
US11568262B2 (en) 2020-03-25 2023-01-31 Ventech Solutions, Inc. Neural network based radiowave monitoring of fall characteristics in injury diagnosis
US11133063B1 (en) * 2020-06-22 2021-09-28 International Business Machines Corporation Suppressing undesired programming at half-selected devices in a crosspoint array of 3-terminal resistive memory
CN113052306B (zh) * 2021-03-04 2022-04-22 华南理工大学 一种基于堆叠式宽度学习模型的在线学习芯片
CN113437964B (zh) * 2021-06-10 2022-09-16 安徽大学 一种由rram构成的可阻态区分且可重构的运算电路
US11900979B2 (en) * 2021-10-22 2024-02-13 Intel Corporation Probabilistic in-memory computing

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02236659A (ja) * 1989-03-09 1990-09-19 Fujitsu Ltd 半導体情報処理装置
JPH0380379A (ja) * 1989-05-15 1991-04-05 Mitsubishi Electric Corp 学習機能付集積回路装置
JPH03223982A (ja) * 1989-12-16 1991-10-02 Mitsubishi Electric Corp 半導体神経回路網
JPH06215163A (ja) * 1993-01-18 1994-08-05 Hitachi Ltd ニューラルネット構築支援方法及び装置、ニューラルネットテスト装置、薬注制御システム
JPH0884078A (ja) * 1994-09-09 1996-03-26 Fujitsu Ltd D/a変換器
WO2017136100A2 (en) * 2016-02-01 2017-08-10 Qualcomm Incorporated Vertically stacked nanowire field effect transistors

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2715656A (en) 1952-08-02 1955-08-16 Bell Telephone Labor Inc Electrical information system
US4874963A (en) * 1988-02-11 1989-10-17 Bell Communications Research, Inc. Neuromorphic learning networks
US6185143B1 (en) 2000-02-04 2001-02-06 Hewlett-Packard Company Magnetic random access memory (MRAM) device including differential sense amplifiers
US6876989B2 (en) 2002-02-13 2005-04-05 Winbond Electronics Corporation Back-propagation neural network with enhanced neuron characteristics
US7079436B2 (en) * 2003-09-30 2006-07-18 Hewlett-Packard Development Company, L.P. Resistive cross point memory
US6990030B2 (en) * 2003-10-21 2006-01-24 Hewlett-Packard Development Company, L.P. Magnetic memory having a calibration system
US7913130B2 (en) * 2003-10-31 2011-03-22 Hewlett-Packard Development Company, L.P. Multi-sample read circuit having test mode of operation
US7826248B2 (en) 2008-05-20 2010-11-02 Seagate Technology Llc Write verify method for resistive random access memory
US8009455B2 (en) 2009-01-20 2011-08-30 Ovonyx, Inc. Programmable resistance memory
US8275727B2 (en) * 2009-11-13 2012-09-25 International Business Machines Corporation Hardware analog-digital neural networks
US8655813B2 (en) * 2010-12-30 2014-02-18 International Business Machines Corporation Synaptic weight normalized spiking neuronal networks
US8856055B2 (en) 2011-04-08 2014-10-07 International Business Machines Corporation Reconfigurable and customizable general-purpose circuits for neural networks
US8812414B2 (en) * 2011-05-31 2014-08-19 International Business Machines Corporation Low-power event-driven neural computing architecture in neural networks
US8542521B2 (en) 2011-09-12 2013-09-24 Kabushiki Kaisha Toshiba Semiconductor storage device including memory cells capable of holding data
US9015092B2 (en) 2012-06-04 2015-04-21 Brain Corporation Dynamically reconfigurable stochastic learning apparatus and methods
US9412446B1 (en) 2013-08-16 2016-08-09 Sandia Corporation Multilevel resistive information storage and retrieval
WO2015065316A1 (en) 2013-10-28 2015-05-07 Hewlett-Packard Development Company, L.P. Geometry dependent voltage biases for asymmetric resistive memories
KR102267237B1 (ko) * 2014-03-07 2021-06-18 가부시키가이샤 한도오따이 에네루기 켄큐쇼 반도체 장치 및 전자 기기
US20150278681A1 (en) * 2014-04-01 2015-10-01 Boise State University Memory controlled circuit system and apparatus
US9466362B2 (en) * 2014-08-12 2016-10-11 Arizona Board Of Regents On Behalf Of Arizona State University Resistive cross-point architecture for robust data representation with arbitrary precision
US9934463B2 (en) * 2015-05-15 2018-04-03 Arizona Board Of Regents On Behalf Of Arizona State University Neuromorphic computational system(s) using resistive synaptic devices
US9847125B2 (en) 2015-08-05 2017-12-19 University Of Rochester Resistive memory accelerator
US10387778B2 (en) * 2015-09-29 2019-08-20 International Business Machines Corporation Scalable architecture for implementing maximization algorithms with resistive devices
US10248907B2 (en) 2015-10-20 2019-04-02 International Business Machines Corporation Resistive processing unit
US10901939B2 (en) 2015-10-30 2021-01-26 International Business Machines Corporation Computer architecture with resistive processing units
US10671911B2 (en) * 2016-02-19 2020-06-02 International Business Machines Corporation Current mirror scheme for an integrating neuron circuit
WO2017155544A1 (en) * 2016-03-11 2017-09-14 Hewlett Packard Enterprise Development Lp Hardware accelerators for calculating node values of neural networks
CN106158017B (zh) * 2016-06-20 2019-05-17 北京大学 阻变运算存储设备
US9715656B1 (en) * 2016-09-12 2017-07-25 International Business Machines Corporation Killing asymmetric resistive processing units for neural network training
US9646243B1 (en) 2016-09-12 2017-05-09 International Business Machines Corporation Convolutional neural networks using resistive processing unit array
US9779355B1 (en) 2016-09-15 2017-10-03 International Business Machines Corporation Back propagation gates and storage capacitor for neural networks
US9659249B1 (en) * 2016-09-27 2017-05-23 International Business Machines Corporation Pre-programmed resistive cross-point array for neural network
US10127494B1 (en) * 2017-08-02 2018-11-13 Google Llc Neural network crossbar stack
US11222259B2 (en) 2017-12-13 2022-01-11 International Business Machines Corporation Counter based resistive processing unit for programmable and reconfigurable artificial-neural-networks

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02236659A (ja) * 1989-03-09 1990-09-19 Fujitsu Ltd 半導体情報処理装置
JPH0380379A (ja) * 1989-05-15 1991-04-05 Mitsubishi Electric Corp 学習機能付集積回路装置
JPH03223982A (ja) * 1989-12-16 1991-10-02 Mitsubishi Electric Corp 半導体神経回路網
JPH06215163A (ja) * 1993-01-18 1994-08-05 Hitachi Ltd ニューラルネット構築支援方法及び装置、ニューラルネットテスト装置、薬注制御システム
JPH0884078A (ja) * 1994-09-09 1996-03-26 Fujitsu Ltd D/a変換器
WO2017136100A2 (en) * 2016-02-01 2017-08-10 Qualcomm Incorporated Vertically stacked nanowire field effect transistors

Also Published As

Publication number Publication date
US11222259B2 (en) 2022-01-11
US20220058474A1 (en) 2022-02-24
US20190180174A1 (en) 2019-06-13
DE112018005726T5 (de) 2020-07-16
DE112018005726B4 (de) 2022-04-21
WO2019116128A1 (en) 2019-06-20
US11875249B2 (en) 2024-01-16
US20240086697A1 (en) 2024-03-14
JP7336819B2 (ja) 2023-09-01
GB2582088B (en) 2022-07-27
GB2582088A (en) 2020-09-09
CN111433792B (zh) 2023-11-21
CN111433792A (zh) 2020-07-17
GB202007432D0 (en) 2020-07-01

Similar Documents

Publication Publication Date Title
JP7336819B2 (ja) 抵抗処理ユニット・アレイのクロスポイント・デバイスに重みを記憶するための方法、そのクロスポイント・デバイス、ニューラル・ネットワークを実施するためのクロスポイント・アレイ、そのシステム、およびニューラル・ネットワークを実施するための方法
CN110352436B (zh) 用于神经网络训练的具有迟滞更新的电阻处理单元
KR102449941B1 (ko) 효율적인 행렬 곱셈을 위한 시스템 및 방법
US9779355B1 (en) Back propagation gates and storage capacitor for neural networks
US9466362B2 (en) Resistive cross-point architecture for robust data representation with arbitrary precision
CN107924227B (zh) 电阻处理单元
US11087204B2 (en) Resistive processing unit with multiple weight readers
CN112005252B (zh) 具有单独权重更新和干扰电路的电阻式处理单元架构
US10381074B1 (en) Differential weight reading of an analog memory element in crosspoint array utilizing current subtraction transistors
CN111194467A (zh) 差分忆阻电路
US10832773B1 (en) Architecture for enabling zero value shifting
US11586899B2 (en) Neuromorphic device with oxygen scavenging gate
US11195089B2 (en) Multi-terminal cross-point synaptic device using nanocrystal dot structures
US20220138546A1 (en) Expandable neuromorphic circuit
US20190251430A1 (en) Mixed signal cmos rpu with digital weight storage
CN115699028A (zh) 模拟人工智能网络推理的逐行卷积神经网络映射的高效瓦片映射
AU2021296187B2 (en) Suppressing undesired programming at half-selected devices in a crosspoint array of 3-terminal resistive memory

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210128

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210423

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220502

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

RD12 Notification of acceptance of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7432

Effective date: 20220902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230801

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20230802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230817

R150 Certificate of patent or registration of utility model

Ref document number: 7336819

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150