JP7157893B2 - エッジデバイス上で機械学習演算を実施するためのプログラマブル回路 - Google Patents
エッジデバイス上で機械学習演算を実施するためのプログラマブル回路 Download PDFInfo
- Publication number
- JP7157893B2 JP7157893B2 JP2022511104A JP2022511104A JP7157893B2 JP 7157893 B2 JP7157893 B2 JP 7157893B2 JP 2022511104 A JP2022511104 A JP 2022511104A JP 2022511104 A JP2022511104 A JP 2022511104A JP 7157893 B2 JP7157893 B2 JP 7157893B2
- Authority
- JP
- Japan
- Prior art keywords
- programmable
- coupled
- machine learning
- fuse
- resistor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11C—STATIC STORES
- G11C17/00—Read-only memories programmable only once; Semi-permanent stores, e.g. manually-replaceable information cards
- G11C17/14—Read-only memories programmable only once; Semi-permanent stores, e.g. manually-replaceable information cards in which contents are determined by selectively establishing, breaking or modifying connecting links by permanently altering the state of coupling elements, e.g. PROM
- G11C17/16—Read-only memories programmable only once; Semi-permanent stores, e.g. manually-replaceable information cards in which contents are determined by selectively establishing, breaking or modifying connecting links by permanently altering the state of coupling elements, e.g. PROM using electrically-fusible links
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
- G06N3/065—Analogue means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11C—STATIC STORES
- G11C11/00—Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
- G11C11/54—Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using elements simulating biological cells, e.g. neuron
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11C—STATIC STORES
- G11C11/00—Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
- G11C11/56—Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using storage elements with more than two stable states represented by steps, e.g. of voltage, current, phase, frequency
- G11C11/5692—Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using storage elements with more than two stable states represented by steps, e.g. of voltage, current, phase, frequency read-only digital stores using storage elements with more than two stable states
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11C—STATIC STORES
- G11C13/00—Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00
- G11C13/0002—Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00 using resistive RAM [RRAM] elements
- G11C13/0021—Auxiliary circuits
- G11C13/0069—Writing or programming circuits or methods
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11C—STATIC STORES
- G11C17/00—Read-only memories programmable only once; Semi-permanent stores, e.g. manually-replaceable information cards
- G11C17/14—Read-only memories programmable only once; Semi-permanent stores, e.g. manually-replaceable information cards in which contents are determined by selectively establishing, breaking or modifying connecting links by permanently altering the state of coupling elements, e.g. PROM
- G11C17/18—Auxiliary circuits, e.g. for writing into memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11C—STATIC STORES
- G11C17/00—Read-only memories programmable only once; Semi-permanent stores, e.g. manually-replaceable information cards
- G11C17/14—Read-only memories programmable only once; Semi-permanent stores, e.g. manually-replaceable information cards in which contents are determined by selectively establishing, breaking or modifying connecting links by permanently altering the state of coupling elements, e.g. PROM
- G11C17/143—Read-only memories programmable only once; Semi-permanent stores, e.g. manually-replaceable information cards in which contents are determined by selectively establishing, breaking or modifying connecting links by permanently altering the state of coupling elements, e.g. PROM using laser-fusible links
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Computer Hardware Design (AREA)
- Neurology (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Probability & Statistics with Applications (AREA)
- Design And Manufacture Of Integrated Circuits (AREA)
- Stored Programmes (AREA)
- Programmable Controllers (AREA)
Description
[0001]本特許出願は、本出願の譲受人に譲渡され、参照により本明細書に明確に組み込まれる、2019年8月30日に出願された「PROGRAMMABLE CIRCUITS FOR PERFORMING MACHINE LEARNING OPERATIONS ON EDGE DEVICES」と題する非仮出願第16/556,505号の優先権を主張する。
プログラムされたプログラマブル回路を使用してデバイスを動作させるための手段と、プログラマブル回路上に実装されるべき、トレーニングされた機械学習モデルの重み値をサーバからデバイスにおいて受信するための手段と、トレーニングされた機械学習モデルの重み値に基づいて、プログラマブル回路中の1つまたは複数の補助抵抗器を、主抵抗器と並列に結合されることから選択的に分離することによってプログラマブル回路をプログラムするための手段と、プログラムされたプログラマブル回路を使用してデバイスを動作させるための手段と、を概して含む。
[0026]図1は、本開示のいくつかの態様による、並列モンテカルロドロップアウト機能を実施するように構成された中央処理ユニット(CPU)102またはマルチコアCPUを含み得る、システムオンチップ(SOC)100の例示的な実装形態を示す。変数(たとえば、ニューラル信号およびシナプス重み)、計算デバイスに関連するシステムパラメータ(たとえば、重みをもつニューラルネットワーク)、遅延、周波数ビン情報、およびタスク情報が、ニューラル処理ユニット(NPU)108に関連するメモリブロックに記憶されるか、CPU102に関連するメモリブロックに記憶されるか、グラフィックス処理ユニット(GPU)104に関連するメモリブロックに記憶されるか、デジタル信号プロセッサ(DSP)106に関連するメモリブロックに記憶されるか、メモリブロック118に記憶され得るか、または複数のブロックにわたって分散され得る。CPU102において実行される命令が、CPU102に関連するプログラムメモリからロードされ得るか、またはメモリブロック118からロードされ得る。
[0038]深層学習演算は、典型的には、高性能な中央処理ユニット(CPU)、またはテンソルプロセッサユニット(TPU)もしくはプログラマブルグラフィックス処理ユニット(GPU)などの専用プロセッサ上で実施され得る。深層学習演算は、計算コストが高く、メモリ集約的であり得る。さらに、これらの演算の計算コストのために、これらの深層学習演算がその上で実行されるプロセッサは、かなりの量の電力(たとえば、200ワット超える電力)を消費し得る。しかしながら、深層学習演算がそれらの上で実行されるこれらのCPUまたは専用プロセッサの電力使用は、自動車両またはモバイルフォンなどの様々なエッジデバイス上で深層学習演算を実装する能力を限定することがある。
Claims (30)
- 装置であって、
複数のワード線と、
複数のビット線と、
プログラマブル回路のアレイと、を備え、
各プログラマブル回路は、前記複数のワード線中の対応するワード線に、および前記複数のビット線中の対応するビット線に結合され、
前記対応するワード線と前記対応するビット線との間に結合された主抵抗器と、
補助抵抗器と、
前記補助抵抗器と直列に結合されたヒューズと、ここにおいて、前記補助抵抗器と前記ヒューズとは、前記対応するワード線と前記対応するビット線との間に結合され、
前記ヒューズを選択的にとばすように構成されたプログラミング回路と、
を備える、装置。 - 前記プログラマブル回路は、少なくとも1つの追加のヒューズに結合された少なくとも1つの追加の補助抵抗器をさらに備え、前記少なくとも1つの追加の補助抵抗器と前記少なくとも1つの追加のヒューズとは、直列に接続され、
前記プログラミング回路は、前記ヒューズと前記少なくとも1つの追加のヒューズとのうちの1つまたは複数を選択的にとばすように構成された、
請求項1に記載の装置。 - 前記プログラマブル回路は、1つまたは複数のスイッチをさらに備え、各スイッチは、電圧源に結合された第1のノードと、前記補助抵抗器および前記ヒューズに結合された第2のノードとの間に結合された、請求項1に記載の装置。
- トレーニングされた機械学習モデルのための更新された重み値に基づいて、前記アレイ中の前記プログラマブル回路のうちの少なくとも1つを再プログラムするように構成されたプロセッサをさらに備える、請求項1に記載の装置。
- 異なる機械学習モデルを実装するために、前記アレイ中の前記プログラマブル回路のうちの少なくとも1つを再プログラムするように構成されたプロセッサをさらに備える、請求項1に記載の装置。
- 各プログラマブル回路中の補助抵抗器の数は、トレーニングされた機械学習モデルの重み値に関連する精度のビットの数に対応する、請求項1に記載の装置。
- プログラマブル回路の前記アレイ中の各プログラマブル回路の出力は、乗算および累算演算において使用される、請求項1に記載の装置。
- プログラマブル回路の前記アレイは、トレーニングされた機械学習モデルを実行するように構成され、前記トレーニングされた機械学習モデルは、特定のタスクを実施するようにトレーニングされた深層ニューラルネットワークに基づく、請求項1に記載の装置。
- 前記装置は、モバイルコンピューティングデバイスである、請求項1に記載の装置。
- 前記装置は、自律自動車両である、請求項1に記載の装置。
- 複数のワード線と、複数のビット線と、プログラマブル回路のアレイとを有するデバイスをプログラムするための方法であって、
各プログラマブル回路は、前記複数のワード線中の対応するワード線に、および前記複数のビット線中の対応するビット線に結合され、
ヒューズを選択的にとばすことよって、プログラマブル回路の前記アレイ中のプログラマブル回路をプログラムすることと、ここにおいて、
前記ヒューズは、補助抵抗器と直列に結合され、
前記補助抵抗器と前記ヒューズとは、前記対応するワード線と前記対応するビット線との間に結合され、
主抵抗器は、前記対応するワード線と前記対応するビット線との間に結合され、
前記プログラムされたプログラマブル回路を使用して前記デバイスを動作させることと、
を備える、方法。 - 前記ヒューズを前記選択的にとばすことは、前記補助抵抗器に結合された前記ヒューズと、少なくとも1つの追加の補助抵抗器に結合された少なくとも1つの追加のヒューズとのうちの1つまたは複数を選択的にとばすことを備え、前記少なくとも1つの追加のヒューズと前記少なくとも1つの追加の補助抵抗器とは、直列に接続される、
請求項11に記載の方法。 - 前記ヒューズを前記選択的にとばすことは、1つまたは複数のスイッチを選択的に閉じることを備え、各スイッチは、電圧源に結合された第1のノードと、前記補助抵抗器および前記ヒューズに結合された第2のノードとの間に結合される、
請求項12に記載の方法。 - 前記プログラマブル回路は、トレーニングされた機械学習モデルを実装するようにプログラムされ、前記トレーニングされた機械学習モデルの重み値に基づいてプログラムされる、請求項11に記載の方法。
- 前記トレーニングされた機械学習モデルのための更新された重み値に基づいて、前記プログラマブル回路を再プログラムすることをさらに備える、請求項14に記載の方法。
- 異なる機械学習モデルを実装するために、前記プログラマブル回路を再プログラムすることをさらに備える、請求項14に記載の方法。
- 前記トレーニングされた機械学習モデルは、特定のタスクを実施するようにトレーニングされた深層ニューラルネットワークに基づく、請求項14に記載の方法。
- 前記プログラマブル回路中の補助抵抗器の数は、前記トレーニングされた機械学習モデルの前記重み値に関連する精度のビットの数に対応する、請求項14に記載の方法。
- 前記プログラマブル回路を使用して前記デバイスを前記動作させることは、
アナログ入力として表される特徴ベクトルを備える入力を受信することと、
前記特徴ベクトルの要素と、前記主抵抗器および前記補助抵抗器の抵抗との積に基づいて出力を生成することと、
を備える、請求項11に記載の方法。 - 前記動作させることは、乗算および累算演算において、前記プログラマブル回路の出力を、プログラマブル回路の前記アレイ中の1つまたは複数の他のプログラマブル回路の出力とともに使用することを備える、請求項11に記載の方法。
- 前記デバイスは、モバイルコンピューティングデバイスまたは自律自動車両のうちの1つを備える、請求項11に記載の方法。
- デバイスをプログラムするための装置であって、
複数のワード線と、
複数のビット線と、
プログラマブル回路のアレイと、ここにおいて、各プログラマブル回路は、前記複数のワード線中の対応するワード線に、および前記複数のビット線中の対応するビット線に結合され、
プログラマブル回路の前記アレイ中のプログラマブル回路をプログラムするための手段であって、プログラムするための前記手段を使用してヒューズを選択的にとばすことよって、プログラマブル回路の前記アレイ中のプログラマブル回路をプログラムするための手段と、ここにおいて、
前記ヒューズは、補助抵抗器と直列に結合され、
前記補助抵抗器と前記ヒューズとは、前記対応するワード線と前記対応するビット線との間に結合され、
主抵抗器は、前記対応するワード線と前記対応するビット線との間に結合され、
前記プログラムされたプログラマブル回路を使用して、前記装置を動作させるための手段と、
を備える、装置。 - プログラムするための前記手段は、前記補助抵抗器に結合された前記ヒューズと、少なくとも1つの追加の補助抵抗器に結合された少なくとも1つの追加のヒューズとのうちの1つまたは複数を選択的にとばすように構成され、前記少なくとも1つの追加のヒューズと前記少なくとも1つの追加の補助抵抗器とは、直列に接続されている、請求項22に記載の装置。
- プログラムするための前記手段は、1つまたは複数のスイッチを閉じることによって前記ヒューズを選択的にとばすように構成され、各スイッチは、電圧源に結合された第1のノードと、前記補助抵抗器および前記ヒューズに結合された第2のノードとの間に結合された、請求項23に記載の装置。
- 前記プログラマブル回路は、トレーニングされた機械学習モデルを実装するようにプログラムされ、前記プログラマブル回路は、前記トレーニングされた機械学習モデルの重み値に基づいてプログラムされ、および、前記装置は、前記トレーニングされた機械学習モデルのための更新された重み値に基づいて前記プログラマブル回路を再プログラムするための手段をさらに備える、請求項22に記載の装置。
- 前記プログラマブル回路は、トレーニングされた機械学習モデルを実装するようにプログラムされ、前記装置は、異なる機械学習モデルを実装するために、前記プログラマブル回路を再プログラムするための手段をさらに備える、請求項22に記載の装置。
- 前記プログラムされたプログラマブル回路を使用して前記装置を動作させるための前記手段は、
アナログ入力として表される特徴ベクトルを備える入力を受信するための手段と、
前記特徴ベクトルの要素と、前記主抵抗器および前記補助抵抗器の抵抗との積に基づいて出力を生成するための手段と、
を備える、請求項22に記載の装置。 - 前記プログラマブル回路は、トレーニングされた機械学習モデルを実装するようにプログラムされ、前記プログラマブル回路は、前記トレーニングされた機械学習モデルの重み値に基づいてプログラムされ、および、前記プログラマブル回路中の補助抵抗器の数は、前記トレーニングされた機械学習モデルの前記重み値に関連する精度のビットの数に対応する、請求項22に記載の装置。
- 動作させるための前記手段は、乗算および累算演算において、前記プログラマブル回路の出力を、プログラマブル回路の前記アレイ中の1つまたは複数の他のプログラマブル回路の出力とともに使用するための手段を備える、請求項22に記載の装置。
- 命令を記憶した非一時的コンピュータ可読媒体であって、前記命令は、プロセッサによって実行されると、デバイスをプログラムするための動作を実施し、前記デバイスは、前記プロセッサと、複数のワード線と、複数のビット線と、プログラマブル回路のアレイとを備え、各プログラマブル回路は、前記複数のワード線中の対応するワード線に、および前記複数のビット線中の対応するビット線に結合され、前記動作は、
ヒューズを選択的にとばすことよって、プログラマブル回路の前記アレイ中のプログラマブル回路をプログラムすることと、ここにおいて、
前記ヒューズは、補助抵抗器と直列に結合され、
前記補助抵抗器と前記ヒューズとは、前記対応するワード線と前記対応するビット線との間に結合され、
主抵抗器は、前記対応するワード線と前記対応するビット線との間に結合され、
前記プログラムされたプログラマブル回路を使用して、前記デバイスを動作させることと、
を備える、非一時的コンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/556,505 | 2019-08-30 | ||
US16/556,505 US10825536B1 (en) | 2019-08-30 | 2019-08-30 | Programmable circuits for performing machine learning operations on edge devices |
PCT/US2020/047975 WO2021041526A1 (en) | 2019-08-30 | 2020-08-26 | Programmable circuits for performing machine learning operations on edge devices |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022538938A JP2022538938A (ja) | 2022-09-06 |
JP7157893B2 true JP7157893B2 (ja) | 2022-10-20 |
Family
ID=72433018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022511104A Active JP7157893B2 (ja) | 2019-08-30 | 2020-08-26 | エッジデバイス上で機械学習演算を実施するためのプログラマブル回路 |
Country Status (8)
Country | Link |
---|---|
US (1) | US10825536B1 (ja) |
EP (1) | EP4022618A1 (ja) |
JP (1) | JP7157893B2 (ja) |
KR (1) | KR102466979B1 (ja) |
CN (1) | CN114270441B (ja) |
BR (1) | BR112022003243A2 (ja) |
TW (1) | TWI736404B (ja) |
WO (1) | WO2021041526A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11348002B2 (en) * | 2017-10-24 | 2022-05-31 | International Business Machines Corporation | Training of artificial neural networks |
US11574173B2 (en) * | 2019-12-19 | 2023-02-07 | Qualcomm Incorporated | Power efficient near memory analog multiply-and-accumulate (MAC) |
US11983619B2 (en) * | 2020-08-14 | 2024-05-14 | Micron Technology, Inc. | Transformer neural network in memory |
US11694733B2 (en) | 2021-08-19 | 2023-07-04 | Apple Inc. | Acceleration of in-memory-compute arrays |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016134515A (ja) | 2015-01-20 | 2016-07-25 | ソニー株式会社 | メモリセルおよびメモリ装置 |
US20180285006A1 (en) | 2017-04-03 | 2018-10-04 | Gyrfalcon Technology Inc. | Mlc based magnetic random access memory used in cnn based digital ic for ai |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002026258A (ja) * | 2000-07-04 | 2002-01-25 | Fujitsu Ltd | トリミング回路及び半導体集積回路装置 |
WO2009127670A1 (de) * | 2008-04-16 | 2009-10-22 | Silicon Line Gmbh | Programmierbarer antifuse-transistor und verfahren zum programmieren desselben |
US9182767B2 (en) * | 2013-03-11 | 2015-11-10 | Qualcomm Incorporated | Devices and methods for calibrating and operating a snapback clamp circuit |
US20150279479A1 (en) * | 2014-04-01 | 2015-10-01 | Qualcomm Incorporated | Anti-fuse one-time programmable resistive random access memories |
US20200294401A1 (en) * | 2017-09-04 | 2020-09-17 | Nng Software Developing And Commercial Llc. | A Method and Apparatus for Collecting and Using Sensor Data from a Vehicle |
US20190180173A1 (en) * | 2017-12-11 | 2019-06-13 | Gyrfalcon Technology Inc. | Method and apparatus for using reference resistor in one-time programmable memory of an artificial intelligence integrated circuit |
TWI659428B (zh) * | 2018-01-12 | 2019-05-11 | 中原大學 | 運用非揮發性記憶體執行類神經網絡前饋與遞迴運算之方法 |
US11687766B2 (en) * | 2018-06-19 | 2023-06-27 | Qualcomm Incorporated | Artificial neural networks with precision weight for artificial intelligence |
US11232127B2 (en) * | 2018-12-28 | 2022-01-25 | Intel Corporation | Technologies for providing dynamic persistence of data in edge computing |
-
2019
- 2019-08-30 US US16/556,505 patent/US10825536B1/en active Active
-
2020
- 2020-08-26 JP JP2022511104A patent/JP7157893B2/ja active Active
- 2020-08-26 BR BR112022003243A patent/BR112022003243A2/pt unknown
- 2020-08-26 CN CN202080059199.9A patent/CN114270441B/zh active Active
- 2020-08-26 KR KR1020227005775A patent/KR102466979B1/ko active IP Right Grant
- 2020-08-26 EP EP20768763.3A patent/EP4022618A1/en active Pending
- 2020-08-26 WO PCT/US2020/047975 patent/WO2021041526A1/en unknown
- 2020-08-28 TW TW109129455A patent/TWI736404B/zh active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016134515A (ja) | 2015-01-20 | 2016-07-25 | ソニー株式会社 | メモリセルおよびメモリ装置 |
US20180285006A1 (en) | 2017-04-03 | 2018-10-04 | Gyrfalcon Technology Inc. | Mlc based magnetic random access memory used in cnn based digital ic for ai |
Non-Patent Citations (1)
Title |
---|
ROSSETTO O. et al.,Analog VLSI synaptic matrices as building blocks for neural networks,IEEE Micro [online],vol.9, no.6,1989年12月,pp.56-63,[2022年9月22日検索], インターネット<URL: https://ieeexplore.ieee.org/document/42987> |
Also Published As
Publication number | Publication date |
---|---|
TWI736404B (zh) | 2021-08-11 |
US10825536B1 (en) | 2020-11-03 |
KR20220028161A (ko) | 2022-03-08 |
KR102466979B1 (ko) | 2022-11-11 |
CN114270441A (zh) | 2022-04-01 |
BR112022003243A2 (pt) | 2022-05-17 |
JP2022538938A (ja) | 2022-09-06 |
TW202119426A (zh) | 2021-05-16 |
EP4022618A1 (en) | 2022-07-06 |
CN114270441B (zh) | 2023-02-28 |
WO2021041526A1 (en) | 2021-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7157893B2 (ja) | エッジデバイス上で機械学習演算を実施するためのプログラマブル回路 | |
US11733766B2 (en) | Ultra-low power neuromorphic artificial intelligence computing accelerator | |
JP2021185479A (ja) | インメモリプロセシングを行う装置、及びそれを含むコンピューティング装置 | |
US11302392B2 (en) | Analog-to-digital converter and neuromorphic computing device including the same | |
US20170091619A1 (en) | Selective backpropagation | |
US11776608B2 (en) | Static random-access memory (SRAM) compute in-memory integration | |
US11531871B2 (en) | Stacked neuromorphic devices and neuromorphic computing systems | |
Roohi et al. | Apgan: Approximate gan for robust low energy learning from imprecise components | |
US11500960B2 (en) | Memory cell for dot product operation in compute-in-memory chip | |
US10777259B1 (en) | Static random-access memory (SRAM) for in-memory computing | |
US11868876B2 (en) | Systems and methods for sparsity exploiting | |
US11756610B2 (en) | Apparatus and method with in-memory delay dependent processing | |
US20190065962A1 (en) | Systems And Methods For Determining Circuit-Level Effects On Classifier Accuracy | |
Kulkarni et al. | Neuromorphic hardware accelerator for SNN inference based on STT-RAM crossbar arrays | |
US11494629B2 (en) | Charge-sharing compute-in-memory system | |
Miriyala et al. | Ultra-low power on-chip learning of speech commands with phase-change memories | |
Engelbrecht et al. | Neuromorphic Computing | |
KR20200026588A (ko) | 뉴로모픽 장치 및 뉴로모픽 장치에서 멀티-비트 뉴로모픽 연산을 처리하는 방법 | |
Lu et al. | NVMLearn: a simulation platform for non-volatile-memory-based deep learning hardware | |
Spoon et al. | Accelerating Deep Neural Networks with Phase-Change Memory Devices | |
US20220147809A1 (en) | Deep learning accelerators with configurable hardware options optimizable via compiler |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220218 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221007 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7157893 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |