JP2021528717A - 再構成可能なコアレベルおよびベクトルレベルの並列性を有する並列計算アーキテクチャ - Google Patents
再構成可能なコアレベルおよびベクトルレベルの並列性を有する並列計算アーキテクチャ Download PDFInfo
- Publication number
- JP2021528717A JP2021528717A JP2020557195A JP2020557195A JP2021528717A JP 2021528717 A JP2021528717 A JP 2021528717A JP 2020557195 A JP2020557195 A JP 2020557195A JP 2020557195 A JP2020557195 A JP 2020557195A JP 2021528717 A JP2021528717 A JP 2021528717A
- Authority
- JP
- Japan
- Prior art keywords
- layer
- cores
- activation
- core
- dimension
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/76—Architectures of general purpose stored program computers
- G06F15/80—Architectures of general purpose stored program computers comprising an array of processing units with common control, e.g. single instruction multiple data processors
- G06F15/8053—Vector processors
- G06F15/8092—Array of vector units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Computer Hardware Design (AREA)
- Complex Calculations (AREA)
- Advance Control (AREA)
- Multi Processors (AREA)
- Design And Manufacture Of Integrated Circuits (AREA)
- Logic Circuits (AREA)
Abstract
Description
Y[i,j,k]=σ(V[i,j,k,:];Z[i,j,k])
方程式1
Claims (24)
- 複数の層を含んでいるニューラル・ネットワーク・モデルを格納するように適合されたニューラル・ネットワーク・モデルのメモリであって、各層が少なくとも1つの次元を含んでおり、複数のシナプスの重みを含んでいる、前記ニューラル・ネットワーク・モデルのメモリと、
複数のニューラル・コアであって、各ニューラル・コアが計算ユニットを備えており、前記計算ユニットが、複数のシナプスの重みを複数の入力活性化に適用して複数の出力活性化を生成するように適合されており、前記計算ユニットが複数のベクトル・ユニットを含んでいる、前記複数のニューラル・コアと、
前記入力活性化および前記出力活性化を格納するように適合された活性化メモリと
を備えているシステムであって、
前記システムが、前記層の次元および前記ベクトル・ユニットに基づいて前記複数のコアを複数のパーティションに分割するように適合されている、
システム。 - 前記ニューラル・ネットワーク・モデルのメモリおよび前記複数のコアに動作可能なように結合された少なくとも1つのコントローラをさらに備えており、前記少なくとも1つのコントローラが、前記ニューラル・ネットワーク・モデルの層ごとに、前記複数のコアを構成して前記層を実装し、
前記層の入力活性化を前記複数のコアに提供するように適合されている、
請求項1に記載のシステム。 - 前記複数のコアに結合されたネットワークをさらに備えている、請求項2に記載のシステム。
- 前記ネットワークを介して入力活性化が前記複数のコアに提供される、請求項3に記載のシステム。
- 前記複数のコアを構成することが、前記ネットワークを介してパラメータを前記複数のコアに分配することを含んでいる、請求項3に記載のシステム。
- 前記複数のコアを構成することが、前記ネットワークを介して命令を前記複数のコアに分配することをさらに含んでいる、請求項5に記載のシステム。
- 層ごとの前記複数のパーティションが、前記層の前記入力活性化の空間的次元に基づいてさらに決定される、請求項1に記載のシステム。
- 層ごとの前記複数のパーティションが、前記層の前記入力活性化の空間的次元および特徴の次元に基づいてさらに決定される、請求項1に記載のシステム。
- 層ごとの前記複数のパーティションが、前記層の前記出力活性化の空間的次元に基づいてさらに決定される、請求項1に記載のシステム。
- 層ごとの前記複数のパーティションが、前記層の前記出力活性化の空間的次元および特徴の次元に基づいてさらに決定される、請求項1に記載のシステム。
- 層ごとの前記複数のパーティションが、前記層の前記入力活性化の空間的次元、前記入力活性化の特徴の次元、前記出力活性化の空間的次元、または前記出力活性化の特徴の次元のうちの1つまたは複数に基づいてさらに決定される、請求項1に記載のシステム。
- 層ごとの前記複数のパーティションが、前記複数のコアの次元によってさらに決定される、請求項11に記載のシステム。
- 前記複数のパーティションの各々に含まれる前記コアが部分和を計算するように構成されている、請求項1に記載のシステム。
- 関連付けられた層の結果を計算するために前記部分和が集計される、請求項13に記載のシステム。
- 集計のために、ネットワークを介して前記部分和が送信される、請求項14に記載のシステム。
- 前記少なくとも1つのコントローラが、層の出力活性化の計算時に、前記出力活性化を前記複数のコアに再分配するようにさら適合される、請求項2に記載のシステム。
- 前記再分配がネットワークを介する、請求項16に記載のシステム。
- 前記再分配が、前記層の前記入力活性化の空間的次元、前記入力活性化の特徴の次元、前記出力活性化の空間的次元、または前記出力活性化の特徴の次元のうちの1つまたは複数に基づいて決定される、請求項16に記載のシステム。
- 複数の層を含んでいるニューラル・ネットワーク・モデルを読み取ることであって、各層が少なくとも1つの次元を含んでおり、複数のシナプスの重みを含んでいる、前記読み取ることと、
前記ニューラル・ネットワーク・モデルの層ごとに、前記層の次元およびベクトル・ユニットに基づいて複数のコアを複数のパーティションに分割することと、
前記層を実装するように前記複数のコアを構成することと、
前記層の入力活性化を前記複数のコアに提供することと、
前記層に関連付けられた前記シナプスの重みを前記入力活性化に適用して複数の出力活性化を生成することと
を含んでいる方法。 - 各パーティション内の部分和を計算することと、
前記部分和を、各パーティション内の各コアに送信することと、
前記出力活性化を計算するために前記部分和を集計することと
をさらに含んでいる、請求項19に記載の方法。 - 前記複数のコアを構成することが、ネットワークを介してパラメータを前記複数のコアに分配することを含んでいる、請求項19に記載の方法。
- 前記複数のコアを構成することが、ネットワークを介して命令を前記複数のコアに分配することを含んでいる、請求項19に記載の方法。
- 層ごとの前記複数のパーティションが、前記層の前記入力活性化の空間的次元、前記入力活性化の特徴の次元、前記出力活性化の空間的次元、または前記出力活性化の特徴の次元のうちの1つまたは複数に基づいてさらに決定される、請求項19に記載の方法。
- 層ごとの前記複数のパーティションが、前記複数のコアの次元によってさらに決定される、請求項23に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/008,949 | 2018-06-14 | ||
US16/008,949 US11847553B2 (en) | 2018-06-14 | 2018-06-14 | Parallel computational architecture with reconfigurable core-level and vector-level parallelism |
PCT/IB2019/054669 WO2019239254A1 (en) | 2018-06-14 | 2019-06-05 | Parallel computational architecture with reconfigurable core-level and vector-level parallelism |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021528717A true JP2021528717A (ja) | 2021-10-21 |
JP7227272B2 JP7227272B2 (ja) | 2023-02-21 |
Family
ID=68840593
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020557195A Active JP7227272B2 (ja) | 2018-06-14 | 2019-06-05 | 再構成可能なコアレベルおよびベクトルレベルの並列性を有する並列計算アーキテクチャ |
Country Status (6)
Country | Link |
---|---|
US (1) | US11847553B2 (ja) |
JP (1) | JP7227272B2 (ja) |
CN (1) | CN112219209A (ja) |
DE (1) | DE112019002981T5 (ja) |
GB (1) | GB2588719A (ja) |
WO (1) | WO2019239254A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11783167B1 (en) | 2018-04-20 | 2023-10-10 | Perceive Corporation | Data transfer for non-dot product computations on neural network inference circuit |
US10740434B1 (en) | 2018-04-20 | 2020-08-11 | Perceive Corporation | Reduced dot product computation circuit |
US11531868B1 (en) | 2018-04-20 | 2022-12-20 | Perceive Corporation | Input value cache for temporarily storing input values |
US11995533B1 (en) | 2018-12-05 | 2024-05-28 | Perceive Corporation | Executing replicated neural network layers on inference circuit |
US11347297B1 (en) | 2019-01-23 | 2022-05-31 | Perceive Corporation | Neural network inference circuit employing dynamic memory sleep |
US11625585B1 (en) | 2019-05-21 | 2023-04-11 | Perceive Corporation | Compiler for optimizing filter sparsity for neural network implementation configuration |
US11076210B1 (en) | 2020-01-03 | 2021-07-27 | Microsoft Technology Licensing, Llc | Distributed processing architecture |
US11580388B2 (en) | 2020-01-03 | 2023-02-14 | Microsoft Technology Licensing, Llc | Distributed processing architecture |
WO2022186763A1 (en) * | 2021-03-03 | 2022-09-09 | Agency For Science, Technology And Research | Neural network processor system with reconfigurable neural processing unit, and method of operating and method of forming thereof |
US11204889B1 (en) | 2021-03-29 | 2021-12-21 | SambaNova Systems, Inc. | Tensor partitioning and partition access order |
US11366783B1 (en) | 2021-03-29 | 2022-06-21 | SambaNova Systems, Inc. | Multi-headed multi-buffer for buffering data for processing |
US11709611B2 (en) | 2021-10-26 | 2023-07-25 | SambaNova Systems, Inc. | Determining and using memory unit partitioning solutions for reconfigurable dataflow computing systems |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02306365A (ja) * | 1989-05-19 | 1990-12-19 | Sharp Corp | ニューロコンピュータの負荷配分方法 |
JPH03100755A (ja) * | 1989-09-13 | 1991-04-25 | Nec Corp | 全結合型ネットワーク並列処理方法と装置 |
JP2000322400A (ja) * | 1999-05-10 | 2000-11-24 | Fuji Xerox Co Ltd | 情報処理装置 |
US20170316312A1 (en) * | 2016-05-02 | 2017-11-02 | Cavium, Inc. | Systems and methods for deep learning processor |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5784636A (en) | 1996-05-28 | 1998-07-21 | National Semiconductor Corporation | Reconfigurable computer architecture for use in signal processing applications |
US8914590B2 (en) | 2002-08-07 | 2014-12-16 | Pact Xpp Technologies Ag | Data processing method and device |
US8090928B2 (en) | 2002-06-28 | 2012-01-03 | Intellectual Ventures I Llc | Methods and apparatus for processing scalar and vector instructions |
WO2004021176A2 (de) | 2002-08-07 | 2004-03-11 | Pact Xpp Technologies Ag | Verfahren und vorrichtung zur datenverarbeitung |
US10832120B2 (en) | 2015-12-11 | 2020-11-10 | Baidu Usa Llc | Systems and methods for a multi-core optimized recurrent neural network |
US10706348B2 (en) * | 2016-07-13 | 2020-07-07 | Google Llc | Superpixel methods for convolutional neural networks |
US10997496B2 (en) * | 2016-08-11 | 2021-05-04 | Nvidia Corporation | Sparse convolutional neural network accelerator |
CN106815636B (zh) | 2016-12-30 | 2019-03-05 | 华中科技大学 | 一种基于忆阻器的神经元电路 |
US10402527B2 (en) * | 2017-01-04 | 2019-09-03 | Stmicroelectronics S.R.L. | Reconfigurable interconnect |
CN107301456B (zh) | 2017-05-26 | 2020-05-12 | 中国人民解放军国防科学技术大学 | 基于向量处理器的深度神经网络多核加速实现方法 |
US10803379B2 (en) * | 2017-12-12 | 2020-10-13 | Amazon Technologies, Inc. | Multi-memory on-chip computational network |
-
2018
- 2018-06-14 US US16/008,949 patent/US11847553B2/en active Active
-
2019
- 2019-06-05 WO PCT/IB2019/054669 patent/WO2019239254A1/en active Application Filing
- 2019-06-05 JP JP2020557195A patent/JP7227272B2/ja active Active
- 2019-06-05 DE DE112019002981.9T patent/DE112019002981T5/de active Pending
- 2019-06-05 GB GB2017726.7A patent/GB2588719A/en not_active Withdrawn
- 2019-06-05 CN CN201980036802.9A patent/CN112219209A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02306365A (ja) * | 1989-05-19 | 1990-12-19 | Sharp Corp | ニューロコンピュータの負荷配分方法 |
JPH03100755A (ja) * | 1989-09-13 | 1991-04-25 | Nec Corp | 全結合型ネットワーク並列処理方法と装置 |
JP2000322400A (ja) * | 1999-05-10 | 2000-11-24 | Fuji Xerox Co Ltd | 情報処理装置 |
US20170316312A1 (en) * | 2016-05-02 | 2017-11-02 | Cavium, Inc. | Systems and methods for deep learning processor |
Also Published As
Publication number | Publication date |
---|---|
CN112219209A (zh) | 2021-01-12 |
US20190385046A1 (en) | 2019-12-19 |
WO2019239254A1 (en) | 2019-12-19 |
US11847553B2 (en) | 2023-12-19 |
DE112019002981T5 (de) | 2021-03-11 |
GB2588719A (en) | 2021-05-05 |
JP7227272B2 (ja) | 2023-02-21 |
GB202017726D0 (en) | 2020-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021528717A (ja) | 再構成可能なコアレベルおよびベクトルレベルの並列性を有する並列計算アーキテクチャ | |
JP7241771B2 (ja) | 実行時再構成可能なニューラル・ネットワーク・プロセッサ・コア | |
US11106976B2 (en) | Neural network output layer for machine learning | |
US20200042856A1 (en) | Scheduler for mapping neural networks onto an array of neural cores in an inference processing unit | |
JP2021522565A (ja) | 並列分散テンソル計算用のニューラル・ハードウェア・アクセラレータ | |
JP7332247B2 (ja) | ニューラル推論プロセッサのための中央スケジューラおよび命令ディスパッチャ | |
US20190138373A1 (en) | Multithreaded data flow processing within a reconfigurable fabric | |
US20190279038A1 (en) | Data flow graph node parallel update for machine learning | |
US20210209450A1 (en) | Compressed weight distribution in networks of neural processors | |
US11227030B2 (en) | Matrix multiplication engine using pipelining | |
US20190130268A1 (en) | Tensor radix point calculation in a neural network | |
US20200117988A1 (en) | Networks for distributing parameters and data to neural network compute cores | |
US12001953B2 (en) | Neural network data computation using mixed-precision | |
US11663461B2 (en) | Instruction distribution in an array of neural network cores | |
EP3971787A1 (en) | Spatial tiling of compute arrays with shared control | |
JP7426980B2 (ja) | 分散型ニューラル・ネットワークのコアのネットワークにおける階層的並列処理 | |
JP7220007B2 (ja) | 並列性及びオンチップ・メモリを介した時間、空間及びエネルギー効率のよいニューラル推論 | |
TWI804209B (zh) | 在脈動陣列中利用細粒度結構化權重稀疏性 | |
WO2019089553A1 (en) | Tensor radix point calculation in a neural network | |
AU2020395435B2 (en) | Flexible precision neural inference processing units | |
EP4133418B1 (en) | Neural network weight distribution from a grid of memory elements | |
TWI829208B (zh) | 用於判定用於處理串流輸入資料之硬體架構之設計參數值之方法及系統及電腦可讀儲存媒體 | |
JP2022068117A (ja) | チップ及び方法(入れ子ループの定数時間プログラム制御をサポートするチップ) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211028 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20220502 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7227272 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |