JP2021520572A - ニューラルネットワークプロセッサにおいてタスクを割り当てるためのシステム及び方法 - Google Patents
ニューラルネットワークプロセッサにおいてタスクを割り当てるためのシステム及び方法 Download PDFInfo
- Publication number
- JP2021520572A JP2021520572A JP2020560951A JP2020560951A JP2021520572A JP 2021520572 A JP2021520572 A JP 2021520572A JP 2020560951 A JP2020560951 A JP 2020560951A JP 2020560951 A JP2020560951 A JP 2020560951A JP 2021520572 A JP2021520572 A JP 2021520572A
- Authority
- JP
- Japan
- Prior art keywords
- task
- circuit
- neural
- data
- queue
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 62
- 238000000034 method Methods 0.000 title claims description 51
- 230000001537 neural effect Effects 0.000 claims abstract description 273
- 239000000470 constituent Substances 0.000 claims 1
- 238000010801 machine learning Methods 0.000 abstract description 22
- 238000012545 processing Methods 0.000 description 42
- 230000008569 process Effects 0.000 description 30
- 238000010586 diagram Methods 0.000 description 18
- 230000033001 locomotion Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 8
- 238000000605 extraction Methods 0.000 description 7
- 238000012805 post-processing Methods 0.000 description 6
- 230000002085 persistent effect Effects 0.000 description 5
- 238000009825 accumulation Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- HNWFFTUWRIGBNM-UHFFFAOYSA-N 2-methyl-9,10-dinaphthalen-2-ylanthracene Chemical compound C1=CC=CC2=CC(C3=C4C=CC=CC4=C(C=4C=C5C=CC=CC5=CC=4)C4=CC=C(C=C43)C)=CC=C21 HNWFFTUWRIGBNM-UHFFFAOYSA-N 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Image Processing (AREA)
- Advance Control (AREA)
- Microcomputers (AREA)
- Memory System (AREA)
Abstract
Description
例示的な電子デバイス
例示的ニューラルプロセッサ回路
例示的なニューラルエンジンアーキテクチャ
ニューラルプロセッサ回路における処理のためのデータのセグメント化の動作
ニューラルエンジンアーキテクチャにおける例示的プロセス
例示的なニューラルタスクマネージャアーキテクチャ
ニューラルタスクマネージャアーキテクチャにおける例示的プロセス
Claims (20)
- ニューラルエンジン回路と、
ニューラルエンジンに結合されたニューラルタスクマネージャ回路と、を備えるニューラルプロセッサ回路であって、ニューラルタスクマネージャは、
ニューラルネットワークをインスタンス化するタスクを含むタスクリストへの参照を記憶するように構成されたタスクキュー回路であって、前記タスクリストは、前記ニューラルプロセッサ回路の外部にあるメモリの場所に記憶されたタスクの構成データを含む、タスクキュー回路と、
前記タスクキュー回路に結合されたタスクアービタ回路であって、前記タスクアービタ回路は、
前記タスクキュー回路に記憶された前記タスクリストへの前記参照に基づいて、前記ニューラルプロセッサ回路の外部にある前記メモリの前記場所から前記タスクの前記構成データを取得し、
前記構成データの一部を前記ニューラルエンジン回路に提供するように構成され、
前記構成データの前記一部が前記ニューラルエンジン回路をプログラムして前記タスクを実行させる、タスクアービタ回路と、を含む、
ニューラルプロセッサ回路。 - 前記タスクは、実行された場合、前記ニューラルネットワークの単一のネットワーク層、前記ニューラルネットワークの複数のネットワーク層、又は前記ニューラルネットワークのネットワーク層の一部をインスタンス化する、請求項1に記載のニューラルプロセッサ回路。
- 前記タスクアービタ回路は、前記ニューラルタスクマネージャ回路の構成キュー内に前記構成データを記憶するように更に構成され、前記構成キューは、前記ニューラルエンジン回路に結合され、前記構成データの前記一部を前記ニューラルエンジン回路に提供するように構成されており、
前記ニューラルプロセッサ回路は、
前記構成データが前記構成キューに記憶されている場合に、前記ニューラルプロセッサ回路の外部にある前記メモリから前記タスクのカーネルデータを取得するように構成されたカーネルダイレクトメモリアクセス(DMA)と、
前記構成データが前記構成キューに記憶されている場合に、前記ニューラルプロセッサ回路の外部にある前記メモリから前記タスクの入力データを取得するように構成されたバッファダイレクトメモリアクセス(DMA)と、
を更に含む、請求項1に記載のニューラルプロセッサ回路。 - 前記ニューラルタスクマネージャ回路は、
前記構成キューに結合されたフェッチキューと、
前記フェッチキュー及び前記タスクアービタ回路に結合されたタスクマネージャダイレクトメモリアクセス(DMA)と、
を更に含み、
前記タスクアービタ回路は、前記タスクマネージャDMAを介して、前記ニューラルプロセッサ回路の外部にある前記メモリの前記場所から前記タスクの前記構成データを取得し、前記構成データを前記フェッチキューに記憶するように更に構成され、実行されたタスクの第2の構成データが前記構成キューから除去された場合に、前記フェッチキューは、前記構成データを前記構成キューに提供する、
請求項3に記載のニューラルプロセッサ回路。 - 前記ニューラルタスクマネージャ回路は、前記タスクアービタ回路に結合された別のタスクキュー回路を更に含み、他のタスクキュー回路は、別のニューラルネットワークをインスタンス化する他のタスクの別のタスクリストへの別の参照を記憶するように構成され、前記タスクキュー回路は、第1の優先度を有し、前記他のタスクキュー回路は第2の優先度を有し、
前記タスクアービタ回路は、前記第1の優先度と前記第2の優先度との比較に基づいて、(i)前記タスクの前記構成データ、又は(ii)フェッチキュー内の前記他のタスクの別の構成データ、のうちの1つを記憶するように構成されている、
請求項3に記載のニューラルプロセッサ回路。 - 前記ニューラルプロセッサ回路の外部にある前記メモリと前記ニューラルエンジン回路とに結合されたデータバッファを更に備え、前記タスクアービタ回路は、前記構成データの別の部分を前記データバッファに提供するように更に構成され、前記構成データの前記他の部分が前記データバッファをプログラムして、前記タスクの入力データのワークユニットを前記ニューラルエンジン回路にブロードキャストさせる、請求項1に記載のニューラルプロセッサ回路。
- 前記データバッファと前記ニューラルプロセッサ回路の外部にある前記メモリとに結合されたバッファダイレクトメモリアクセス(DMA)を更に含み、
前記タスクアービタ回路は、前記構成データの第3の部分を前記バッファDMAに提供するように更に構成され、前記構成データの前記第3の部分が前記バッファDMAをプログラムして、前記ニューラルプロセッサ回路の外部にある前記メモリから前記タスクの前記入力データのタイルを取得し、前記タイルを前記データバッファに記憶させ、
前記タイルは、複数のワークユニットを含む、請求項6に記載のニューラルプロセッサ回路。 - 前記ニューラルエンジン回路は、
前記ニューラルタスクマネージャに結合された入力バッファ回路と、
前記入力バッファ回路に結合された乗算−加算(MAD)回路と、
を含み、
前記構成データの前記一部が前記入力バッファ回路をプログラムして、前記入力バッファ回路に記憶された前記タスクの入力データの一部を前記MAD回路に提供させる、
請求項1に記載のニューラルプロセッサ回路。 - 前記ニューラルプロセッサ回路の外部にある前記メモリと前記ニューラルエンジン回路とに結合されたデータバッファを更に備え、前記ニューラルエンジンは出力回路を更に備え、前記構成データの前記少なくとも一部が前記出力回路をプログラムして、前記MAD回路から前記データバッファに出力データを提供させる、請求項8に記載のニューラルプロセッサ回路。
- 前記ニューラルプロセッサ回路の外部にある前記メモリと前記ニューラルエンジン回路とに結合されたカーネルダイレクトメモリアクセス(DMA)を更に備え、
前記タスクアービタ回路は、前記構成データの別の部分を前記カーネルDMAに提供するように更に構成され、前記構成データの前記他の部分が前記カーネルDMAをプログラムして、前記ニューラルプロセッサ回路の外部にある前記メモリからカーネルデータを取得させ、前記カーネルデータを前記ニューラルエンジン回路に提供して前記タスクを実行させる、請求項1に記載のニューラルプロセッサ回路。 - ニューラルプロセッサ回路においてタスクを管理する方法であって、
前記ニューラルプロセッサ回路のタスクキュー回路内に、ニューラルネットワークをインスタンス化するタスクのタスクリストへの参照を記憶することであって、前記タスクリストは、前記ニューラルプロセッサ回路の外部にあるメモリの場所に記憶された、タスクの構成データを含む、ことと、
前記タスクキュー回路に記憶された前記タスクリストへの前記参照に基づいて、前記ニューラルプロセッサ回路の外部にある前記メモリの前記場所から前記構成データを取得することと、
前記構成データの一部を前記ニューラルプロセッサ回路のニューラルエンジン回路に提供することであって、前記構成データの前記一部が前記ニューラルエンジン回路をプログラムして、前記タスクを実行させる、ことと、
を含む方法。 - 前記タスクは、実行された場合、前記ニューラルネットワークの単一のネットワーク層、前記ニューラルネットワークの複数のネットワーク層、又は前記ニューラルネットワークのネットワーク層の一部をインスタンス化する、請求項11に記載の方法。
- 前記構成データを前記ニューラルプロセッサ回路の構成キューに記憶することと、
前記構成データの前記一部を、前記構成キューから前記ニューラルエンジン回路に提供することと、
前記構成データが前記構成キューに記憶されている場合に、外部メモリから前記タスクのカーネルデータを取得することと、
前記構成データが前記構成キューに記憶されている場合に、前記外部メモリから前記タスクの入力データを取得することと、
を更に含む請求項11に記載の方法。 - 前記タスクの前記構成データを、前記ニューラルプロセッサ回路のタスクマネージャダイレクトメモリアクセス(DMA)を介して、前記外部メモリの前記場所から取得することと、
前記構成データを前記ニューラルプロセッサ回路のフェッチキュー内に記憶することと、
実行されたタスクの別の構成データが前記構成キューから除去された場合に、前記フェッチキューから前記構成キューに前記構成データを提供することと、
を更に含む請求項13に記載の方法。 - 別のニューラルネットワークをインスタンス化する他のタスクの別のタスクリストへの別の参照を、別のタスクキュー回路内に記憶することであって、前記タスクキュー回路は、第1の優先度を有し、前記他のタスクキュー回路は第2の優先度を有する、ことと、
前記第1の優先度と前記第2の優先度との比較に基づいて、(i)前記タスクの前記構成データ、又は(ii)フェッチキュー内の前記他のタスクの別の構成データ、のうちの1つを記憶することと、
を更に含む請求項13に記載の方法。 - 前記構成の別の部分を、前記ニューラルプロセッサ回路のデータバッファに提供することを更に含み、前記構成データの前記他の部分が前記データバッファをプログラムして、前記タスクの入力データのワークユニットを前記ニューラルエンジン回路にブロードキャストさせる、請求項11に記載の方法。
- 前記構成データの第3の部分を、前記データバッファ及び外部メモリに結合された前記ニューラルプロセッサ回路のバッファダイレクトメモリアクセス(DMA)に提供することを更に含み、前記構成データの前記第3の部分が前記バッファDMAをプログラムして、前記外部メモリから前記タスクの前記入力データのタイルを取得させ、前記タイルを前記データバッファに記憶させ、前記タイルは複数のワークユニットを含む、請求項16に記載の方法。
- 前記構成データの前記一部が、前記ニューラルエンジン回路の入力バッファ回路をプログラムして、前記入力バッファ回路に記憶された前記タスクの入力データの一部を、前記ニューラルエンジン回路の乗算−加算(MAD)回路に提供させ、
前記構成データの前記少なくとも一部が、前記ニューラルエンジン回路の出力回路をプログラムして、出力データを前記MAD回路から前記ニューラルプロセッサ回路のデータバッファに提供させる、
請求項11に記載の方法。 - 前記構成データの別の部分を、前記ニューラルプロセッサ回路の外部にある前記メモリと前記ニューラルエンジン回路とに結合されたカーネルダイレクトメモリアクセス(DMA)に提供することを更に含み、前記構成データの前記他の部分が前記カーネルDMAをプログラムして、前記ニューラルプロセッサ回路の外部にある前記メモリからカーネルデータを取得させ、前記カーネルデータを前記ニューラルエンジン回路に提供して前記タスクを実行させる、
請求項11に記載の方法。 - ニューラルプロセッサ回路を備える集積回路(IC)システムであって、前記ニューラルプロセッサ回路は、
ニューラルエンジン回路と、
前記ニューラルエンジン回路に結合されたニューラルタスクマネージャ回路と、を備え、前記ニューラルタスクマネージャ回路は、
ニューラルネットワークをインスタンス化するタスクのタスクリストへの参照を記憶するように構成されたタスクキュー回路であって、前記タスクリストは、前記ニューラルプロセッサ回路の外部にあるメモリの場所に記憶されたタスクの構成データを含む、タスクキュー回路と、
前記タスクキュー回路に結合されたタスクアービタ回路であって、前記タスクアービタ回路は、
前記タスクキュー回路に記憶された前記タスクリストへの前記参照に基づいて、前記ニューラルプロセッサ回路の外部にある前記メモリの前記場所から前記タスクの前記構成データを取得し、
前記構成データの少なくとも一部を前記ニューラルエンジン回路に提供するように構成され、前記構成データの前記少なくとも一部が前記ニューラルエンジン回路をプログラムして前記タスクを実行させる、タスクアービタ回路と、
を含む、
集積回路(IC)システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022104387A JP7322254B2 (ja) | 2018-05-04 | 2022-06-29 | ニューラルネットワークプロセッサにおいてタスクを割り当てるためのシステム及び方法 |
JP2023121917A JP2023153160A (ja) | 2018-05-04 | 2023-07-26 | ニューラルネットワークプロセッサにおいてタスクを割り当てるためのシステム及び方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/971,872 US20190340490A1 (en) | 2018-05-04 | 2018-05-04 | Systems and methods for assigning tasks in a neural network processor |
US15/971,872 | 2018-05-04 | ||
PCT/US2019/025892 WO2019212688A1 (en) | 2018-05-04 | 2019-04-04 | Systems and methods for assigning tasks in a neural network processor |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022104387A Division JP7322254B2 (ja) | 2018-05-04 | 2022-06-29 | ニューラルネットワークプロセッサにおいてタスクを割り当てるためのシステム及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021520572A true JP2021520572A (ja) | 2021-08-19 |
JP7098753B2 JP7098753B2 (ja) | 2022-07-11 |
Family
ID=66286990
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020560951A Active JP7098753B2 (ja) | 2018-05-04 | 2019-04-04 | ニューラルネットワークプロセッサにおいてタスクを割り当てるためのシステム及び方法 |
JP2022104387A Active JP7322254B2 (ja) | 2018-05-04 | 2022-06-29 | ニューラルネットワークプロセッサにおいてタスクを割り当てるためのシステム及び方法 |
JP2023121917A Pending JP2023153160A (ja) | 2018-05-04 | 2023-07-26 | ニューラルネットワークプロセッサにおいてタスクを割り当てるためのシステム及び方法 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022104387A Active JP7322254B2 (ja) | 2018-05-04 | 2022-06-29 | ニューラルネットワークプロセッサにおいてタスクを割り当てるためのシステム及び方法 |
JP2023121917A Pending JP2023153160A (ja) | 2018-05-04 | 2023-07-26 | ニューラルネットワークプロセッサにおいてタスクを割り当てるためのシステム及び方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20190340490A1 (ja) |
EP (1) | EP3788555A1 (ja) |
JP (3) | JP7098753B2 (ja) |
KR (2) | KR102607234B1 (ja) |
CN (1) | CN112074846B (ja) |
WO (1) | WO2019212688A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7038608B2 (ja) * | 2018-06-15 | 2022-03-18 | ルネサスエレクトロニクス株式会社 | 半導体装置 |
US11295205B2 (en) * | 2018-09-28 | 2022-04-05 | Qualcomm Incorporated | Neural processing unit (NPU) direct memory access (NDMA) memory bandwidth optimization |
US11188338B2 (en) * | 2019-06-13 | 2021-11-30 | Fungible, Inc. | Context value retrieval prior to or parallel with expansion of previous symbol for context-decoding in range decoder |
US11461622B2 (en) * | 2019-06-28 | 2022-10-04 | Amazon Technologies, Inc. | Dynamic code loading for multiple executions on a sequential processor |
US11513799B2 (en) * | 2019-11-04 | 2022-11-29 | Apple Inc. | Chained buffers in neural network processor |
EP4014122A1 (en) | 2019-12-19 | 2022-06-22 | Google LLC | Hardware circuit for accelerating neural network computations |
CN111126589B (zh) * | 2019-12-31 | 2022-05-20 | 昆仑芯(北京)科技有限公司 | 神经网络数据处理装置、方法和电子设备 |
TWI760690B (zh) * | 2020-02-03 | 2022-04-11 | 瑞昱半導體股份有限公司 | 一種資料傳輸系統及其資源配置方法 |
US12014202B2 (en) | 2020-02-13 | 2024-06-18 | Samsung Electronics Co., Ltd. | Method and apparatus with accelerator |
US11599780B2 (en) | 2020-03-02 | 2023-03-07 | Apple Inc. | Asynchronous task execution for neural processor circuit |
JP6834097B1 (ja) * | 2020-05-15 | 2021-02-24 | エッジコーティックス ピーティーイー. リミテッド | 推論のニューラルネットワークアクセラレータのハードウェア固有分割 |
CN112949847B (zh) * | 2021-03-29 | 2023-07-25 | 上海西井科技股份有限公司 | 神经网络算法加速系统、调度系统及调度方法 |
KR20240082474A (ko) * | 2022-12-01 | 2024-06-11 | 삼성전자주식회사 | 인공 지능 서비스를 제공하는 전자 장치 및 그 제어 방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160379109A1 (en) * | 2015-06-29 | 2016-12-29 | Microsoft Technology Licensing, Llc | Convolutional neural networks on hardware accelerators |
JP6250780B1 (ja) * | 2016-12-01 | 2017-12-20 | ヴィア アライアンス セミコンダクター カンパニー リミテッド | キャッシュメモリ又はニューラルネットワークユニットメモリとして動作可能なメモリアレイを有するプロセッサ |
US20180046903A1 (en) * | 2016-08-12 | 2018-02-15 | DeePhi Technology Co., Ltd. | Deep processing unit (dpu) for implementing an artificial neural network (ann) |
JP2021517310A (ja) * | 2018-03-22 | 2021-07-15 | アマゾン テクノロジーズ インコーポレイテッド | 複数の入力データセットのための処理 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3244982B2 (ja) * | 1995-01-30 | 2002-01-07 | 株式会社日立製作所 | 分散制御システム |
AU2001285384A1 (en) * | 2000-07-31 | 2002-02-13 | Conexant Systems, Inc. | Enhancing performance by pre-fetching and caching data directly in a communication processor's register set |
US7360102B2 (en) | 2004-03-29 | 2008-04-15 | Sony Computer Entertainment Inc. | Methods and apparatus for achieving thermal management using processor manipulation |
CN103699440B (zh) * | 2012-09-27 | 2017-05-24 | 北京搜狐新媒体信息技术有限公司 | 一种云计算平台系统为任务分配资源的方法和装置 |
US9424079B2 (en) * | 2013-06-27 | 2016-08-23 | Microsoft Technology Licensing, Llc | Iteration support in a heterogeneous dataflow engine |
US10186282B2 (en) * | 2014-06-19 | 2019-01-22 | Apple Inc. | Robust end-pointing of speech signals using speaker recognition |
CN104125167A (zh) * | 2014-07-24 | 2014-10-29 | 海信集团有限公司 | 一种流量控制方法和装置 |
CN107637050B (zh) * | 2015-03-16 | 2021-02-05 | 利维帕尔森有限公司 | 资源的优先级排序及通信信道的建立方法和存储介质 |
US20160335119A1 (en) * | 2015-05-12 | 2016-11-17 | minds.ai inc | Batch-based neural network system |
US10671428B2 (en) * | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
CN105488565A (zh) * | 2015-11-17 | 2016-04-13 | 中国科学院计算技术研究所 | 加速深度神经网络算法的加速芯片的运算装置及方法 |
US20170351555A1 (en) * | 2016-06-03 | 2017-12-07 | Knuedge, Inc. | Network on chip with task queues |
CN106203621B (zh) * | 2016-07-11 | 2019-04-30 | 北京深鉴智能科技有限公司 | 用于卷积神经网络计算的处理器 |
US10891538B2 (en) * | 2016-08-11 | 2021-01-12 | Nvidia Corporation | Sparse convolutional neural network accelerator |
US10242311B2 (en) * | 2016-08-11 | 2019-03-26 | Vivante Corporation | Zero coefficient skipping convolution neural network engine |
US10949736B2 (en) * | 2016-11-03 | 2021-03-16 | Intel Corporation | Flexible neural network accelerator and methods therefor |
US10795836B2 (en) * | 2017-04-17 | 2020-10-06 | Microsoft Technology Licensing, Llc | Data processing performance enhancement for neural networks using a virtualized data iterator |
EP3610612B1 (en) * | 2017-04-17 | 2022-09-28 | Cerebras Systems Inc. | Dataflow triggered tasks for accelerated deep learning |
CN107679620B (zh) * | 2017-04-19 | 2020-05-26 | 赛灵思公司 | 人工神经网络处理装置 |
US10186011B2 (en) * | 2017-04-28 | 2019-01-22 | Intel Corporation | Programmable coarse grained and sparse matrix compute hardware with advanced scheduling |
CN109478144B (zh) * | 2017-07-05 | 2021-12-14 | 上海寒武纪信息科技有限公司 | 一种数据处理装置和方法 |
US11157287B2 (en) * | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system with variable latency memory access |
CN107888669B (zh) * | 2017-10-31 | 2020-06-09 | 武汉理工大学 | 一种基于深度学习神经网络的大规模资源调度系统及方法 |
KR102699040B1 (ko) * | 2017-11-15 | 2024-08-26 | 삼성전자주식회사 | 뉴럴 네트워크 모델들의 공용 연산 그룹을 단일 처리하는 뉴럴 네트워크 시스템, 이를 포함하는 애플리케이션 프로세서 및 뉴럴 네트워크 시스템의 동작방법 |
-
2018
- 2018-05-04 US US15/971,872 patent/US20190340490A1/en active Pending
-
2019
- 2019-04-04 KR KR1020207034158A patent/KR102607234B1/ko active Application Filing
- 2019-04-04 WO PCT/US2019/025892 patent/WO2019212688A1/en active Application Filing
- 2019-04-04 EP EP19719694.2A patent/EP3788555A1/en active Pending
- 2019-04-04 JP JP2020560951A patent/JP7098753B2/ja active Active
- 2019-04-04 CN CN201980029309.4A patent/CN112074846B/zh active Active
- 2019-04-04 KR KR1020237040296A patent/KR20230163590A/ko active Application Filing
-
2022
- 2022-06-29 JP JP2022104387A patent/JP7322254B2/ja active Active
-
2023
- 2023-07-26 JP JP2023121917A patent/JP2023153160A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160379109A1 (en) * | 2015-06-29 | 2016-12-29 | Microsoft Technology Licensing, Llc | Convolutional neural networks on hardware accelerators |
US20180046903A1 (en) * | 2016-08-12 | 2018-02-15 | DeePhi Technology Co., Ltd. | Deep processing unit (dpu) for implementing an artificial neural network (ann) |
JP6250780B1 (ja) * | 2016-12-01 | 2017-12-20 | ヴィア アライアンス セミコンダクター カンパニー リミテッド | キャッシュメモリ又はニューラルネットワークユニットメモリとして動作可能なメモリアレイを有するプロセッサ |
JP2021517310A (ja) * | 2018-03-22 | 2021-07-15 | アマゾン テクノロジーズ インコーポレイテッド | 複数の入力データセットのための処理 |
Non-Patent Citations (2)
Title |
---|
SCHUYLER ELDRIDGE, ET AL.: ""Towards General-Purpose Neural Network Computing"", PROCEEDINGS OF 2015 INTERNATIONAL CONFERENCE ON PARALLEL ARCHITECTURE AND COMPILATION (PACT), JPN6022021249, 21 October 2015 (2015-10-21), pages 99 - 112, XP032878635, ISSN: 0004784760, DOI: 10.1109/PACT.2015.21 * |
YONGMING SHEN, ET AL.: ""Maximizing CNN Accelerator Efficiency Through Resource Partitioning"", PROCEEDINGS OF 2017 ACM/IEEE 44TH ANNUAL INTERNATIONAL SYMPOSIUM ON COMPUTER ARCHITECTURE (ISCA), JPN6021050306, 28 June 2017 (2017-06-28), pages 535 - 547, XP033268545, ISSN: 0004784759, DOI: 10.1145/3079856.3080221 * |
Also Published As
Publication number | Publication date |
---|---|
KR102607234B1 (ko) | 2023-11-28 |
WO2019212688A1 (en) | 2019-11-07 |
JP7322254B2 (ja) | 2023-08-07 |
CN112074846B (zh) | 2024-09-06 |
KR20210002662A (ko) | 2021-01-08 |
JP7098753B2 (ja) | 2022-07-11 |
KR20230163590A (ko) | 2023-11-30 |
JP2022136092A (ja) | 2022-09-15 |
CN112074846A (zh) | 2020-12-11 |
US20190340490A1 (en) | 2019-11-07 |
EP3788555A1 (en) | 2021-03-10 |
JP2023153160A (ja) | 2023-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7098753B2 (ja) | ニューラルネットワークプロセッサにおいてタスクを割り当てるためのシステム及び方法 | |
KR102572705B1 (ko) | 스케일러블 뉴럴 네트워크 프로세싱 엔진 | |
US20240069957A1 (en) | Systems and Methods for Task Switching in Neural Network Processor | |
US11640316B2 (en) | Compiling and scheduling transactions in neural network processor | |
US11200490B2 (en) | Processing group convolution in neural network processor | |
US11783174B2 (en) | Splitting of input data for processing in neural network processor | |
US11934941B2 (en) | Asynchronous task execution for neural processor circuit | |
US20230394276A1 (en) | Subtask storage for streaming convolutions in neural network processor | |
US20220237438A1 (en) | Task context switch for neural processor circuit | |
US20220036158A1 (en) | Task skew management for neural processor circuit | |
CN116762084A (zh) | 用于神经处理器电路的分支操作 | |
US20230368008A1 (en) | Memory-efficient streaming convolutions in neural network processor | |
US20240220764A1 (en) | Efficient zero padding in convolution at neural processor | |
US20240232571A1 (en) | Palettization of Kernel Vector in Neural Network Processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201030 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220530 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220629 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7098753 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |