JP7322254B2 - ニューラルネットワークプロセッサにおいてタスクを割り当てるためのシステム及び方法 - Google Patents
ニューラルネットワークプロセッサにおいてタスクを割り当てるためのシステム及び方法 Download PDFInfo
- Publication number
- JP7322254B2 JP7322254B2 JP2022104387A JP2022104387A JP7322254B2 JP 7322254 B2 JP7322254 B2 JP 7322254B2 JP 2022104387 A JP2022104387 A JP 2022104387A JP 2022104387 A JP2022104387 A JP 2022104387A JP 7322254 B2 JP7322254 B2 JP 7322254B2
- Authority
- JP
- Japan
- Prior art keywords
- task
- circuit
- neural
- data
- queue
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 62
- 238000000034 method Methods 0.000 title claims description 57
- 230000001537 neural effect Effects 0.000 claims description 264
- 230000015654 memory Effects 0.000 claims description 107
- 238000012545 processing Methods 0.000 description 44
- 230000008569 process Effects 0.000 description 33
- 238000010801 machine learning Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 19
- 230000002085 persistent effect Effects 0.000 description 9
- 230000033001 locomotion Effects 0.000 description 8
- 238000000605 extraction Methods 0.000 description 7
- 238000012805 post-processing Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000009825 accumulation Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 206010011878 Deafness Diseases 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000000881 depressing effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000009249 intrinsic sympathomimetic activity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Image Processing (AREA)
- Memory System (AREA)
- Advance Control (AREA)
- Microcomputers (AREA)
Description
例示的な電子デバイス
例示的ニューラルプロセッサ回路
例示的なニューラルエンジンアーキテクチャ
ニューラルプロセッサ回路における処理のためのデータのセグメント化の動作
ニューラルエンジンアーキテクチャにおける例示的プロセス
例示的なニューラルタスクマネージャアーキテクチャ
ニューラルタスクマネージャアーキテクチャにおける例示的プロセス
Claims (20)
- ニューラルエンジン回路と、
ニューラルエンジン回路に結合されたニューラルタスクマネージャ回路と、を備えるニューラルプロセッサ回路であって、ニューラルタスクマネージャ回路は、
複数のタスクへの参照付けをする複数のタスクキュー回路であって、タスクキュー回路は、ニューラルネットワークをインスタンス化するタスクを含むタスクリストへの参照を記憶するように構成され、タスクは、前記ニューラルプロセッサ回路の外部にあるメモリの場所に記憶されたタスクの構成データを含む、複数のタスクキュー回路と、
前記複数のタスクキュー回路に結合されたタスクアービタ回路であって、前記タスクアービタ回路は、
前記複数のタスクキュー回路において参照付けられた前記複数のタスクに関連付けられた優先度パラメータを取得し、
前記複数のタスクの優先度パラメータに従って1つ以上のタスクキュー回路から1つ以上のタスクをデキューし、前記1つ以上のタスクをデキューすることは前記ニューラルタスクマネージャ回路に、前記デキューされたタスクがデキューされる前記タスクキュー回路に記憶された前記タスクリストへの前記参照に基づいて、前記ニューラルプロセッサ回路の外部にある前記メモリの前記場所から前記デキューされたタスクの前記構成データを取得させ、
前記ニューラルタスクマネージャ回路に、前記デキューされたタスクの前記構成データの一部を前記ニューラルエンジン回路に提供させるように構成され、
前記構成データの前記一部が前記ニューラルエンジン回路をプログラムして前記デキューされたタスクを実行させる、タスクアービタ回路と、を含む、
ニューラルプロセッサ回路。 - 前記デキューされたタスクは、実行された場合、前記ニューラルネットワークの単一のネットワーク層、前記ニューラルネットワークの複数のネットワーク層、又は前記ニューラルネットワークのネットワーク層の一部をインスタンス化する、請求項1に記載のニューラルプロセッサ回路。
- 前記タスクアービタ回路は、前記ニューラルタスクマネージャ回路の構成キュー内に前記構成データを記憶するように更に構成され、前記構成キューは、前記ニューラルエンジン回路に結合され、前記構成データの前記一部を前記ニューラルエンジン回路に提供するように構成されており、
前記ニューラルプロセッサ回路は、
前記構成データが前記構成キューに記憶されている場合に、前記ニューラルプロセッサ回路の外部にある前記メモリから前記デキューされたタスクのカーネルデータを取得するように構成されたカーネルダイレクトメモリアクセス(DMA)と、
前記構成データが前記構成キューに記憶されている場合に、前記ニューラルプロセッサ回路の外部にある前記メモリから前記デキューされたタスクの入力データを取得するように構成されたバッファダイレクトメモリアクセス(DMA)と、
を更に含む、請求項1に記載のニューラルプロセッサ回路。 - 前記ニューラルタスクマネージャ回路は、
前記構成キューに結合されたフェッチキューと、
前記フェッチキュー及び前記タスクアービタ回路に結合されたタスクマネージャダイレクトメモリアクセス(DMA)と、
を更に含み、
前記タスクアービタ回路は、前記タスクマネージャDMAを介して、前記ニューラルプロセッサ回路の外部にある前記メモリの前記場所から前記デキューされたタスクの前記構成データを取得し、前記構成データを前記フェッチキューに記憶するように更に構成され、実行されたタスクの第2の構成データが前記構成キューから除去された場合に、前記フェッチキューは、前記構成データを前記構成キューに提供する、
請求項3に記載のニューラルプロセッサ回路。 - 前記複数のタスクキュー回路は、第1のタスクキュー回路及び第2のタスクキュー回路を含み、前記第1のタスクキュー回路は、第1の優先度を有し、前記第2のタスクキュー回路は第2の優先度を有し、
前記タスクアービタ回路は、前記第1の優先度と前記第2の優先度との比較に基づいて、(i)前記デキューされたタスクの前記構成データ、又は(ii)フェッチキュー内の他のタスクの別の構成データ、のうちの1つを記憶するように構成されている、
請求項4に記載のニューラルプロセッサ回路。 - 前記ニューラルプロセッサ回路の外部にある前記メモリと前記ニューラルエンジン回路とに結合されたデータバッファを更に備え、前記タスクアービタ回路は、前記構成データの別の部分を前記データバッファに提供するように更に構成され、前記構成データの前記他の部分が前記データバッファをプログラムして、前記デキューされたタスクの入力データのワークユニットを前記ニューラルエンジン回路にブロードキャストさせる、請求項1に記載のニューラルプロセッサ回路。
- 前記データバッファと前記ニューラルプロセッサ回路の外部にある前記メモリとに結合されたバッファダイレクトメモリアクセス(DMA)を更に含み、
前記タスクアービタ回路は、前記構成データの第3の部分を前記バッファDMAに提供するように更に構成され、前記構成データの前記第3の部分が前記バッファDMAをプログラムして、前記ニューラルプロセッサ回路の外部にある前記メモリから前記デキューされたタスクの前記入力データのタイルを取得し、前記タイルを前記データバッファに記憶させ、
前記タイルは、複数のワークユニットを含む、請求項6に記載のニューラルプロセッサ回路。 - 前記ニューラルエンジン回路は、
前記ニューラルタスクマネージャ回路に結合された入力バッファ回路と、
前記入力バッファ回路に結合された乗算-加算(MAD)回路と、
を含み、
前記構成データの前記一部が前記入力バッファ回路をプログラムして、前記入力バッファ回路に記憶された前記デキューされたタスクの入力データの一部を前記MAD回路に提供させる、
請求項1に記載のニューラルプロセッサ回路。 - 前記ニューラルプロセッサ回路の外部にある前記メモリと前記ニューラルエンジン回路とに結合されたデータバッファを更に備え、前記ニューラルエンジン回路は出力回路を更に備え、前記構成データの前記一部が前記出力回路をプログラムして、前記MAD回路から前記データバッファに出力データを提供させる、請求項8に記載のニューラルプロセッサ回路。
- 前記ニューラルプロセッサ回路の外部にある前記メモリと前記ニューラルエンジン回路とに結合されたカーネルダイレクトメモリアクセス(DMA)を更に備え、
前記タスクアービタ回路は、前記構成データの別の部分を前記カーネルDMAに提供するように更に構成され、前記構成データの前記他の部分が前記カーネルDMAをプログラムして、前記ニューラルプロセッサ回路の外部にある前記メモリからカーネルデータを取得させ、前記カーネルデータを前記ニューラルエンジン回路に提供して前記デキューされたタスクを実行させる、請求項1に記載のニューラルプロセッサ回路。 - ニューラルプロセッサ回路においてタスクを管理する方法であって、
複数のタスクキュー回路において複数のタスクを参照付けすることと、
前記ニューラルプロセッサ回路のタスクキュー回路内に、ニューラルネットワークをインスタンス化するタスクのタスクリストへの参照を記憶することであって、タスクは、前記ニューラルプロセッサ回路の外部にあるメモリの場所に記憶された、タスクの構成データを含む、ことと、
前記複数のタスクキュー回路に結合されたタスクアービタ回路において、前記複数のタスクキュー回路において参照付けられた前記複数のタスクに関連付けられた優先度パラメータを取得することと、
前記複数のタスクの前記優先度パラメータに従って1つ以上のタスクキュー回路から1つ以上のタスクをデキューすることであって、前記1つ以上のタスクをデキューすることは、ニューラルタスクマネージャ回路に、前記タスクキュー回路に記憶された前記タスクリストへの前記参照に基づいて、前記ニューラルプロセッサ回路の外部にある前記メモリの前記場所からデキューされたタスクの構成データを取得させることを含む、ことと、
前記ニューラルタスクマネージャ回路に、前記デキューされたタスクの構成データの一部を前記ニューラルプロセッサ回路のニューラルエンジン回路に提供させることであって、前記構成データの前記一部が前記ニューラルエンジン回路をプログラムして、前記デキューされたタスクを実行させる、ことと、
を含む方法。 - 前記デキューされたタスクは、実行された場合、前記ニューラルネットワークの単一のネットワーク層、前記ニューラルネットワークの複数のネットワーク層、又は前記ニューラルネットワークのネットワーク層の一部をインスタンス化する、請求項11に記載の方法。
- 前記構成データを前記ニューラルプロセッサ回路の構成キューに記憶することと、
前記構成データの前記一部を、前記構成キューから前記ニューラルエンジン回路に提供することと、
前記構成データが前記構成キューに記憶されている場合に、外部メモリから前記デキューされたタスクのカーネルデータを取得することと、
前記構成データが前記構成キューに記憶されている場合に、前記外部メモリから前記デキューされたタスクの入力データを取得することと、
を更に含む請求項11に記載の方法。 - 前記デキューされたタスクの前記構成データを、前記ニューラルプロセッサ回路のタスクマネージャダイレクトメモリアクセス(DMA)を介して、前記外部メモリの前記場所から取得することと、
前記構成データを前記ニューラルプロセッサ回路のフェッチキュー内に記憶することと、
実行されたタスクの別の構成データが前記構成キューから除去された場合に、前記フェッチキューから前記構成キューに前記構成データを提供することと、
を更に含む請求項13に記載の方法。 - 第1のタスクキュー回路に対応する第1の優先度、第2のタスクキュー回路に対応する第2の優先度を記憶する、ことと、
前記第1の優先度と前記第2の優先度との比較に基づいて、(i)前記デキューされたタスクの前記構成データ、又は(ii)フェッチキュー内の他のタスクの別の構成データ、のうちの1つを記憶することと、
を更に含む請求項14に記載の方法。 - 前記構成データの別の部分を、前記ニューラルプロセッサ回路のデータバッファに提供することを更に含み、前記構成データの前記別の部分が前記データバッファをプログラムして、前記デキューされたタスクの入力データのワークユニットを前記ニューラルエンジン回路にブロードキャストさせる、請求項11に記載の方法。
- 前記構成データの第3の部分を、前記データバッファ及び外部メモリに結合された前記ニューラルプロセッサ回路のバッファダイレクトメモリアクセス(DMA)に提供することを更に含み、前記構成データの前記第3の部分が前記バッファDMAをプログラムして、前記外部メモリから前記デキューされたタスクの前記入力データのタイルを取得させ、前記タイルを前記データバッファに記憶させ、前記タイルは複数のワークユニットを含む、請求項16に記載の方法。
- 前記構成データの前記一部が、前記ニューラルエンジン回路の入力バッファ回路をプログラムして、前記入力バッファ回路に記憶された前記デキューされたタスクの入力データの一部を、前記ニューラルエンジン回路の乗算-加算(MAD)回路に提供させ、
前記構成データの前記一部が、前記ニューラルエンジン回路の出力回路をプログラムして、出力データを前記MAD回路から前記ニューラルプロセッサ回路のデータバッファに提供させる、
請求項11に記載の方法。 - 前記構成データの別の部分を、前記ニューラルプロセッサ回路の外部にある前記メモリと前記ニューラルエンジン回路とに結合されたカーネルダイレクトメモリアクセス(DMA)に提供することを更に含み、前記構成データの前記別の部分が前記カーネルDMAをプログラムして、前記ニューラルプロセッサ回路の外部にある前記メモリからカーネルデータを取得させ、前記カーネルデータを前記ニューラルエンジン回路に提供して前記タスクを実行させる、
請求項11に記載の方法。 - ニューラルプロセッサ回路を備える集積回路(IC)システムであって、前記ニューラルプロセッサ回路は、
ニューラルエンジン回路と、
前記ニューラルエンジン回路に結合されたニューラルタスクマネージャ回路と、を備え、前記ニューラルタスクマネージャ回路は、
複数のタスクへの参照付けをする複数のタスクキュー回路であって、タスクキュー回路は、ニューラルネットワークをインスタンス化するタスクを含むタスクリストへの参照を記憶するように構成され、タスクは、前記ニューラルプロセッサ回路の外部にあるメモリの場所に記憶されたタスクの構成データを含む、複数のタスクキュー回路と、
前記複数のタスクキュー回路に結合されたタスクアービタ回路であって、前記タスクアービタ回路は、
前記複数のタスクキュー回路において参照付けされた前記複数のタスクに関連付けられた優先度パラメータを取得し、
前記複数のタスクの優先度パラメータに従って、1つ以上のタスクキュー回路から1つ以上のタスクをデキューすることであって、前記1つ以上のタスクをデキューすることは、前記ニューラルタスクマネージャ回路に、前記デキューされたタスクがデキューされたタスクキュー回路に記憶された前記タスクリストへの前記参照に基づいて、前記ニューラルプロセッサ回路の外部にある前記メモリの前記場所からデキューされたタスクの前記構成データを取得させることを含み、、
前記ニューラルタスクマネージャ回路に、前記デキューされたタスクの構成データの一部を前記ニューラルエンジン回路に提供させるように構成され、前記構成データの前記一部が前記ニューラルエンジン回路をプログラムして前記デキューされたタスクを実行させる、タスクアービタ回路と、
を含む、
集積回路(IC)システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023121917A JP2023153160A (ja) | 2018-05-04 | 2023-07-26 | ニューラルネットワークプロセッサにおいてタスクを割り当てるためのシステム及び方法 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/971,872 US20190340490A1 (en) | 2018-05-04 | 2018-05-04 | Systems and methods for assigning tasks in a neural network processor |
US15/971,872 | 2018-05-04 | ||
PCT/US2019/025892 WO2019212688A1 (en) | 2018-05-04 | 2019-04-04 | Systems and methods for assigning tasks in a neural network processor |
JP2020560951A JP7098753B2 (ja) | 2018-05-04 | 2019-04-04 | ニューラルネットワークプロセッサにおいてタスクを割り当てるためのシステム及び方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020560951A Division JP7098753B2 (ja) | 2018-05-04 | 2019-04-04 | ニューラルネットワークプロセッサにおいてタスクを割り当てるためのシステム及び方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023121917A Division JP2023153160A (ja) | 2018-05-04 | 2023-07-26 | ニューラルネットワークプロセッサにおいてタスクを割り当てるためのシステム及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022136092A JP2022136092A (ja) | 2022-09-15 |
JP7322254B2 true JP7322254B2 (ja) | 2023-08-07 |
Family
ID=66286990
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020560951A Active JP7098753B2 (ja) | 2018-05-04 | 2019-04-04 | ニューラルネットワークプロセッサにおいてタスクを割り当てるためのシステム及び方法 |
JP2022104387A Active JP7322254B2 (ja) | 2018-05-04 | 2022-06-29 | ニューラルネットワークプロセッサにおいてタスクを割り当てるためのシステム及び方法 |
JP2023121917A Pending JP2023153160A (ja) | 2018-05-04 | 2023-07-26 | ニューラルネットワークプロセッサにおいてタスクを割り当てるためのシステム及び方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020560951A Active JP7098753B2 (ja) | 2018-05-04 | 2019-04-04 | ニューラルネットワークプロセッサにおいてタスクを割り当てるためのシステム及び方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023121917A Pending JP2023153160A (ja) | 2018-05-04 | 2023-07-26 | ニューラルネットワークプロセッサにおいてタスクを割り当てるためのシステム及び方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20190340490A1 (ja) |
EP (1) | EP3788555A1 (ja) |
JP (3) | JP7098753B2 (ja) |
KR (2) | KR20230163590A (ja) |
CN (1) | CN112074846B (ja) |
WO (1) | WO2019212688A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7038608B2 (ja) * | 2018-06-15 | 2022-03-18 | ルネサスエレクトロニクス株式会社 | 半導体装置 |
US11295205B2 (en) * | 2018-09-28 | 2022-04-05 | Qualcomm Incorporated | Neural processing unit (NPU) direct memory access (NDMA) memory bandwidth optimization |
US11188338B2 (en) * | 2019-06-13 | 2021-11-30 | Fungible, Inc. | Context value retrieval prior to or parallel with expansion of previous symbol for context-decoding in range decoder |
US11461622B2 (en) * | 2019-06-28 | 2022-10-04 | Amazon Technologies, Inc. | Dynamic code loading for multiple executions on a sequential processor |
US11513799B2 (en) * | 2019-11-04 | 2022-11-29 | Apple Inc. | Chained buffers in neural network processor |
JP7525597B2 (ja) | 2019-12-19 | 2024-07-30 | グーグル エルエルシー | ニューラルネットワーク計算を加速するためのハードウェア回路 |
CN111126589B (zh) * | 2019-12-31 | 2022-05-20 | 昆仑芯(北京)科技有限公司 | 神经网络数据处理装置、方法和电子设备 |
TWI760690B (zh) * | 2020-02-03 | 2022-04-11 | 瑞昱半導體股份有限公司 | 一種資料傳輸系統及其資源配置方法 |
US12014202B2 (en) | 2020-02-13 | 2024-06-18 | Samsung Electronics Co., Ltd. | Method and apparatus with accelerator |
US11599780B2 (en) | 2020-03-02 | 2023-03-07 | Apple Inc. | Asynchronous task execution for neural processor circuit |
JP6834097B1 (ja) * | 2020-05-15 | 2021-02-24 | エッジコーティックス ピーティーイー. リミテッド | 推論のニューラルネットワークアクセラレータのハードウェア固有分割 |
CN112949847B (zh) * | 2021-03-29 | 2023-07-25 | 上海西井科技股份有限公司 | 神经网络算法加速系统、调度系统及调度方法 |
KR20240082474A (ko) * | 2022-12-01 | 2024-06-11 | 삼성전자주식회사 | 인공 지능 서비스를 제공하는 전자 장치 및 그 제어 방법 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005285124A (ja) | 2004-03-29 | 2005-10-13 | Sony Computer Entertainment Inc | プロセッサ操作を使用する熱管理を達成する方法および装置 |
US20160379109A1 (en) | 2015-06-29 | 2016-12-29 | Microsoft Technology Licensing, Llc | Convolutional neural networks on hardware accelerators |
US20180046903A1 (en) | 2016-08-12 | 2018-02-15 | DeePhi Technology Co., Ltd. | Deep processing unit (dpu) for implementing an artificial neural network (ann) |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3244982B2 (ja) * | 1995-01-30 | 2002-01-07 | 株式会社日立製作所 | 分散制御システム |
CN103699440B (zh) * | 2012-09-27 | 2017-05-24 | 北京搜狐新媒体信息技术有限公司 | 一种云计算平台系统为任务分配资源的方法和装置 |
US9424079B2 (en) * | 2013-06-27 | 2016-08-23 | Microsoft Technology Licensing, Llc | Iteration support in a heterogeneous dataflow engine |
US10186282B2 (en) * | 2014-06-19 | 2019-01-22 | Apple Inc. | Robust end-pointing of speech signals using speaker recognition |
CN104125167A (zh) * | 2014-07-24 | 2014-10-29 | 海信集团有限公司 | 一种流量控制方法和装置 |
US10110511B2 (en) * | 2015-03-16 | 2018-10-23 | Liveperson, Inc. | Resource prioritization and communication-channel establishment |
US20160335119A1 (en) * | 2015-05-12 | 2016-11-17 | minds.ai inc | Batch-based neural network system |
US10671428B2 (en) * | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10664751B2 (en) | 2016-12-01 | 2020-05-26 | Via Alliance Semiconductor Co., Ltd. | Processor with memory array operable as either cache memory or neural network unit memory |
CN105488565A (zh) * | 2015-11-17 | 2016-04-13 | 中国科学院计算技术研究所 | 加速深度神经网络算法的加速芯片的运算装置及方法 |
US20170351555A1 (en) * | 2016-06-03 | 2017-12-07 | Knuedge, Inc. | Network on chip with task queues |
CN106203621B (zh) * | 2016-07-11 | 2019-04-30 | 北京深鉴智能科技有限公司 | 用于卷积神经网络计算的处理器 |
US20180046898A1 (en) * | 2016-08-11 | 2018-02-15 | Vivante Corporation | Zero Coefficient Skipping Convolution Neural Network Engine |
US10891538B2 (en) * | 2016-08-11 | 2021-01-12 | Nvidia Corporation | Sparse convolutional neural network accelerator |
US10949736B2 (en) * | 2016-11-03 | 2021-03-16 | Intel Corporation | Flexible neural network accelerator and methods therefor |
US10795836B2 (en) * | 2017-04-17 | 2020-10-06 | Microsoft Technology Licensing, Llc | Data processing performance enhancement for neural networks using a virtualized data iterator |
WO2018193353A1 (en) * | 2017-04-17 | 2018-10-25 | Cerebras Systems Inc. | Neuron smearing for accelerated deep learning |
CN107679620B (zh) * | 2017-04-19 | 2020-05-26 | 赛灵思公司 | 人工神经网络处理装置 |
US10186011B2 (en) * | 2017-04-28 | 2019-01-22 | Intel Corporation | Programmable coarse grained and sparse matrix compute hardware with advanced scheduling |
CN111553473B (zh) * | 2017-07-05 | 2023-10-13 | 上海寒武纪信息科技有限公司 | 数据冗余方法及执行数据冗余方法的神经网络处理器 |
US11157287B2 (en) * | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system with variable latency memory access |
CN107888669B (zh) * | 2017-10-31 | 2020-06-09 | 武汉理工大学 | 一种基于深度学习神经网络的大规模资源调度系统及方法 |
KR102699040B1 (ko) * | 2017-11-15 | 2024-08-26 | 삼성전자주식회사 | 뉴럴 네트워크 모델들의 공용 연산 그룹을 단일 처리하는 뉴럴 네트워크 시스템, 이를 포함하는 애플리케이션 프로세서 및 뉴럴 네트워크 시스템의 동작방법 |
CN118014031A (zh) | 2018-03-22 | 2024-05-10 | 亚马逊技术股份有限公司 | 针对多个输入数据集的处理 |
-
2018
- 2018-05-04 US US15/971,872 patent/US20190340490A1/en active Pending
-
2019
- 2019-04-04 KR KR1020237040296A patent/KR20230163590A/ko active Application Filing
- 2019-04-04 CN CN201980029309.4A patent/CN112074846B/zh active Active
- 2019-04-04 WO PCT/US2019/025892 patent/WO2019212688A1/en active Application Filing
- 2019-04-04 JP JP2020560951A patent/JP7098753B2/ja active Active
- 2019-04-04 KR KR1020207034158A patent/KR102607234B1/ko active Application Filing
- 2019-04-04 EP EP19719694.2A patent/EP3788555A1/en active Pending
-
2022
- 2022-06-29 JP JP2022104387A patent/JP7322254B2/ja active Active
-
2023
- 2023-07-26 JP JP2023121917A patent/JP2023153160A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005285124A (ja) | 2004-03-29 | 2005-10-13 | Sony Computer Entertainment Inc | プロセッサ操作を使用する熱管理を達成する方法および装置 |
US20160379109A1 (en) | 2015-06-29 | 2016-12-29 | Microsoft Technology Licensing, Llc | Convolutional neural networks on hardware accelerators |
US20180046903A1 (en) | 2016-08-12 | 2018-02-15 | DeePhi Technology Co., Ltd. | Deep processing unit (dpu) for implementing an artificial neural network (ann) |
Non-Patent Citations (1)
Title |
---|
今井拓司,Emerging Tech 半導体:いきなり実用、AIチップ、iPhoneはじめ怒涛の採用,日経エレクトロニクス,日本,日経BP社,2017年11月20日,第1186号,pp.62-67,ISSN 0385-1680 |
Also Published As
Publication number | Publication date |
---|---|
KR102607234B1 (ko) | 2023-11-28 |
KR20210002662A (ko) | 2021-01-08 |
KR20230163590A (ko) | 2023-11-30 |
JP7098753B2 (ja) | 2022-07-11 |
CN112074846A (zh) | 2020-12-11 |
US20190340490A1 (en) | 2019-11-07 |
JP2022136092A (ja) | 2022-09-15 |
WO2019212688A1 (en) | 2019-11-07 |
JP2021520572A (ja) | 2021-08-19 |
CN112074846B (zh) | 2024-09-06 |
EP3788555A1 (en) | 2021-03-10 |
JP2023153160A (ja) | 2023-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7322254B2 (ja) | ニューラルネットワークプロセッサにおいてタスクを割り当てるためのシステム及び方法 | |
US11989640B2 (en) | Scalable neural network processing engine | |
US20240069957A1 (en) | Systems and Methods for Task Switching in Neural Network Processor | |
US11640316B2 (en) | Compiling and scheduling transactions in neural network processor | |
US11200490B2 (en) | Processing group convolution in neural network processor | |
US11783174B2 (en) | Splitting of input data for processing in neural network processor | |
US11934941B2 (en) | Asynchronous task execution for neural processor circuit | |
US20230394276A1 (en) | Subtask storage for streaming convolutions in neural network processor | |
US20210132945A1 (en) | Chained Buffers In Neural Network Processor | |
US20220237438A1 (en) | Task context switch for neural processor circuit | |
US20220036158A1 (en) | Task skew management for neural processor circuit | |
US20230368008A1 (en) | Memory-efficient streaming convolutions in neural network processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220729 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220729 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230530 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230626 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230726 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7322254 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |