JP2020119564A - 多重経路ニューラルネットワーク及びそのレイヤにリソースを割り当てる方法並びに多重経路ニューラルネットワークアナライザ - Google Patents
多重経路ニューラルネットワーク及びそのレイヤにリソースを割り当てる方法並びに多重経路ニューラルネットワークアナライザ Download PDFInfo
- Publication number
- JP2020119564A JP2020119564A JP2020006404A JP2020006404A JP2020119564A JP 2020119564 A JP2020119564 A JP 2020119564A JP 2020006404 A JP2020006404 A JP 2020006404A JP 2020006404 A JP2020006404 A JP 2020006404A JP 2020119564 A JP2020119564 A JP 2020119564A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- path
- allocation
- layer
- path neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 219
- 238000000034 method Methods 0.000 title claims abstract description 20
- 238000013468 resource allocation Methods 0.000 claims description 40
- 238000012545 processing Methods 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 15
- 230000001537 neural effect Effects 0.000 claims 1
- 230000001364 causal effect Effects 0.000 description 17
- 238000004458 analytical method Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 238000003860 storage Methods 0.000 description 6
- 230000001419 dependent effect Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000013138 pruning Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011773 genetically engineered mouse model Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5066—Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
- G06F9/5016—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5077—Logical partitioning of resources; Management or configuration of virtualized resources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/10—Interfaces, programming languages or software development kits, e.g. for simulating neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/60—Memory management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Pure & Applied Mathematics (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Neurology (AREA)
- Debugging And Monitoring (AREA)
- Stored Programmes (AREA)
Abstract
Description
一実施形態において、多重経路ニューラルネットワークの実行前に、第1レイヤに対するコンピューティングリソースの第1割り当てを行う。
他の実施形態において、多重経路ニューラルネットワークの実行中に、第1レイヤに対するコンピューティングリソースの第1割り当てを行う。
本発明は、単一のGPU装置で同時に実行されるカーネルの間にコンピューティングリソースを効率的に割り当てるか又は分割するためのシステム及び方法に関する。本発明のシステムは、コアの割り当て及び/又はコアの再分配により、単一のGPU装置で多数のGPU演算の並列及び/又は同時実行をスケジューリングする。システムに対するアプリケーション・プログラミング・インターフェース(API:Application Programming Interface)を通じて、ユーザは、同時に実行するGPU演算を選択し、同時演算のためのコンピューティングリソースを割り当てることが可能である。
がある。定義の目的は、下記の数式1のように、多重経路ニューラルネットワークの全体の実行時間を最小化する全てのレイヤの並列スケジューリング及び具現を見付けることである。
である、レイヤlの別の具現jが存在する場合、レイヤlの具現iは除去される。実行時間が比較的長い具現も除去される。例えば、実行時間が長い具現は、比較的少ないリソースの利用を提供し得るが、最適なソリューションの一部ではない可能性が高いため、
の場合、レイヤLの具現kは除去される。
101、300 多重経路ニューラルネットワーク
102 レイヤのストリーム割り当て
103 基準状態を生成し、ウィンドウを生成
104 コストモデルを用いた性能分析によるリソース割り当て
105 装置リソース制約
106 枝刈り(pruning)
107 レイヤリソースのコストモデルテンプレート
108 スケジューラ
109 レイヤのリソース割り当てのアップデート
201 カーネル
202 第2カーネル
301 第1経路
302 第2経路、臨界経路
303 入力
304 意思決定モジュール
401 第1データストリーム
402 第2データストリーム
500 レイヤ
501 第1ウィンドウ
502 第2ウィンドウ
503 第1経路
504 第2経路
600 データ処理システムの例示的なアーキテクチャ
601 プロセッサ
602 メモリ要素
603 システムバス
604 ローカルメモリ
605 大容量記憶装置
606 キーボード
607 ディスプレイ装置
608 ポインティング装置
609 ネットワークアダプタ
610 オペレーティングシステム
611 アプリケーション
612 プラットフォーム
613 通信リンク
614 ニューラルネットワークアクセラレータ
Claims (20)
- 多重経路ニューラルネットワークを介する2つ以上の経路と、
前記多重経路ニューラルネットワークの処理量を制限する前記多重経路ニューラルネットワークを介する臨界経路を含む1つ以上のレイヤを含む第1経路と、
前記多重経路ニューラルネットワークを実行することが可能なコンピューティングリソースの第1割り当てが行われる前記臨界経路の第1レイヤと、
前記多重経路ニューラルネットワークの実行時間を前記多重経路ニューラルネットワークにおけるコンピューティングリソースの第2割り当ての基準実行時間よりも短く減少させ、前記第1レイヤに対する前記コンピューティングリソースの第2割り当てと相違する前記第1レイヤに対する前記コンピューティングリソースの第1割り当てと、を有することを特徴とする多重経路ニューラルネットワーク。 - 前記多重経路ニューラルネットワークの実行前に、前記第1レイヤに対する前記コンピューティングリソースの第1割り当てを行うことを特徴とする請求項1に記載の多重経路ニューラルネットワーク。
- 前記多重経路ニューラルネットワークの実行中に、前記第1レイヤに対する前記コンピューティングリソースの第1割り当てを行うことを特徴とする請求項1に記載の多重経路ニューラルネットワーク。
- 前記多重経路ニューラルネットワークを実行することが可能なコンピューティングリソースは、多数のコンピューティングユニットコア、メモリサイズ、及びメモリ帯域幅を含むことを特徴とする請求項1に記載の多重経路ニューラルネットワーク。
- 前記臨界経路は、コンボリューション関数を提供するレイヤを含むことを特徴とする請求項1に記載の多重経路ニューラルネットワーク。
- 多重経路ニューラルネットワークを介する2つ以上の経路を含む多重経路ニューラルネットワークに、前記多重経路ニューラルネットワークを実行することが可能なコンピューティングリソースを割り当てるコンピューティングリソースの第1コンピューティングリソース割り当てに基づいて、前記多重経路ニューラルネットワークの基準実行時間を決定する段階と、
前記2つ以上の経路に対して1つ以上であると共に、各々が前記第1コンピューティングリソース割り当てと相違する第2コンピューティングリソース割り当てに対して、前記多重経路ニューラルネットワークを介する2つ以上の経路の実行時間を繰り返し決定する段階と、
前記多重経路ニューラルネットワークの全体の基準実行時間よりも短い前記多重経路ニューラルネットワークの全体の実行時間を提供する第1経路の第1レイヤに対する第2コンピューティングリソース割り当てを識別する段階と、を有することを特徴とする多重経路ニューラルネットワークのレイヤにリソースを割り当てる方法。 - 前記多重経路ニューラルネットワークの全体の基準実行時間は、前記多重経路ニューラルネットワークの処理量を制限する前記多重経路ニューラルネットワークの臨界回路を介する実行時間に対応することを特徴とする請求項6に記載の多重経路ニューラルネットワークのレイヤにリソースを割り当てる方法。
- 前記多重経路ニューラルネットワークの全体の基準実行時間よりも短い前記多重経路ニューラルネットワークの全体の実行時間を提供するように識別された前記第1経路の前記第1レイヤに対する前記第2コンピューティングリソース割り当てを行う段階を更に含むことを特徴とする請求項6に記載の多重経路ニューラルネットワークのレイヤにリソースを割り当てる方法。
- 前記多重経路ニューラルネットワークの実行前に、識別された前記第1経路の前記第1レイヤに対する前記2コンピューティングリソース割り当てを行う段階を更に含むことを特徴とする請求項8に記載の多重経路ニューラルネットワークのレイヤにリソースを割り当てる方法。
- 前記多重経路ニューラルネットワークの実行中に、識別された前記第1経路の前記第1レイヤに対する前記2コンピューティングリソース割り当てを行う段階を更に含むことを特徴とする請求項8に記載の多重経路ニューラルネットワークのレイヤにリソースを割り当てる方法。
- 前記第2コンピューティングリソース割り当てを識別する段階は、ユーザから前記第2コンピューティングリソース割り当ての選択を受信する段階を更に含むことを特徴とする請求項6に記載の多重経路ニューラルネットワークのレイヤにリソースを割り当てる方法。
- 前記多重経路ニューラルネットワークを実行することが可能なコンピューティングリソースは、多数のコンピューティングユニットコア、メモリサイズ、及びメモリ帯域幅を含むことを特徴とする請求項6に記載の多重経路ニューラルネットワークのレイヤにリソースを割り当てる方法。
- 前記2つ以上の経路のうちの少なくとも1つは、コンボリューション関数を提供するレイヤを含むことを特徴とする請求項6に記載の多重経路ニューラルネットワークのレイヤにリソースを割り当てる方法。
- 多重経路ニューラルネットワークを介する2つ以上の経路と1つ以上のレイヤを含む2つ以上の経路の第1経路とを含む多重経路ニューラルネットワークを受信するインタフェースと、
前記多重経路ニューラルネットワークを実行することが可能なコンピューティングリソースの第1割り当てが行われる前記多重経路ニューラルネットワークを介する臨界経路の1つ以上のレイヤを含む前記多重経路ニューラルネットワークを生成する処理装置と、を備え、
前記臨界経路は、前記多重経路ニューラルネットワークの処理量を制限し、
前記コンピューティングリソースの第1割り当ては、前記多重経路ニューラルネットワークの実行時間を前記多重経路ニューラルネットワークにおけるコンピューティングリソースの第2割り当ての基準実行時間未満に減少させ、
前記臨界経路の第1レイヤに対する前記コンピューティングリソースの第1割り当ては、前記臨界経路の第1レイヤに対する前記コンピューティングリソースの第2割り当てと相違することを特徴とする多重経路ニューラルネットワークアナライザ。 - 前記多重経路ニューラルネットワークを実行することが可能なコンピューティングリソースは、多数のコンピューティングユニットコア、メモリサイズ、及びメモリ帯域幅を含むことを特徴とする請求項14に記載の多重経路ニューラルネットワークアナライザ。
- 前記多重経路ニューラルネットワークアナライザは、
前記多重経路ニューラルネットワークを実行するための前記コンピューティングリソースの第2割り当てに基づいて、前記多重経路ニューラルネットワークを介する2つ以上の経路の基準実行時間を決定し、
前記2つ以上の経路における少なくとも1つのコンピューティングリソースの第3割り当てに対して、前記多重経路ニューラルネットワークを介する2つ以上の実行時間を繰り返し決定し、
前記多重経路ニューラルネットワークの基準実行時間よりも短い多重経路ニューラルネットワークの実行時間を提供するコンピューティングリソースの第3割り当てを識別し、
前記コンピューティングリソースの第3割り当ては、各々前記コンピューティングリソースの第2割り当てと相違することを特徴とする請求項14に記載の多重経路ニューラルネットワークアナライザ。 - 前記多重経路ニューラルネットワークの前記基準実行時間は、前記臨界経路における前記コンピューティングリソースの第2割り当てのための前記多重経路ニューラルネットワークの臨界経路を介する実行時間に対応することを特徴とする請求項16に記載の多重経路ニューラルネットワークアナライザ。
- 前記処理装置は、前記臨界経路における前記コンピューティングリソースの第3割り当てが前記臨界経路における前記コンピューティングリソースの第1割り当てになるように更に割り当てることを特徴とする請求項16に記載の多重経路ニューラルネットワークアナライザ。
- 前記処理装置は、前記多重経路ニューラルネットワークの実行前に、前記臨界経路における前記コンピューティングリソースの第1割り当てを行うことを特徴とする請求項18に記載の多重経路ニューラルネットワークアナライザ。
- 前記処理装置は、前記多重経路ニューラルネットワークの実行中に、前記臨界経路における前記コンピューティングリソースの第1割り当てを行うことを特徴とする請求項18に記載の多重経路ニューラルネットワークアナライザ。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962796071P | 2019-01-23 | 2019-01-23 | |
US62/796,071 | 2019-01-23 | ||
US16/442,440 US11620510B2 (en) | 2019-01-23 | 2019-06-14 | Platform for concurrent execution of GPU operations |
US16/442,440 | 2019-06-14 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020119564A true JP2020119564A (ja) | 2020-08-06 |
Family
ID=71608978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020006404A Pending JP2020119564A (ja) | 2019-01-23 | 2020-01-17 | 多重経路ニューラルネットワーク及びそのレイヤにリソースを割り当てる方法並びに多重経路ニューラルネットワークアナライザ |
Country Status (5)
Country | Link |
---|---|
US (2) | US11620510B2 (ja) |
JP (1) | JP2020119564A (ja) |
KR (2) | KR20200091790A (ja) |
CN (1) | CN111476344A (ja) |
TW (1) | TWI827792B (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11537436B2 (en) * | 2019-10-02 | 2022-12-27 | Qualcomm Incorporated | Method of configuring a memory block allocation of a machine learning network |
CN112349419A (zh) * | 2020-08-27 | 2021-02-09 | 北京颢云信息科技股份有限公司 | 一种基于医学数据及人工智能的真实世界研究方法 |
KR20220052546A (ko) * | 2020-10-21 | 2022-04-28 | 삼성전자주식회사 | 데이터 처리 방법 및 장치 및 이를 포함한 전자 장치 및 가속기 시스템 |
US20230071278A1 (en) * | 2021-09-03 | 2023-03-09 | International Business Machines Corporation | Using a machine learning module to determine a group of execution paths of program code and a computational resource allocation to use to execute the group of execution paths |
CN114091688B (zh) * | 2021-11-25 | 2022-05-20 | 北京九章云极科技有限公司 | 一种计算资源获取方法、装置、电子设备和存储介质 |
CN117114055B (zh) * | 2023-10-24 | 2024-04-09 | 北京航空航天大学 | 面向工业应用场景的fpga二值神经网络加速方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06187309A (ja) * | 1992-12-21 | 1994-07-08 | Hitachi Ltd | プロセッサ割付制御方式 |
JP2013171355A (ja) * | 2012-02-20 | 2013-09-02 | Hitachi Ltd | 計算機システム |
JP2018139064A (ja) * | 2017-02-24 | 2018-09-06 | 日本電信電話株式会社 | 仮想計算機システムおよびそのリソース割当て方法 |
Family Cites Families (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5704012A (en) | 1993-10-08 | 1997-12-30 | International Business Machines Corporation | Adaptive resource allocation using neural networks |
US7656959B2 (en) * | 2001-04-13 | 2010-02-02 | Agere Systems Inc. | Pipelined decision-feedback unit in a reduced-state viterbi detector with local feedback |
TWI246114B (en) * | 2002-09-24 | 2005-12-21 | Asml Netherlands Bv | Lithographic apparatus, device manufacturing method, and device manufactured thereby |
US20060253677A1 (en) * | 2005-05-04 | 2006-11-09 | Arm Limited | Data access prediction |
US8347293B2 (en) * | 2005-10-20 | 2013-01-01 | Network Appliance, Inc. | Mutual exclusion domains to perform file system processes on stripes |
US7606807B1 (en) * | 2006-02-14 | 2009-10-20 | Network Appliance, Inc. | Method and apparatus to utilize free cache in a storage system |
US20080071755A1 (en) * | 2006-08-31 | 2008-03-20 | Barsness Eric L | Re-allocation of resources for query execution in partitions |
TWI313437B (en) * | 2006-09-20 | 2009-08-11 | Nat Chiao Tung Universit | Matching method for interdependent scheduling |
CN101908003B (zh) * | 2009-06-05 | 2014-10-22 | Sap股份公司 | 并行化查询的多核调度 |
US8627331B1 (en) * | 2010-04-30 | 2014-01-07 | Netapp, Inc. | Multi-level parallelism of process execution in a mutual exclusion domain of a processing system |
US8868867B2 (en) * | 2011-09-15 | 2014-10-21 | The Regents Of The University Of California | Method for reducing latency of accessing data stored in a file system on a computer storage device by caching file system permission information in the computer storage device |
US20140133574A1 (en) * | 2012-11-13 | 2014-05-15 | Mediatek Inc. | Method and Apparatus for Sign Data Hiding of Video and Image Data |
JP2014179957A (ja) * | 2013-03-15 | 2014-09-25 | Toshiba Corp | 画像符号化装置および画像復号化装置 |
WO2015058063A1 (en) * | 2013-10-17 | 2015-04-23 | Georgia Tech Research Corporation | An improved lattice-reduction-aided k-best algorithm for low complexity and high performance communications |
US20150220420A1 (en) * | 2014-01-31 | 2015-08-06 | Schlumberger Technology Corporation | Performance evaluation and tuning systems and methods |
WO2015179632A1 (en) | 2014-05-22 | 2015-11-26 | Scheffler Lee J | Methods and systems for neural and cognitive processing |
US10346941B2 (en) | 2014-05-30 | 2019-07-09 | Apple Inc. | System and method for unified application programming interface and model |
US20160164537A1 (en) * | 2014-12-08 | 2016-06-09 | Samsung Electronics Co., Ltd. | Method and apparatus for parallel concatenated ldpc convolutional codes enabling power-efficient decoders |
US9779469B2 (en) | 2015-08-17 | 2017-10-03 | Qualcomm Incorporated | Register spill management for general purpose registers (GPRs) |
US9443192B1 (en) * | 2015-08-30 | 2016-09-13 | Jasmin Cosic | Universal artificial intelligence engine for autonomous computing devices and software applications |
US20170123799A1 (en) * | 2015-11-03 | 2017-05-04 | Intel Corporation | Performing folding of immediate data in a processor |
US10871536B2 (en) * | 2015-11-29 | 2020-12-22 | Arterys Inc. | Automated cardiac volume segmentation |
US10891540B2 (en) * | 2015-12-18 | 2021-01-12 | National Technology & Engineering Solutions Of Sandia, Llc | Adaptive neural network management system |
US10177782B2 (en) * | 2015-12-26 | 2019-01-08 | Intel Corporation | Hardware apparatuses and methods for data decompression |
US10942673B2 (en) * | 2016-03-31 | 2021-03-09 | Hewlett Packard Enterprise Development Lp | Data processing using resistive memory arrays |
US20180039884A1 (en) * | 2016-08-03 | 2018-02-08 | Barnaby Dalton | Systems, methods and devices for neural network communications |
US10116582B2 (en) * | 2016-08-08 | 2018-10-30 | Bank Of America Corporation | Resource assignment system with allocation assist |
US10264264B2 (en) * | 2016-09-24 | 2019-04-16 | Apple Inc. | Multi-bin decoding systems and methods |
WO2018057749A1 (en) * | 2016-09-26 | 2018-03-29 | Arizona Board Of Regents On Behalf Of Arizona State University | Cascaded computing for convolutional neural networks |
US10387298B2 (en) | 2017-04-04 | 2019-08-20 | Hailo Technologies Ltd | Artificial neural network incorporating emphasis and focus techniques |
US20180308006A1 (en) | 2017-04-24 | 2018-10-25 | William Atkinson | Method and Apparatus for Dynamic Evolving Cognitive questioning querying architecture iterative problem solving dynamically evolving feedback loop |
US10970630B1 (en) * | 2017-06-15 | 2021-04-06 | National Technology & Engineering Solutions Of Sandia, Llc | Neuromorphic computing architecture with dynamically accessible contexts |
GB2563473B (en) * | 2017-06-15 | 2019-10-02 | Accelercomm Ltd | Polar coder with logical three-dimensional memory, communication unit, integrated circuit and method therefor |
WO2019002474A1 (en) * | 2017-06-28 | 2019-01-03 | Deepmind Technologies Limited | GENERALIZED MEDICAL IMAGING ANALYSIS USING NEURONAL SEGMENTATION AND CLASSIFICATION NETWORKS |
US11694066B2 (en) * | 2017-10-17 | 2023-07-04 | Xilinx, Inc. | Machine learning runtime library for neural network acceleration |
CN107832840B (zh) * | 2017-10-31 | 2020-05-22 | 中国科学院计算技术研究所 | 一种用于神经网络处理器的方法 |
US20190044883A1 (en) * | 2018-01-11 | 2019-02-07 | Intel Corporation | NETWORK COMMUNICATION PRIORITIZATION BASED on AWARENESS of CRITICAL PATH of a JOB |
CN108875752B (zh) * | 2018-03-21 | 2022-06-07 | 北京迈格威科技有限公司 | 图像处理方法和装置、计算机可读存储介质 |
US11568220B2 (en) * | 2018-07-25 | 2023-01-31 | International Business Machines Corporation | Deep neural network implementation |
US20200042856A1 (en) * | 2018-07-31 | 2020-02-06 | International Business Machines Corporation | Scheduler for mapping neural networks onto an array of neural cores in an inference processing unit |
US10963300B2 (en) * | 2018-12-06 | 2021-03-30 | Raytheon Company | Accelerating dataflow signal processing applications across heterogeneous CPU/GPU systems |
-
2019
- 2019-06-14 US US16/442,440 patent/US11620510B2/en active Active
- 2019-06-14 US US16/442,447 patent/US11687771B2/en active Active
- 2019-11-12 KR KR1020190144279A patent/KR20200091790A/ko unknown
- 2019-11-12 KR KR1020190144253A patent/KR20200091789A/ko unknown
-
2020
- 2020-01-17 JP JP2020006404A patent/JP2020119564A/ja active Pending
- 2020-01-21 CN CN202010070764.3A patent/CN111476344A/zh active Pending
- 2020-01-22 TW TW109102329A patent/TWI827792B/zh active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06187309A (ja) * | 1992-12-21 | 1994-07-08 | Hitachi Ltd | プロセッサ割付制御方式 |
JP2013171355A (ja) * | 2012-02-20 | 2013-09-02 | Hitachi Ltd | 計算機システム |
JP2018139064A (ja) * | 2017-02-24 | 2018-09-06 | 日本電信電話株式会社 | 仮想計算機システムおよびそのリソース割当て方法 |
Non-Patent Citations (1)
Title |
---|
ジュロン・オーレリアン, SCIKIT−LEARNとTENSORFLOWによる実践機械学習, vol. 初版, JPN6023038542, 25 April 2018 (2018-04-25), pages 348 - 349, ISSN: 0005158042 * |
Also Published As
Publication number | Publication date |
---|---|
US11620510B2 (en) | 2023-04-04 |
TW202029064A (zh) | 2020-08-01 |
KR20200091789A (ko) | 2020-07-31 |
KR20200091790A (ko) | 2020-07-31 |
US20200234115A1 (en) | 2020-07-23 |
CN111476344A (zh) | 2020-07-31 |
US11687771B2 (en) | 2023-06-27 |
US20200234146A1 (en) | 2020-07-23 |
TWI827792B (zh) | 2024-01-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020119564A (ja) | 多重経路ニューラルネットワーク及びそのレイヤにリソースを割り当てる方法並びに多重経路ニューラルネットワークアナライザ | |
JP5509107B2 (ja) | 再構成可能なプログラマブルロジックデバイスコンピュータシステム | |
JP5934094B2 (ja) | データ並列スレッドを有する処理論理の複数のプロセッサにわたるマッピング | |
US7584465B1 (en) | Memory mapping for single and multi-processing implementations of code generated from a block diagram model | |
US9563474B2 (en) | Methods for managing threads within an application and devices thereof | |
RU2530345C2 (ru) | Экземпляры планировщика в процессе | |
US20160202999A1 (en) | A Computing Platform, A Reconfigurable Hardware Device And A Method for Simultaneously Executing Processes On Dynamically Reconfigurable Hardware Device, Such As An FPGA, As Well As Instruction Set Processors, Such As A CPU, And A Related Computer Readable Medium | |
JP2020537784A (ja) | ニューラルネットワークアクセラレーションのための機械学習ランタイムライブラリ | |
US8707280B2 (en) | Using parallel processing constructs and dynamically allocating program portions | |
CN111522640A (zh) | 计算图的并行执行方法和设备 | |
Lee et al. | Orchestrating multiple data-parallel kernels on multiple devices | |
TW202109285A (zh) | 用以致能工作負載之靜態映射的亂序管線化執行之方法及設備 | |
US20080126761A1 (en) | Method and apparatus for scheduling optimization | |
US11221979B1 (en) | Synchronization of DMA transfers for large number of queues | |
KR102238600B1 (ko) | 스케쥴러 컴퓨팅 장치, 그것을 포함하는 분산 컴퓨팅 시스템의 데이터 노드 및 그것의 방법 | |
WO2014027444A1 (ja) | スケジューリング装置、及び、スケジューリング方法 | |
CN117355819A (zh) | 一种计算模型的处理方法及装置 | |
Kaufmann et al. | The {HCl} Scheduler: Going all-in on Heterogeneity | |
CN108241508B (zh) | 处理OpenCL内核的方法及用于该方法的计算设备 | |
Tabish et al. | X-Stream: Accelerating streaming segments on MPSoCs for real-time applications | |
US11442794B1 (en) | Event assignment for synchronization of concurrent execution engines | |
Rubini et al. | Modeling shared-memory multiprocessor systems with AADL | |
Kaneko et al. | A SYCL-based high-level programming framework for HPC programmers to use remote FPGA clusters | |
Majumder et al. | Task allocation strategies for fpga based heterogeneous system on chip | |
JP2024040198A (ja) | 同期プロセッサのためのシャーディング |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230810 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231226 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240319 |