JP2020521195A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2020521195A5 JP2020521195A5 JP2019552217A JP2019552217A JP2020521195A5 JP 2020521195 A5 JP2020521195 A5 JP 2020521195A5 JP 2019552217 A JP2019552217 A JP 2019552217A JP 2019552217 A JP2019552217 A JP 2019552217A JP 2020521195 A5 JP2020521195 A5 JP 2020521195A5
- Authority
- JP
- Japan
- Prior art keywords
- superlayer
- neural network
- batch
- hardware circuit
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000001537 neural Effects 0.000 claims 63
- 230000000875 corresponding Effects 0.000 claims 13
- 238000000638 solvent extraction Methods 0.000 claims 11
- 238000000034 method Methods 0.000 claims 7
- 238000005192 partition Methods 0.000 claims 3
- 238000004220 aggregation Methods 0.000 claims 2
- 230000002776 aggregation Effects 0.000 claims 2
Claims (20)
- 方法であって、
ハードウェア回路上のニューラルネットワークを使用して処理されるニューラルネットワーク入力のバッチを受信するステップを備え、前記ニューラルネットワークは、有向グラフの状態で配置された複数のレイヤを有し、各レイヤは、それぞれのパラメータセットを有し、前記方法はさらに、
前記ニューラルネットワークのレイヤの、スーパーレイヤのシーケンスへのパーティショニングを決定するステップを備え、各スーパーレイヤは、1つ以上のレイヤを含む前記有向グラフのパーティションであり、前記方法はさらに、
前記ハードウェア回路を使用して前記ニューラルネットワーク入力のバッチを処理するステップを備え、前記ハードウェア回路を使用して前記ニューラルネットワーク入力のバッチを処理するステップは、前記シーケンスにおける各スーパーレイヤについて、
前記スーパーレイヤにおける前記レイヤのための前記それぞれのパラメータセットを前記ハードウェア回路のメモリにロードするステップと、
前記バッチ内の各ニューラルネットワーク入力について、前記ハードウェア回路の前記メモリ内の前記パラメータセットを使用して、前記スーパーレイヤの各レイヤを介して前記ニューラルネットワーク入力に対応するスーパーレイヤ入力を処理して、前記ニューラルネットワーク入力のためのスーパーレイヤ出力を生成するステップとを備える、方法。 - 前記シーケンスにおける第1のスーパーレイヤでは、前記ニューラルネットワーク入力に対応する前記スーパーレイヤ入力が前記ニューラルネットワーク入力である、請求項1に記載の方法。
- 前記第1のスーパーレイヤ出力の後の各スーパーレイヤへの前記スーパーレイヤ入力は、前記シーケンスにおける先行するスーパーレイヤによって生成されたスーパーレイヤ出力である、請求項2に記載の方法。
- 前記ハードウェア回路を使用して前記ニューラルネットワーク入力のバッチを処理するステップは、各スーパーレイヤについて、
前記バッチ内の第2のニューラルネットワーク入力に対応するスーパーレイヤ入力が前記スーパーレイヤの各レイヤを介して後に処理される前に前記バッチ内の第1のニューラルネットワーク入力のための前記スーパーレイヤ入力が前記スーパーレイヤの各レイヤを介して処理されるように、前記スーパーレイヤの各レイヤを介して前記ニューラルネットワーク入力のバッチに対応する前記スーパーレイヤ入力をシーケンシャルに処理するステップを備える、請求項1〜3のいずれか1項に記載の方法。 - スーパーレイヤのそれぞれのレイヤは、ワーキングセットに関連付けられ、各ワーキングセットは、少なくとも
i)前記ハードウェア回路上の前記ニューラルネットワークを使用して処理される前記ニューラルネットワーク入力のバッチの1つ以上の入力または前記スーパーレイヤの先行するレイヤの1つ以上の出力、および
ii)前記スーパーレイヤの各レイヤを介して前記1つ以上の入力を処理するのに必要なメモリの量を示すサイズパラメータ
によって定義される、請求項1〜4のいずれか1項に記載の方法。 - 前記ニューラルネットワークのレイヤの、スーパーレイヤのシーケンスへの前記パーティショニングを決定するステップは、
i)少なくとも1つのワーキングセットのための特定のサイズパラメータを決定するステップと、
ii)前記ハードウェア回路の前記メモリの特定の集約パラメータ容量を決定するステップと、
iii)前記少なくとも1つのワーキングセットのための前記特定のサイズパラメータまたは前記ハードウェア回路の前記メモリの特定の集約パラメータ容量のうちの少なくとも1つに基づいて、前記ニューラルネットワークのレイヤの、スーパーレイヤのシーケンスへの前記パーティショニングを決定するステップとを備える、請求項5に記載の方法。 - 前記ハードウェア回路の前記メモリは、閾値記憶容量を有し、前記ニューラルネットワークのレイヤの、スーパーレイヤのシーケンスへの前記パーティショニングを決定するステップは、
前記ハードウェア回路の前記メモリの前記閾値記憶容量に基づいて、前記ニューラルネットワークのレイヤをスーパーレイヤのシーケンスにパーティショニングするステップを備える、請求項1〜6のいずれか1項に記載の方法。 - 前記ニューラルネットワークのレイヤは、前記ハードウェア回路が前記ニューラルネットワーク入力のバッチを処理する際に前記メモリの前記閾値記憶容量を超えないようにスーパーレイヤのシーケンスにパーティショニングされる、請求項7に記載の方法。
- 前記ニューラルネットワーク入力のバッチおよび前記それぞれのパラメータセットは、前記ハードウェア回路の外部のソースから受信され、前記スーパーレイヤの各レイヤを介して前記ニューラルネットワーク入力に対応する前記スーパーレイヤ入力を処理するステップは、前記外部のソースから追加のパラメータを受信することなく前記スーパーレイヤ入力を処理するステップを備える、請求項1〜8のいずれか1項に記載の方法。
- コンピューティングシステムであって、
前記コンピューティングシステムに配設されたハードウェア回路を備え、前記ハードウェア回路は、1つ以上の処理装置を含み、前記コンピューティングシステムはさらに、
動作を実行するように前記1つ以上の処理装置によって実行可能な命令を格納するための1つ以上の機械読取可能記憶装置を備え、前記動作は、
ハードウェア回路上のニューラルネットワークを使用して処理されるニューラルネットワーク入力のバッチを受信するステップを備え、前記ニューラルネットワークは、有向グラフの状態で配置された複数のレイヤを有し、各レイヤは、それぞれのパラメータセットを有し、前記動作はさらに、
前記ニューラルネットワークのレイヤの、スーパーレイヤのシーケンスへのパーティショニングを決定するステップを備え、各スーパーレイヤは、1つ以上のレイヤを含む前記有向グラフのパーティションであり、前記動作はさらに、
前記ハードウェア回路を使用して前記ニューラルネットワーク入力のバッチを処理するステップを備え、前記ハードウェア回路を使用して前記ニューラルネットワーク入力のバッチを処理するステップは、前記シーケンスにおける各スーパーレイヤについて、
前記スーパーレイヤにおける前記レイヤのための前記それぞれのパラメータセットを前記ハードウェア回路のメモリにロードするステップと、
前記バッチ内の各ニューラルネットワーク入力について、前記ハードウェア回路の前記メモリ内の前記パラメータを使用して、前記スーパーレイヤの各レイヤを介して前記ニューラルネットワーク入力に対応するスーパーレイヤ入力を処理して、前記ニューラルネットワーク入力のためのスーパーレイヤ出力を生成するステップとを備える、コンピューティングシステム。 - 前記シーケンスにおける第1のスーパーレイヤでは、前記ニューラルネットワーク入力に対応する前記スーパーレイヤ入力が前記ニューラルネットワーク入力である、請求項10に記載のコンピューティングシステム。
- 前記第1のスーパーレイヤ出力の後の各スーパーレイヤへの前記スーパーレイヤ入力は、前記シーケンスにおける先行するスーパーレイヤによって生成されたスーパーレイヤ出力である、請求項11に記載のコンピューティングシステム。
- 前記ハードウェア回路を使用して前記ニューラルネットワーク入力のバッチを処理するステップは、各スーパーレイヤについて、
前記バッチ内の第2のニューラルネットワーク入力に対応するスーパーレイヤ入力が前記スーパーレイヤの各レイヤを介して後に処理される前に前記バッチ内の第1のニューラルネットワーク入力のための前記スーパーレイヤ入力が前記スーパーレイヤの各レイヤを介して処理されるように、前記スーパーレイヤの各レイヤを介して前記ニューラルネットワーク入力のバッチに対応する前記スーパーレイヤ入力をシーケンシャルに処理するステップを備える、請求項10〜12のいずれか1項に記載のコンピューティングシステム。 - スーパーレイヤのそれぞれのレイヤは、ワーキングセットに関連付けられ、各ワーキングセットは、少なくとも
i)前記ハードウェア回路上の前記ニューラルネットワークを使用して処理される前記ニューラルネットワーク入力のバッチの1つ以上の入力または前記スーパーレイヤの先行するレイヤの1つ以上の出力、および
ii)前記スーパーレイヤの各レイヤを介して前記1つ以上の入力を処理するのに必要なメモリの量を示すサイズパラメータ
によって定義される、請求項10〜13のいずれか1項に記載のコンピューティングシステム。 - 前記ニューラルネットワークのレイヤの、スーパーレイヤのシーケンスへの前記パーティショニングを決定するステップは、
i)少なくとも1つのワーキングセットのための特定のサイズパラメータを決定するステップと、
ii)前記ハードウェア回路の前記メモリの特定の集約パラメータ容量を決定するステップと、
iii)前記少なくとも1つのワーキングセットのための前記特定のサイズパラメータまたは前記ハードウェア回路の前記メモリの特定の集約パラメータ容量のうちの少なくとも1つに基づいて、前記ニューラルネットワークのレイヤの、スーパーレイヤのシーケンスへの前記パーティショニングを決定するステップとを備える、請求項14に記載のコンピューティングシステム。 - 前記ハードウェア回路の前記メモリは、閾値記憶容量を有し、前記ニューラルネットワークのレイヤの、スーパーレイヤのシーケンスへの前記パーティショニングを決定するステップは、
前記ハードウェア回路の前記メモリの前記閾値記憶容量に基づいて、前記ニューラルネットワークのレイヤをスーパーレイヤのシーケンスにパーティショニングするステップを備える、請求項10〜15のいずれか1項に記載のコンピューティングシステム。 - 前記ニューラルネットワークのレイヤは、前記ハードウェア回路が前記ニューラルネットワーク入力のバッチを処理する際に前記メモリの前記閾値記憶容量を超えないようにスーパーレイヤのシーケンスにパーティショニングされる、請求項16に記載のコンピューティングシステム。
- 前記ニューラルネットワーク入力のバッチおよび前記それぞれのパラメータセットは、前記ハードウェア回路の外部のソースから受信され、前記スーパーレイヤの各レイヤを介
して前記ニューラルネットワーク入力に対応する前記スーパーレイヤ入力を処理するステップは、前記外部のソースから追加のパラメータを受信することなく前記スーパーレイヤ入力を処理するステップを備える、請求項10〜17のいずれか1項に記載のコンピューティングシステム。 - 動作を実行するように1つ以上の処理装置に命令を実行させるプログラムであって、前記動作は、
ハードウェア回路上のニューラルネットワークを使用して処理されるニューラルネットワーク入力のバッチを受信するステップを備え、前記ニューラルネットワークは、有向グラフの状態で配置された複数のレイヤを有し、各レイヤは、それぞれのパラメータセットを有し、前記動作はさらに、
前記ニューラルネットワークのレイヤの、スーパーレイヤのシーケンスへのパーティショニングを決定するステップを備え、各スーパーレイヤは、1つ以上のレイヤを含む前記有向グラフのパーティションであり、前記動作はさらに、
前記ハードウェア回路を使用して前記ニューラルネットワーク入力のバッチを処理するステップを備え、前記ハードウェア回路を使用して前記ニューラルネットワーク入力のバッチを処理するステップは、前記シーケンスにおける各スーパーレイヤについて、
前記スーパーレイヤにおける前記レイヤのための前記それぞれのパラメータセットを前記ハードウェア回路のメモリにロードするステップと、
前記バッチ内の各ニューラルネットワーク入力について、前記ハードウェア回路の前記メモリ内の前記パラメータセットを使用して、前記スーパーレイヤの各レイヤを介して前記ニューラルネットワーク入力に対応するスーパーレイヤ入力を処理して、前記ニューラルネットワーク入力のためのスーパーレイヤ出力を生成するステップとを備える、プログラム。 - 前記ハードウェア回路を使用して前記ニューラルネットワーク入力のバッチを処理するステップは、各スーパーレイヤについて、
前記バッチ内の第2のニューラルネットワーク入力に対応するスーパーレイヤ入力が前記スーパーレイヤの各レイヤを介して後に処理される前に前記バッチ内の第1のニューラルネットワーク入力のための前記スーパーレイヤ入力が前記スーパーレイヤの各レイヤを介して処理されるように、前記スーパーレイヤの各レイヤを介して前記ニューラルネットワーク入力のバッチに対応する前記スーパーレイヤ入力をシーケンシャルに処理するステップを備える、請求項19に記載のプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022019764A JP7439149B2 (ja) | 2017-05-19 | 2022-02-10 | ニューラルネットワーク処理のスケジューリング |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/599,559 US10019668B1 (en) | 2017-05-19 | 2017-05-19 | Scheduling neural network processing |
US15/599,559 | 2017-05-19 | ||
PCT/US2018/013939 WO2018212799A1 (en) | 2017-05-19 | 2018-01-17 | Scheduling neural network processing |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022019764A Division JP7439149B2 (ja) | 2017-05-19 | 2022-02-10 | ニューラルネットワーク処理のスケジューリング |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020521195A JP2020521195A (ja) | 2020-07-16 |
JP2020521195A5 true JP2020521195A5 (ja) | 2020-08-27 |
JP7025441B2 JP7025441B2 (ja) | 2022-02-24 |
Family
ID=61157323
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019552217A Active JP7025441B2 (ja) | 2017-05-19 | 2018-01-17 | ニューラルネットワーク処理のスケジューリング |
JP2022019764A Active JP7439149B2 (ja) | 2017-05-19 | 2022-02-10 | ニューラルネットワーク処理のスケジューリング |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022019764A Active JP7439149B2 (ja) | 2017-05-19 | 2022-02-10 | ニューラルネットワーク処理のスケジューリング |
Country Status (7)
Country | Link |
---|---|
US (3) | US10019668B1 (ja) |
EP (1) | EP3577605A1 (ja) |
JP (2) | JP7025441B2 (ja) |
KR (1) | KR102346636B1 (ja) |
CN (2) | CN117291239A (ja) |
TW (2) | TWI664587B (ja) |
WO (1) | WO2018212799A1 (ja) |
Families Citing this family (66)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11437032B2 (en) | 2017-09-29 | 2022-09-06 | Shanghai Cambricon Information Technology Co., Ltd | Image processing apparatus and method |
US11164074B2 (en) | 2018-02-08 | 2021-11-02 | Western Digital Technologies, Inc. | Multi-core systolic processor system for neural network processing |
US11461579B2 (en) | 2018-02-08 | 2022-10-04 | Western Digital Technologies, Inc. | Configurable neural network engine for convolutional filter sizes |
EP3651077B1 (en) | 2018-02-13 | 2021-10-27 | Shanghai Cambricon Information Technology Co., Ltd | Computation device and method |
US11630666B2 (en) | 2018-02-13 | 2023-04-18 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11397579B2 (en) | 2018-02-13 | 2022-07-26 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
CN116991226A (zh) | 2018-02-14 | 2023-11-03 | 上海寒武纪信息科技有限公司 | 处理器的控制装置、方法及设备 |
US11475306B2 (en) | 2018-03-22 | 2022-10-18 | Amazon Technologies, Inc. | Processing for multiple input data sets |
US11461631B2 (en) * | 2018-03-22 | 2022-10-04 | Amazon Technologies, Inc. | Scheduling neural network computations based on memory capacity |
US11562213B2 (en) * | 2018-04-17 | 2023-01-24 | Intel Corporation | Methods and arrangements to manage memory in cascaded neural networks |
CN109313673A (zh) * | 2018-04-17 | 2019-02-05 | 深圳鲲云信息科技有限公司 | 网络模型的运行方法及相关产品 |
EP3624020A4 (en) | 2018-05-18 | 2021-05-05 | Shanghai Cambricon Information Technology Co., Ltd | CALCULATION PROCEDURES AND RELATED PRODUCTS |
US10970120B2 (en) * | 2018-06-26 | 2021-04-06 | Advanced Micro Devices, Inc. | Method and system for opportunistic load balancing in neural networks using metadata |
KR102470893B1 (ko) | 2018-06-27 | 2022-11-25 | 상하이 캠브리콘 인포메이션 테크놀로지 컴퍼니 리미티드 | 온 칩 코드의 브레이크 포인트에 의한 디버그 방법, 온 칩 프로세서 및 브레이크 포인트에 의한 칩 디버그 시스템 |
CN109117949A (zh) * | 2018-08-01 | 2019-01-01 | 南京天数智芯科技有限公司 | 用于人工智能设备的灵活数据流处理器和处理方法 |
US11966583B2 (en) * | 2018-08-28 | 2024-04-23 | Cambricon Technologies Corporation Limited | Data pre-processing method and device, and related computer device and storage medium |
EP3844620A1 (en) | 2018-08-29 | 2021-07-07 | Qualcomm Incorporated | Method, apparatus, and system for an architecture for machine learning acceleration |
US11703939B2 (en) | 2018-09-28 | 2023-07-18 | Shanghai Cambricon Information Technology Co., Ltd | Signal processing device and related products |
US11263529B2 (en) | 2018-10-10 | 2022-03-01 | Google Llc | Modifying machine learning models to improve locality |
CN111383638A (zh) | 2018-12-28 | 2020-07-07 | 上海寒武纪信息科技有限公司 | 信号处理装置、信号处理方法及相关产品 |
JP7379821B2 (ja) * | 2019-01-09 | 2023-11-15 | 日本電信電話株式会社 | 推論処理装置および推論処理方法 |
US11586929B2 (en) | 2019-02-15 | 2023-02-21 | Wipro Limited | Method and system for optimizing memory requirement for training an artificial neural network model |
CN111667046A (zh) * | 2019-03-08 | 2020-09-15 | 富泰华工业(深圳)有限公司 | 深度学习加速方法及用户终端 |
US11783176B2 (en) | 2019-03-25 | 2023-10-10 | Western Digital Technologies, Inc. | Enhanced storage device memory architecture for machine learning |
US10929058B2 (en) | 2019-03-25 | 2021-02-23 | Western Digital Technologies, Inc. | Enhanced memory device architecture for machine learning |
CN111832738B (zh) | 2019-04-18 | 2024-01-09 | 中科寒武纪科技股份有限公司 | 一种数据处理方法及相关产品 |
US20200334522A1 (en) | 2019-04-18 | 2020-10-22 | Cambricon Technologies Corporation Limited | Data processing method and related products |
US11175898B2 (en) * | 2019-05-31 | 2021-11-16 | Apple Inc. | Compiling code for a machine learning model for execution on a specialized processor |
US11676028B2 (en) | 2019-06-12 | 2023-06-13 | Shanghai Cambricon Information Technology Co., Ltd | Neural network quantization parameter determination method and related products |
CN112085191B (zh) | 2019-06-12 | 2024-04-02 | 上海寒武纪信息科技有限公司 | 一种神经网络的量化参数确定方法及相关产品 |
CN114008636A (zh) * | 2019-06-18 | 2022-02-01 | 高通股份有限公司 | 优化机器学习模型性能 |
CN114341888A (zh) * | 2019-07-03 | 2022-04-12 | 华夏芯(北京)通用处理器技术有限公司 | 用于操作加速器电路的指令 |
US11354579B2 (en) * | 2019-07-15 | 2022-06-07 | Microsoft Technology Licensing, Llc | Dynamic multi-layer execution for artificial intelligence modeling |
US11436019B2 (en) | 2019-07-15 | 2022-09-06 | Microsoft Technology Licensing, Llc | Data parallelism in distributed training of artificial intelligence models |
US11520592B2 (en) * | 2019-07-15 | 2022-12-06 | Microsoft Technology Licensing, Llc | Executing large artificial intelligence models on memory-constrained devices |
TWI764236B (zh) * | 2019-08-16 | 2022-05-11 | 美商谷歌有限責任公司 | 晶片上操作的顯式排程 |
US12001955B2 (en) | 2019-08-23 | 2024-06-04 | Anhui Cambricon Information Technology Co., Ltd. | Data processing method, device, computer equipment and storage medium |
WO2021036905A1 (zh) | 2019-08-27 | 2021-03-04 | 安徽寒武纪信息科技有限公司 | 数据处理方法、装置、计算机设备和存储介质 |
US11573828B2 (en) * | 2019-09-16 | 2023-02-07 | Nec Corporation | Efficient and scalable enclave protection for machine learning programs |
DE102019127795A1 (de) * | 2019-10-15 | 2021-04-15 | Infineon Technologies Ag | Schaltung und ein Verfahren zum Bestimmen einer Lage eines Magneten und Joystick |
CN110515739B (zh) * | 2019-10-23 | 2020-01-31 | 上海燧原智能科技有限公司 | 深度学习神经网络模型负载计算方法、装置、设备及介质 |
CN112862085B (zh) * | 2019-11-27 | 2023-08-22 | 杭州海康威视数字技术股份有限公司 | 存储空间优化方法及装置 |
EP4010848A1 (en) * | 2019-12-18 | 2022-06-15 | Google LLC | Parameter caching for neural network accelerators |
CN111338816B (zh) * | 2020-02-18 | 2023-05-12 | 深圳鲲云信息科技有限公司 | 基于神经网络的指令交互方法、系统、设备及存储介质 |
JP6834097B1 (ja) * | 2020-05-15 | 2021-02-24 | エッジコーティックス ピーティーイー. リミテッド | 推論のニューラルネットワークアクセラレータのハードウェア固有分割 |
WO2021237755A1 (zh) * | 2020-05-29 | 2021-12-02 | 华为技术有限公司 | 神经网络调度方法及装置 |
US11288097B2 (en) * | 2020-06-12 | 2022-03-29 | Disney Enterprises, Inc. | Automated hardware resource optimization |
KR20240042266A (ko) * | 2020-08-21 | 2024-04-01 | 주식회사 딥엑스 | 추론 연산을 수행하는 전자 장치 |
KR102299084B1 (ko) * | 2020-08-24 | 2021-09-07 | 오픈엣지테크놀로지 주식회사 | 하드웨어 가속기의 출력 데이터를 메모리에 저장하는 방법, 하드웨어 가속기의 입력 데이터를 메모리로부터 읽는 방법, 및 이를 위한 하드웨어 가속기 |
KR102384587B1 (ko) * | 2020-08-25 | 2022-04-08 | 오픈엣지테크놀로지 주식회사 | 하드웨어 가속기의 출력 데이터를 압축하는 방법, 하드웨어 가속기로의 입력 데이터를 디코딩하는 방법, 및 이를 위한 하드웨어 가속기 |
KR20220027500A (ko) * | 2020-08-27 | 2022-03-08 | 에스케이하이닉스 주식회사 | 가속 장치, 데이터 저장 장치, 데이터 처리 시스템 및 가속 장치의 동작방법 |
KR20220033314A (ko) * | 2020-09-09 | 2022-03-16 | 삼성전자주식회사 | 호스트 프로세서 및 가속기의 동작 방법 및 이들을 포함한 전자 장치 |
KR20220078290A (ko) * | 2020-12-03 | 2022-06-10 | 삼성전자주식회사 | 뉴럴 네트워크 연산 스케줄링 방법 및 장치 |
US11734072B2 (en) * | 2020-12-31 | 2023-08-22 | Nuvolo Technologies Corporation | Stream-based job processing |
KR102506613B1 (ko) * | 2021-04-30 | 2023-03-06 | 주식회사 딥엑스 | 이종의 센서로 제공되는 이종의 데이터를 처리하기 위한 퓨전-인공신경망을 위해 구현되는 npu |
US11511772B2 (en) | 2021-04-30 | 2022-11-29 | Deepx Co., Ltd. | NPU implemented for artificial neural networks to process fusion of heterogeneous data received from heterogeneous sensors |
EP4099609A1 (en) * | 2021-06-04 | 2022-12-07 | Zama SAS | Computational network conversion for fully homomorphic evaluation |
KR102651559B1 (ko) * | 2021-12-08 | 2024-03-26 | 주식회사 딥엑스 | 영상 융합을 위한 신경 프로세싱 유닛 및 인공신경망 시스템 |
WO2023106723A1 (ko) * | 2021-12-08 | 2023-06-15 | 주식회사 딥엑스 | 영상 융합을 위한 신경 프로세싱 유닛 및 인공신경망 시스템 |
US11657260B2 (en) * | 2021-10-26 | 2023-05-23 | Edgecortix Pte. Ltd. | Neural network hardware accelerator data parallelism |
TWI802070B (zh) * | 2021-11-03 | 2023-05-11 | 大陸商星宸科技股份有限公司 | 積體電路及其配置方法 |
US11442775B1 (en) * | 2021-12-03 | 2022-09-13 | FriendliAI Inc. | Dynamic batching for inference system for transformer-based generation tasks |
US11514370B1 (en) | 2021-12-03 | 2022-11-29 | FriendliAI Inc. | Selective batching for inference system for transformer-based generation tasks |
KR102548582B1 (ko) * | 2022-12-26 | 2023-06-29 | 리벨리온 주식회사 | 뉴럴 프로세서 및 이의 명령어 페치 방법 |
KR20240102798A (ko) | 2022-12-26 | 2024-07-03 | 리벨리온 주식회사 | 뉴럴 프로세서 및 이의 명령어 페치 방법 |
US20240256285A1 (en) * | 2023-01-31 | 2024-08-01 | Microsoft Technology Licensing, Llc | Parallelizing multi-phase kernels with cross-phase dependency on heterogenous hardware |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7089185B2 (en) | 2002-06-27 | 2006-08-08 | Intel Corporation | Embedded multi-layer coupled hidden Markov model |
US7171043B2 (en) | 2002-10-11 | 2007-01-30 | Intel Corporation | Image recognition using hidden markov models and coupled hidden markov models |
US7203368B2 (en) | 2003-01-06 | 2007-04-10 | Intel Corporation | Embedded bayesian network for pattern recognition |
KR100486735B1 (ko) | 2003-02-28 | 2005-05-03 | 삼성전자주식회사 | 최적구획 분류신경망 구성방법과 최적구획 분류신경망을이용한 자동 레이블링방법 및 장치 |
US7639727B1 (en) * | 2004-10-05 | 2009-12-29 | Cingular Wireless Ii, L.L.C. | System and method for selecting wireless signal bandwidth based on signal strength measurements provided by wireless receivers |
TWI525558B (zh) * | 2011-01-17 | 2016-03-11 | Univ Nat Taipei Technology | Resilient high - speed hardware reverse transfer and feedback type neural network system |
US8462018B1 (en) * | 2011-05-26 | 2013-06-11 | Rockwell Collins, Inc. | Systems and method for controlling the simultaneous display of multi-level classified information on the same surface of an aircraft display unit |
US8725658B2 (en) * | 2011-09-21 | 2014-05-13 | Brain Corporation | Elementary network description for efficient memory management in neuromorphic systems |
US8914315B2 (en) * | 2012-01-27 | 2014-12-16 | International Business Machines Corporation | Multi-compartment neuron suitable for implementation in a distributed hardware model by reducing communication bandwidth |
US9477925B2 (en) | 2012-11-20 | 2016-10-25 | Microsoft Technology Licensing, Llc | Deep neural networks training for speech and pattern recognition |
US10331823B2 (en) * | 2013-10-24 | 2019-06-25 | Mentor Graphics Corporation | Method and system of fast nested-loop circuit verification for process and environmental variation and hierarchical circuits |
US10095917B2 (en) | 2013-11-04 | 2018-10-09 | Facebook, Inc. | Systems and methods for facial representation |
US20160026912A1 (en) * | 2014-07-22 | 2016-01-28 | Intel Corporation | Weight-shifting mechanism for convolutional neural networks |
EP3035204B1 (en) * | 2014-12-19 | 2018-08-15 | Intel Corporation | Storage device and method for performing convolution operations |
US20160335119A1 (en) | 2015-05-12 | 2016-11-17 | minds.ai inc | Batch-based neural network system |
US10438117B1 (en) * | 2015-05-21 | 2019-10-08 | Google Llc | Computing convolutions using a neural network processor |
US9747546B2 (en) * | 2015-05-21 | 2017-08-29 | Google Inc. | Neural network processor |
US10083395B2 (en) * | 2015-05-21 | 2018-09-25 | Google Llc | Batch processing in a neural network processor |
US10049322B2 (en) * | 2015-05-21 | 2018-08-14 | Google Llc | Prefetching weights for use in a neural network processor |
CN107690663B (zh) * | 2015-06-05 | 2022-04-12 | 渊慧科技有限公司 | 白化神经网络层 |
US10387770B2 (en) | 2015-06-10 | 2019-08-20 | Samsung Electronics Co., Ltd. | Spiking neural network with reduced memory access and reduced in-network bandwidth consumption |
EP3104309B1 (en) * | 2015-06-10 | 2020-04-01 | Samsung Electronics Co., Ltd. | Spiking neural network with reduced memory access and reduced in-network bandwidth consumption |
US9582726B2 (en) * | 2015-06-24 | 2017-02-28 | Qualcomm Incorporated | Systems and methods for image processing in a deep convolution network |
US10452971B2 (en) | 2015-06-29 | 2019-10-22 | Microsoft Technology Licensing, Llc | Deep neural network partitioning on servers |
CN106599990B (zh) * | 2015-10-08 | 2019-04-09 | 上海兆芯集成电路有限公司 | 具有神经存储器的神经网络单元和集体将来自神经存储器的数据列移位的神经处理单元阵列 |
CN108351983A (zh) | 2015-10-28 | 2018-07-31 | 谷歌有限责任公司 | 修改计算图 |
US20170154262A1 (en) * | 2015-11-30 | 2017-06-01 | Google Inc. | Resizing neural networks |
US10482380B2 (en) * | 2015-12-30 | 2019-11-19 | Amazon Technologies, Inc. | Conditional parallel processing in fully-connected neural networks |
KR102120396B1 (ko) * | 2016-05-26 | 2020-06-08 | 더 가버닝 카운슬 오브 더 유니버시티 오브 토론토 | 심층 신경망용 가속기 |
AU2016203619A1 (en) * | 2016-05-31 | 2017-12-14 | Canon Kabushiki Kaisha | Layer-based operations scheduling to optimise memory for CNN applications |
US10922610B2 (en) * | 2017-09-14 | 2021-02-16 | Intel Corporation | Synchronization scheduler of distributed neural network training |
-
2017
- 2017-05-19 US US15/599,559 patent/US10019668B1/en active Active
-
2018
- 2018-01-17 CN CN202311182467.8A patent/CN117291239A/zh active Pending
- 2018-01-17 JP JP2019552217A patent/JP7025441B2/ja active Active
- 2018-01-17 WO PCT/US2018/013939 patent/WO2018212799A1/en unknown
- 2018-01-17 CN CN201880019345.8A patent/CN110447044B/zh active Active
- 2018-01-17 KR KR1020197027653A patent/KR102346636B1/ko active IP Right Grant
- 2018-01-17 EP EP18703134.9A patent/EP3577605A1/en active Pending
- 2018-02-09 TW TW107104603A patent/TWI664587B/zh active
- 2018-02-09 TW TW108119004A patent/TWI699712B/zh active
- 2018-06-25 US US16/017,052 patent/US11157794B2/en active Active
-
2021
- 2021-10-25 US US17/509,522 patent/US20220156557A1/en active Pending
-
2022
- 2022-02-10 JP JP2022019764A patent/JP7439149B2/ja active Active
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020521195A5 (ja) | ||
JP2022070955A5 (ja) | ||
JP2015532749A5 (ja) | ||
US10984155B2 (en) | Accelerating particle-swarm algorithms | |
CN107450971B (zh) | 任务处理方法及装置 | |
CN110046137B (zh) | 将数据流分组并存储至云端存储文件中的系统和方法 | |
RU2016136985A (ru) | Архитектура с параллельными процессорами обработки дерева принятия решений | |
WO2016036830A4 (en) | Executing graph-based program specifications | |
CN107196900A (zh) | 一种共识校验的方法及装置 | |
CN110728376B (zh) | 一种基于树状拓扑结构的联邦学习方法及装置 | |
US11361217B2 (en) | Chip and chip-based data processing method | |
US20160187861A1 (en) | Systems and methods to adaptively select execution modes | |
US20120163585A1 (en) | Masking addition operation device for prevention of side channel attack | |
CN114281521B (zh) | 优化深度学习异构资源通信效率方法、系统、设备及介质 | |
US11539509B2 (en) | Memory optimization for nested hash operations | |
CN110163337B (zh) | 基于神经网络的数据处理方法、装置、设备及存储介质 | |
CN114900497B (zh) | 一种标识序号生成方法、装置、电子设备及存储介质 | |
CN108737130B (zh) | 基于神经网络的网络流量预测装置及方法 | |
Afrati et al. | Bounds for Overlapping Interval Join on MapReduce. | |
WO2017157189A1 (en) | Data streaming broadcasts in massively parallel processing databases | |
CN108243113A (zh) | 随机负载均衡的方法及装置 | |
CN103701670A (zh) | 一种数据包负载的处理方法和装置 | |
CN105378665B (zh) | 一种数据处理方法及装置 | |
CN111831425B (zh) | 一种数据处理方法、装置及设备 | |
Hajela et al. | A Fine Tuned Hybrid Implementation for Solving Shortest Path Problems Using Bellman Ford |