JP7256811B2 - アドバンストインタコネクト技術を利用してaiトレーニングを加速するための方法及びシステム - Google Patents
アドバンストインタコネクト技術を利用してaiトレーニングを加速するための方法及びシステム Download PDFInfo
- Publication number
- JP7256811B2 JP7256811B2 JP2020536955A JP2020536955A JP7256811B2 JP 7256811 B2 JP7256811 B2 JP 7256811B2 JP 2020536955 A JP2020536955 A JP 2020536955A JP 2020536955 A JP2020536955 A JP 2020536955A JP 7256811 B2 JP7256811 B2 JP 7256811B2
- Authority
- JP
- Japan
- Prior art keywords
- gpu
- compressed data
- data block
- gpus
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 78
- 238000012549 training Methods 0.000 title claims description 55
- 238000005516 engineering process Methods 0.000 title description 2
- 230000008569 process Effects 0.000 claims description 59
- 238000012545 processing Methods 0.000 claims description 52
- 238000013473 artificial intelligence Methods 0.000 claims description 36
- 238000007906 compression Methods 0.000 claims description 22
- 230000006835 compression Effects 0.000 claims description 22
- 230000006837 decompression Effects 0.000 claims description 16
- 238000011144 upstream manufacturing Methods 0.000 claims description 13
- 238000013144 data compression Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 6
- 238000003062 neural network model Methods 0.000 description 20
- 238000013528 artificial neural network Methods 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 11
- 238000012546 transfer Methods 0.000 description 11
- 210000002569 neuron Anatomy 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/38—Concurrent instruction execution, e.g. pipeline or look ahead
- G06F9/3802—Instruction prefetching
- G06F9/3812—Instruction prefetching with instruction modification, e.g. store into instruction stream
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/76—Architectures of general purpose stored program computers
- G06F15/80—Architectures of general purpose stored program computers comprising an array of processing units with common control, e.g. single instruction multiple data processors
- G06F15/8007—Architectures of general purpose stored program computers comprising an array of processing units with common control, e.g. single instruction multiple data processors single instruction multiple data [SIMD] multiprocessors
- G06F15/8015—One dimensional arrays, e.g. rings, linear arrays, buses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/22—Microcontrol or microprogram arrangements
- G06F9/28—Enhancement of operational speed, e.g. by using several microcontrol devices operating in parallel
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/3017—Runtime instruction translation, e.g. macros
- G06F9/30178—Runtime instruction translation, e.g. macros of compressed or encrypted instructions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/38—Concurrent instruction execution, e.g. pipeline or look ahead
- G06F9/3877—Concurrent instruction execution, e.g. pipeline or look ahead using a slave processor, e.g. coprocessor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/16—Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
- G06F15/163—Interprocessor communication
- G06F15/173—Interprocessor communication using an interconnection network, e.g. matrix, shuffle, pyramid, star, snowflake
- G06F15/17356—Indirect interconnection networks
- G06F15/17368—Indirect interconnection networks non hierarchical topologies
- G06F15/17375—One dimensional, e.g. linear array, ring
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Neurology (AREA)
- Computer Hardware Design (AREA)
- Advance Control (AREA)
- Complex Calculations (AREA)
- Multi Processors (AREA)
Description
Claims (6)
- データ処理(DP)アクセラレータを用いて、人工知能(AI)モデルをトレーニングするための、コンピュータにより実施される方法であって、
CPUにより配信された複数のデータブロックを含むトレーニングデータセットに基づいて前記AIモデルをトレーニングするための要求を、前記CPUから受信するステップと、
論理リングに配置された複数の汎用処理ユニット(GPU)によって複数回のDP反復を実行して、前記AIモデルをトレーニングするステップと、を含み、
前記複数回のDP反復は、
各回のDP反復に対し、
第1のDPサイクルにおいて、前記複数のGPUは、それぞれ、前記複数のデータブロックの一つに対して、データ圧縮操作を並行して実行し、それぞれの第1の圧縮データブロックを生成し、
第2のDPサイクルにおいて、前記複数のGPUは、それぞれ、プロセッサ間リンクを介して、それぞれの第1の圧縮データブロックを、更に処理するために論理リング内の下流のGPUに転送し、そして、それぞれ、対応するプロセッサ間リンク或いはCCIX接続を介して、前記論理リング内の上流GPUから、当該上流GPUがデータ圧縮操作を実行して生成した第2の圧縮データブロックを、さらに処理するために受信し、
第3のDPサイクルにおいて、前記複数のGPUは、それぞれ、現在のGPUによって処理される第1の圧縮データブロックと、対応する上流のGPUによって処理され、当該GPUから受信された第2の圧縮データブロックとに対して、合計操作を実行して、第1のDP結果を生成し、
第4のDPサイクルにおいて、前記複数のGPUは、それぞれ、前記第1のDP結果に対して、データ解凍操作を実行し、解凍して得られたデータブロックは、次回のDP反復に用いられる、ことを含み、
前記合計操作は、前記第1の圧縮データブロックと第2の圧縮データブロックとをパイプライン化して、一方の圧縮データブロックのビットマスクフィールド内のビットを他方の圧縮データブロックのビットマスクフィールド内のビットと比較し、比較した結果を出力する操作である、コンピュータにより実施される方法。 - 前記データブロックの少なくとも一部は、前記AIモデルのトレーニングの一部として生成されたパラメータまたは勾配を表す、請求項1に記載の方法。
- 前記データ圧縮操作は、1つまたは複数のデータブロックを、ビットマスク部分および圧縮データ部分を有するデータ構造に圧縮するゼロ値圧縮アルゴリズムを使用して実行され、前記ビットマスク部分は、前記データブロックにおける非ゼロ値の位置を示すビットを含む、
請求項1に記載の方法。 - データ処理システムであって、
少なくとも一つのCPUと、
前記CPUに接続された複数の汎用処理ユニット(GPU)と、を含み、
前記複数のGPUのそれぞれは、前記CPUから配信された人工知能AIデータ処理(DP)操作を実行するように構成され、
前記操作は、
CPUにより配信された複数のデータブロックを含むトレーニングデータセットに基づいてAIモデルをトレーニングするための要求を、前記CPUから受信するステップと、
論理リングに配置された複数の汎用処理ユニット(GPU)によって複数回のDP反復を実行して、前記AIモデルをトレーニングするステップと、を含み、
前記複数回のDP反復は、
各回のDP反復に対し、
第1のDPサイクルにおいて、前記複数のGPUは、それぞれ、前記複数のデータブロックの一つに対して、データ圧縮操作を並行して実行し、それぞれの第1の圧縮データブロックを生成し、
第2のDPサイクルにおいて、前記複数のGPUは、それぞれ、プロセッサ間リンクを介して、それぞれの第1の圧縮データブロックを、更に処理するために論理リング内の下流のGPUに転送し、そして、それぞれ、対応するプロセッサ間リンク或いはCCIX接続を介して、前記論理リング内の上流GPUから、当該上流GPUがデータ圧縮操作を実行して生成した第2の圧縮データブロックを、さらに処理するために受信し、
第3のDPサイクルにおいて、前記複数のGPUは、それぞれ、現在のGPUによって処理される第1の圧縮データブロックと、対応する上流のGPUによって処理され、当該GPUから受信された第2の圧縮データブロックとに対して、合計操作を実行して、第1のDP結果を生成し、
第4のDPサイクルにおいて、前記複数のGPUは、それぞれ、前記第1のDP結果に対して、データ解凍操作を実行し、解凍して得られたデータブロックは、次回のDP反復に用いられる、ことを含み、
前記合計操作は、前記第1の圧縮データブロックと第2の圧縮データブロックとをパイプライン化して、一方の圧縮データブロックのビットマスクフィールド内のビットを他方の圧縮データブロックのビットマスクフィールド内のビットと比較し、比較した結果を出力する操作である、データ処理システム。 - 指令が記憶された非一時的な機械可読媒体であって、
前記指令は、プロセッサによって実行されると、前記プロセッサに人工知能AIトレーニングの操作を実行させ、前記操作は、
CPUにより配信された複数のデータブロックを含むトレーニングデータセットに基づいてAIモデルをトレーニングするための要求を、前記CPUから受信するステップと、
論理リングに配置された複数の汎用処理ユニット(GPU)によって複数回のDP反復を実行して、前記AIモデルをトレーニングするステップと、を含み、
前記複数回のDP反復は、
各回のDP反復に対し、
第1のDPサイクルにおいて、前記複数のGPUは、それぞれ、前記複数のデータブロックの一つに対して、データ圧縮操作を並行して実行し、それぞれの第1の圧縮データブロックを生成し、
第2のDPサイクルにおいて、前記複数のGPUは、それぞれ、プロセッサ間リンクを介して、それぞれの第1の圧縮データブロックを、更に処理するために論理リング内の下流のGPUに転送し、そして、それぞれ、対応するプロセッサ間リンク或いはCCIX接続を介して、前記論理リング内の上流GPUから、当該上流GPUがデータ圧縮操作を実行して生成した第2の圧縮データブロックを、さらに処理するために受信し、
第3のDPサイクルにおいて、前記複数のGPUは、それぞれ、現在のGPUによって処理される第1の圧縮データブロックと、対応する上流のGPUによって処理され、当該GPUから受信された第2の圧縮データブロックとに対して、合計操作を実行して、第1のDP結果を生成し、
第4のDPサイクルにおいて、前記複数のGPUは、それぞれ、前記第1のDP結果に対して、データ解凍操作を実行し、解凍して得られたデータブロックは、次回のDP反復に用いられる、ことを含み、
前記合計操作は、前記第1の圧縮データブロックと第2の圧縮データブロックとをパイプライン化して、一方の圧縮データブロックのビットマスクフィールド内のビットを他方の圧縮データブロックのビットマスクフィールド内のビットと比較し、比較した結果を出力する操作である、非一時的な機械可読媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムがプロセッサにより実行されると、前記請求項1乃至3の何れか一項に記載の方法を実現させるコンピュータプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2019/110814 WO2021068243A1 (en) | 2019-10-12 | 2019-10-12 | Method and system for accelerating ai training with advanced interconnect technologies |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022504995A JP2022504995A (ja) | 2022-01-14 |
JP7256811B2 true JP7256811B2 (ja) | 2023-04-12 |
Family
ID=75437678
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020536955A Active JP7256811B2 (ja) | 2019-10-12 | 2019-10-12 | アドバンストインタコネクト技術を利用してaiトレーニングを加速するための方法及びシステム |
Country Status (6)
Country | Link |
---|---|
US (1) | US11544067B2 (ja) |
EP (1) | EP3830764A4 (ja) |
JP (1) | JP7256811B2 (ja) |
KR (1) | KR102472282B1 (ja) |
CN (1) | CN113272854A (ja) |
WO (1) | WO2021068243A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20240185587A1 (en) * | 2021-08-16 | 2024-06-06 | Baidu.Com Times Technology (Beijing) Co., Ltd. | Hardware adaptive multi-model scheduling |
CN114153590A (zh) * | 2021-10-19 | 2022-03-08 | 广州文远知行科技有限公司 | 一种大规模仿真与模型推导方法、装置、设备及存储介质 |
CN114764942B (zh) * | 2022-05-20 | 2022-12-09 | 清华大学深圳国际研究生院 | 一种难正负样本在线挖掘方法和人脸识别方法 |
CN115250253B (zh) * | 2022-06-22 | 2024-02-27 | 西南交通大学 | 带宽感知的归约处理方法以及ai模型的训练方法 |
EP4361891A1 (en) * | 2022-10-31 | 2024-05-01 | Imagination Technologies Limited | Implementing a scatter function on a neural network accelerator |
CN118568066A (zh) * | 2023-02-28 | 2024-08-30 | 中兴通讯股份有限公司 | 时序数据压缩方法、采集方法、设备及可读存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010521728A (ja) | 2007-03-15 | 2010-06-24 | リニア アルジェブラ テクノロジーズ リミテッド | データ圧縮のための回路及びこれを用いるプロセッサ |
JP2011511986A (ja) | 2008-02-11 | 2011-04-14 | リニア アルジェブラ テクノロジーズ リミテッド | プロセッサ |
US20160321776A1 (en) | 2014-06-20 | 2016-11-03 | Tencent Technology (Shenzhen) Company Limited | Model Parallel Processing Method and Apparatus Based on Multiple Graphic Processing Units |
US20180239992A1 (en) | 2017-02-22 | 2018-08-23 | Arm Limited | Processing artificial neural network weights |
US20180293691A1 (en) | 2017-04-09 | 2018-10-11 | Intel Corporation | Machine learning sparse computation mechanism |
US20190197420A1 (en) | 2017-12-22 | 2019-06-27 | Intel Corporation | Compression for deep learning in case of sparse values mapped to non-zero value |
CN209044577U (zh) | 2018-12-27 | 2019-06-28 | 北京盛博协同科技有限责任公司 | 综合显示控制模块 |
US20190312772A1 (en) | 2018-04-04 | 2019-10-10 | EMC IP Holding Company LLC | Topology-aware provisioning of hardware accelerator resources in a distributed environment |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0784966A (ja) | 1993-08-06 | 1995-03-31 | Toshiba Corp | データ処理装置 |
CN104035751B (zh) * | 2014-06-20 | 2016-10-12 | 深圳市腾讯计算机系统有限公司 | 基于多图形处理器的数据并行处理方法及装置 |
CN104899641B (zh) * | 2015-05-25 | 2018-07-13 | 杭州朗和科技有限公司 | 深度神经网络学习方法、处理器和深度神经网络学习系统 |
US10763893B2 (en) * | 2016-07-20 | 2020-09-01 | Georges Harik | Method for data compression |
CN108229687B (zh) | 2016-12-14 | 2021-08-24 | 腾讯科技(深圳)有限公司 | 数据处理方法、数据处理装置及电子设备 |
KR102457463B1 (ko) * | 2017-01-16 | 2022-10-21 | 한국전자통신연구원 | 희소 파라미터를 사용하는 압축 신경망 시스템 및 그것의 설계 방법 |
CN110582748A (zh) * | 2017-04-07 | 2019-12-17 | 英特尔公司 | 用于提升用于深度学习的深度神经网络的方法和系统 |
US10403003B2 (en) | 2017-04-24 | 2019-09-03 | Intel Corporation | Compression mechanism |
US10922606B2 (en) | 2017-06-13 | 2021-02-16 | International Business Machines Corporation | Multi-directional reduction in large scale deep-learning |
US10726335B2 (en) * | 2017-10-26 | 2020-07-28 | Uber Technologies, Inc. | Generating compressed representation neural networks having high degree of accuracy |
US11270201B2 (en) * | 2017-12-29 | 2022-03-08 | Intel Corporation | Communication optimizations for distributed machine learning |
US10474495B2 (en) * | 2018-01-08 | 2019-11-12 | Accenture Global Solutions Limited | Utilizing an artificial intelligence model determined for a target domain based on a dataset associated with a source domain |
CN110134636B (zh) * | 2018-02-09 | 2023-04-18 | 中兴通讯股份有限公司 | 模型训练方法、服务器和计算机可读存储介质 |
CN110197275B (zh) * | 2018-02-27 | 2020-08-04 | 上海寒武纪信息科技有限公司 | 集成电路芯片装置及相关产品 |
CN109214512B (zh) * | 2018-08-01 | 2021-01-22 | 中兴飞流信息科技有限公司 | 一种深度学习的参数交换方法、装置、服务器及存储介质 |
US11295236B2 (en) * | 2018-12-10 | 2022-04-05 | International Business Machines Corporation | Machine learning in heterogeneous processing systems |
US11501160B2 (en) * | 2019-03-28 | 2022-11-15 | International Business Machines Corporation | Cloud computing data compression for allreduce in deep learning |
-
2019
- 2019-10-12 KR KR1020207019377A patent/KR102472282B1/ko active IP Right Grant
- 2019-10-12 EP EP19891681.9A patent/EP3830764A4/en not_active Withdrawn
- 2019-10-12 US US16/607,087 patent/US11544067B2/en active Active
- 2019-10-12 WO PCT/CN2019/110814 patent/WO2021068243A1/en unknown
- 2019-10-12 CN CN201980005606.5A patent/CN113272854A/zh active Pending
- 2019-10-12 JP JP2020536955A patent/JP7256811B2/ja active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010521728A (ja) | 2007-03-15 | 2010-06-24 | リニア アルジェブラ テクノロジーズ リミテッド | データ圧縮のための回路及びこれを用いるプロセッサ |
JP2011511986A (ja) | 2008-02-11 | 2011-04-14 | リニア アルジェブラ テクノロジーズ リミテッド | プロセッサ |
US20160321776A1 (en) | 2014-06-20 | 2016-11-03 | Tencent Technology (Shenzhen) Company Limited | Model Parallel Processing Method and Apparatus Based on Multiple Graphic Processing Units |
US20180239992A1 (en) | 2017-02-22 | 2018-08-23 | Arm Limited | Processing artificial neural network weights |
US20180293691A1 (en) | 2017-04-09 | 2018-10-11 | Intel Corporation | Machine learning sparse computation mechanism |
US20190197420A1 (en) | 2017-12-22 | 2019-06-27 | Intel Corporation | Compression for deep learning in case of sparse values mapped to non-zero value |
US20190312772A1 (en) | 2018-04-04 | 2019-10-10 | EMC IP Holding Company LLC | Topology-aware provisioning of hardware accelerator resources in a distributed environment |
CN209044577U (zh) | 2018-12-27 | 2019-06-28 | 北京盛博协同科技有限责任公司 | 综合显示控制模块 |
Non-Patent Citations (2)
Title |
---|
Andrew Gibiansky,Bringing HPC Techniques to Deep Learning,2017年02月21日,[検索日 2022年01月14日],インターネット<URL:https://andrew.gibiansky.com/blog/machine-learning/baidu-allreduce/> |
小島郁太郎,サーバーのアクセラレーションをスムーズに、CCIXBS1.0がリリース,日経xTECH,2018年06月25日, [検索日 2022年01月14日] インターネット<URL:https://xtech.nikkei.com/atcl/nxt/column/18/00001/00636/> |
Also Published As
Publication number | Publication date |
---|---|
JP2022504995A (ja) | 2022-01-14 |
WO2021068243A1 (en) | 2021-04-15 |
EP3830764A1 (en) | 2021-06-09 |
US11544067B2 (en) | 2023-01-03 |
CN113272854A (zh) | 2021-08-17 |
US20210318878A1 (en) | 2021-10-14 |
EP3830764A4 (en) | 2021-06-09 |
KR102472282B1 (ko) | 2022-11-29 |
KR20210044180A (ko) | 2021-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7256811B2 (ja) | アドバンストインタコネクト技術を利用してaiトレーニングを加速するための方法及びシステム | |
US11893424B2 (en) | Training a neural network using a non-homogenous set of reconfigurable processors | |
CN106991477B (zh) | 一种人工神经网络压缩编码装置和方法 | |
US11308398B2 (en) | Computation method | |
US20190087708A1 (en) | Neural network processor with direct memory access and hardware acceleration circuits | |
CN109358900B (zh) | 支持离散数据表示的人工神经网络正向运算装置和方法 | |
CN111860811B (zh) | 一种用于执行人工神经网络全连接层正向运算的装置和方法 | |
US11847395B2 (en) | Executing a neural network graph using a non-homogenous set of reconfigurable processors | |
WO2017185394A1 (zh) | 一种用于执行全连接层神经网络反向训练的装置和方法 | |
US11551028B2 (en) | Structured weight based sparsity in an artificial neural network | |
CN111310904A (zh) | 一种用于执行卷积神经网络训练的装置和方法 | |
US20210201110A1 (en) | Methods and systems for performing inference with a neural network | |
US20200081744A1 (en) | Hardware environment and method of performing matrix multiplication in artificial intelligence applications | |
CN114402293A (zh) | 具有持续且异步更新的流水线式神经网络处理 | |
CN113330466A (zh) | 涉及混合量子机器、量子信息技术的方面和/或其他特征的系统和方法 | |
US20190138922A1 (en) | Apparatus and methods for forward propagation in neural networks supporting discrete data | |
CN114450699A (zh) | 由处理单元实现的方法、可读存储介质和处理单元 | |
US12067479B2 (en) | Heterogeneous deep learning accelerator | |
US20220076095A1 (en) | Multi-level sparse neural networks with dynamic rerouting | |
CN111886593B (zh) | 数据处理系统和数据处理方法 | |
CN115461757A (zh) | 具有单独存储器存取连接的深度学习加速器和随机存取存储器 | |
CN110825514A (zh) | 人工智能芯片以及用于人工智能芯片的指令执行方法 | |
JP2022511581A (ja) | フレキシブルケーブル接続に基づく分散型aiトレーニングトポロジー | |
WO2017177446A1 (zh) | 支持离散数据表示的人工神经网络反向训练装置和方法 | |
CN118014022A (zh) | 面向深度学习的fpga通用异构加速方法及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201130 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201130 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20211018 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221108 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230314 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230331 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7256811 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |