JP7181264B2 - 深層学習処理装置、方法、デバイス及び記憶媒体 - Google Patents
深層学習処理装置、方法、デバイス及び記憶媒体 Download PDFInfo
- Publication number
- JP7181264B2 JP7181264B2 JP2020159513A JP2020159513A JP7181264B2 JP 7181264 B2 JP7181264 B2 JP 7181264B2 JP 2020159513 A JP2020159513 A JP 2020159513A JP 2020159513 A JP2020159513 A JP 2020159513A JP 7181264 B2 JP7181264 B2 JP 7181264B2
- Authority
- JP
- Japan
- Prior art keywords
- matrix
- module
- deep learning
- accumulation
- matrices
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 95
- 238000013135 deep learning Methods 0.000 title claims description 87
- 238000000034 method Methods 0.000 title claims description 37
- 239000011159 matrix material Substances 0.000 claims description 355
- 238000009825 accumulation Methods 0.000 claims description 116
- 238000013527 convolutional neural network Methods 0.000 claims description 70
- 238000004364 calculation method Methods 0.000 claims description 49
- 238000012549 training Methods 0.000 claims description 30
- 238000004590 computer program Methods 0.000 claims description 9
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 claims description 6
- 230000004044 response Effects 0.000 claims 2
- 230000035508 accumulation Effects 0.000 description 93
- 238000010586 diagram Methods 0.000 description 16
- 238000011176 pooling Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 6
- 230000004913 activation Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 230000001186 cumulative effect Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 229940050561 matrix product Drugs 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
- G06F17/153—Multidimensional correlation or convolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/544—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
- G06F7/5443—Sum of products
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Neurology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Complex Calculations (AREA)
Description
Claims (17)
- 深層学習処理装置であって、
畳込みニューラルネットワーク(CNN)における畳込み層の畳込みカーネルパラメータ値行列と第1の誤差勾配値行列との行列積和演算を実行して、複数の中間行列を得るように構成される、少なくとも一つの行列積和演算モジュールと、
前記複数の中間行列の要素を再整形することなく、前記複数の中間行列を記憶するように構成される、記憶モジュールと、
前記記憶モジュールから前記複数の中間行列を読み出し、前記畳込み層の畳込みスキームに従って並行して前記複数の中間行列に基づく行列累加演算を実行して、前記畳込み層に関する第2の誤差勾配値行列を得るように構成される、複数の行列累加演算モジュールと、を備え、
前記複数の行列累加演算モジュールのうちの少なくとも一つは、
累加される行列における第1の要素と第2の要素とを入力として、前記第1の要素と前記第2の要素とを累加して累加要素を得るように構成される、累加部と、
前記累加要素を前記記憶モジュールに書き込むように構成される、データ書込部と、
前記累加要素をキャッシュするように構成される第1のキャッシュ領域であって、前記記憶モジュールによりも書き込み速度が速くなり、前記累加要素は、前記第1のキャッシュ領域において複数のクロックサイクルキャッシュされる、第1のキャッシュ領域と、
前記累加部による第3の要素と前記累加要素との累加の実行時、前記記憶モジュールから前記累加要素を読み出すことができないと決定したことに応じて、前記第1のキャッシュ領域にキャッシュされた前記累加要素を前記累加部に供給するバイパスモジュールと、
を備える、深層学習処理装置。 - 前記複数の中間行列は、前記畳込み層の入力の複数のチャネルに関連付けられており、前記第2の誤差勾配値行列は、前記複数のチャネルに対応する複数のチャネル行列を有し、
前記複数の行列累加演算モジュールのそれぞれは、
前記複数のチャネルに対応する複数の並行経路のうちの1つにおいて、前記複数の中間行列のうちの、前記複数のチャネルのうちの1つのチャネルに関連する中間行列を累加して、該チャネルに対応する前記チャネル行列を得る、或いは、
毎回の累加時、前記複数の中間行列のうちの1つの中間行列を、前記複数のチャネル行列のうちの1つのチャネル行列についての中間結果に累加する、ように構成される、
請求項1に記載の深層学習処理装置。 - 前記記憶モジュールは、前記第2の誤差勾配値行列を目標記憶位置に記憶するように配置され、前記第2の誤差勾配値行列は、前記行列累加演算の実行前にすべてゼロの初期値を持ち、
前記複数の行列累加演算モジュールは、並行して、前記複数の中間行列と前記目標記憶位置に記憶された前記初期値を持つ前記第2の誤差勾配値行列とを累加するように構成されている、
請求項1に記載の深層学習処理装置。 - 前記記憶モジュールは、オンチップのランダムアクセスメモリを備える、
請求項1記載の深層学習処理装置。 - 前記少なくとも一つの行列積和演算モジュールによる前記行列積和演算において生成された第1の中間演算結果をキャッシュするとともに、前記複数の行列累加演算モジュールによる前記行列累加演算において生成された第2の中間演算結果をキャッシュするように構成される、第2のキャッシュ領域を更に備える、請求項1に記載の深層学習処理装置。
- ベクトル演算モジュールをさらに備え、
前記ベクトル演算モジュールは、
ベクトルレベルの上で、前記第2のキャッシュ領域における前記第1の中間演算結果及び前記第2の中間演算結果を記憶するための記憶領域をゼロ化する処理と、
ベクトルレベルの上で、前記第2の誤差勾配値行列の少なくとも一部として、前記行列累加演算による最終演算結果を、選択的に記憶モジュールに書き込む処理と、
の少なくとも一つの処理を実行するように構成される、
請求項5に記載の深層学習処理装置。 - 汎用処理装置から、前記CNNの前記畳込み層による畳込み逆演算に利用される指令セットを取得し、前記指令セットを解析するように構成される指令処理モジュールと、
解析された前記指令セットに基づいて、前記少なくとも1つの行列積和演算モジュール及び前記行列累加演算モジュールに対する制御信号を生成するように構成される制御信号生成モジュールと、
をさらに備える、請求項1乃至6のいずれか1項に記載の深層学習処理装置。 - 前記少なくとも1つの行列積和演算モジュールは、前記行列積和演算を並行して実行する複数の行列積和演算モジュールである、
請求項1乃至6のいずれか1項に記載の深層学習処理装置。 - 深層学習用処理を実行する方法であって、
深層学習用処理装置の少なくとも1つの行列積和演算モジュールが、畳込みニューラルネットワーク(CNN)における畳込み層の畳込みカーネルパラメータ値行列と第1の誤差勾配値行列との行列積和演算を実行して、複数の中間行列を得るステップと、
前記複数の中間行列の要素を再整形することなく、前記複数の中間行列を記憶するステップと、
記憶モジュールから前記複数の中間行列を読み出すステップと、
深層学習用処理装置の複数の行列累加演算モジュールが、前記畳込み層の畳込みスキームに従って並行して前記複数の中間行列に基づく行列累加演算を実行して、前記畳込み層に関する第2の誤差勾配値行列を得るステップと、を含み、
深層学習用処理装置の複数の行列累加演算モジュールが、前記畳込み層の畳込みスキームに従って並行して前記複数の中間行列に基づく行列累加演算を実行して、前記畳込み層に関する第2の誤差勾配値行列を得るステップは、
深層学習用処理装置の複数の行列累加演算モジュールが、
累加される行列における第1の要素と第2の要素とを累加して累加要素を得ることと、
前記累加要素を前記記憶モジュールに書き込むことと、
前記累加要素を第1のキャッシュ領域にキャッシュすることであって、前記第1のキャッシュ領域は、前記記憶モジュールによりも書き込み速度が速くなり、前記累加要素は、前記第1のキャッシュ領域において複数のクロックサイクルキャッシュされる、ことと、
第3の要素と前記累加要素との累加の実行時、前記記憶モジュールから前記累加要素を読み出すことができないと決定したことに応じて、前記第1のキャッシュ領域にキャッシュされた前記累加要素を前記第3の要素の累加のために供給することと、
を実行することを含む、方法。 - 前記複数の中間行列は、前記畳込み層の入力の複数のチャネルに関連付けられており、前記第2の誤差勾配値行列は、前記複数のチャネルに対応する複数のチャネル行列を有し、
深層学習用処理装置の複数の行列累加演算モジュールが、前記畳込み層の畳込みスキームに従って並行して前記複数の中間行列に基づく行列累加演算を実行して、前記畳込み層に関する第2の誤差勾配値行列を得るステップは、
前記複数の行列累加演算モジュールのそれぞれは、前記複数のチャネルに対応する複数の並行経路のうちの1つにおいて、前記複数の中間行列のうちの、前記複数のチャネルのうちの1つのチャネルに関連する中間行列を累加して、該チャネルに対応する前記チャネル行列を得ること、または、
前記複数の行列累加演算モジュールのそれぞれは、毎回の累加時、前記複数の中間行列のうちの1つの中間行列を、前記複数のチャネル行列のうちの1つのチャネル行列についての中間結果に累加すること、
のうちの少なくとも1つを含む、
請求項9に記載の方法。 - 前記少なくとも一つの行列積和演算モジュールによる前記行列積和演算において生成された第1の中間演算結果をキャッシュするとともに、前記複数の行列累加演算モジュールによる前記行列累加演算において生成された第2の中間演算結果を第2のキャッシュ領域にキャッシュするステップを更に含む、請求項9に記載の方法。
- 前記深層学習用処理装置が、
ベクトルレベルの上で、前記第2のキャッシュ領域における前記第1の中間演算結果及び前記第2の中間演算結果を記憶するための記憶領域をゼロ化する処理と、
ベクトルレベルの上で、前記第2の誤差勾配値行列の少なくとも一部として、前記行列累加演算による最終演算結果を、選択的に記憶モジュールに書き込む処理と、の少なくとも一つの処理を実行する、ことを含む、請求項11に記載の方法。 - 汎用処理装置から、前記CNNの前記畳込み層による畳込み逆演算に利用される指令セットを取得し、前記指令セットを解析するステップと、
解析された前記指令セットに基づいて、前記少なくとも1つの行列積和演算モジュール及び前記行列累加演算モジュールに対する制御信号を生成するステップと、
をさらに含む、請求項9乃至12のいずれか一項に記載の方法。 - 前記少なくとも1つの行列積和演算モジュールは、複数の行列積和演算モジュールである、
前記少なくとも1つの行列積和演算モジュールが、前記行列積和演算を実行させるステップは、
前記複数の行列積和演算モジュールが、前記行列積和演算を並行して実行することを含む、
請求項9乃至12のいずれか一項に記載の方法。 - 電子デバイスであって、
少なくとも1つの請求項1乃至8のいずれか1項に記載の深層学習処理装置と、
少なくとも1つの前記深層学習処理装置とカップリングされ、前記畳込みニューラルネットワークCNNのトレーニングを実行するための指令を前記深層学習処理装置に提供する汎用処理装置と、
を備える、電子デバイス。 - コンピュータプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記コンピュータプログラムがプロセッサにより実行されると、請求項9~14のいずれか1項に記載の方法を実現させるコンピュータ読み取り可能な記録媒体。 - プロセッサにより実行されると、請求項9~14のいずれか1項に記載の方法を実現させるコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010080940.1 | 2020-02-05 | ||
CN202010080940.1A CN113222101A (zh) | 2020-02-05 | 2020-02-05 | 深度学习处理装置、方法、设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021140733A JP2021140733A (ja) | 2021-09-16 |
JP7181264B2 true JP7181264B2 (ja) | 2022-11-30 |
Family
ID=72517149
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020159513A Active JP7181264B2 (ja) | 2020-02-05 | 2020-09-24 | 深層学習処理装置、方法、デバイス及び記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210241095A1 (ja) |
EP (1) | EP3862928B1 (ja) |
JP (1) | JP7181264B2 (ja) |
KR (1) | KR102642849B1 (ja) |
CN (1) | CN113222101A (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102065672B1 (ko) * | 2018-03-27 | 2020-01-13 | 에스케이텔레콤 주식회사 | 합성곱 연산을 위한 장치 및 방법 |
CN113469350B (zh) * | 2021-07-07 | 2023-03-24 | 武汉魅瞳科技有限公司 | 一种适于npu的深度卷积神经网络加速方法和系统 |
KR102395744B1 (ko) * | 2021-09-16 | 2022-05-09 | 오픈엣지테크놀로지 주식회사 | 데이터 스케일을 고려한 덧셈 연산 방법 및 이를 위한 하드웨어 가속기, 이를 이용한 컴퓨팅 장치 |
CN114546914B (zh) * | 2022-02-23 | 2024-04-26 | 北京奕斯伟计算技术股份有限公司 | 用于对多个通道信息执行数据处理的处理装置及系统 |
WO2024010437A1 (ko) * | 2022-07-08 | 2024-01-11 | 주식회사 딥엑스 | 신경 프로세싱 유닛 및 이의 동작 방법 |
JP2024013256A (ja) * | 2022-07-20 | 2024-02-01 | Jfeスチール株式会社 | 冷間圧延機の圧延条件設定方法、冷間圧延方法、鋼板の製造方法、冷間圧延機の圧延条件設定装置および冷間圧延機 |
CN115981594B (zh) * | 2023-03-20 | 2023-06-06 | 国仪量子(合肥)技术有限公司 | 数据累加处理方法、装置、fpga芯片和介质 |
CN116629321B (zh) * | 2023-07-24 | 2023-10-03 | 美智纵横科技有限责任公司 | 数据处理方法、语音处理方法、装置、介质及芯片 |
CN116861149B (zh) * | 2023-09-05 | 2024-01-09 | 之江实验室 | 卷积运算的优化方法、装置及处理器 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018005420A (ja) | 2016-06-29 | 2018-01-11 | 富士通株式会社 | 情報処理装置、学習ネットワーク学習値算出プログラムおよび学習ネットワーク学習値算出方法 |
JP2018005369A (ja) | 2016-06-29 | 2018-01-11 | 富士通株式会社 | 演算処理装置及び演算処理装置の制御方法 |
WO2018131409A1 (ja) | 2017-01-13 | 2018-07-19 | Kddi株式会社 | 情報処理方法、情報処理装置及びコンピュータ可読記憶媒体 |
JP2020013412A (ja) | 2018-07-19 | 2020-01-23 | 富士通株式会社 | 情報処理装置、行列演算方法および行列演算プログラム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6042274B2 (ja) | 2013-06-28 | 2016-12-14 | 株式会社デンソーアイティーラボラトリ | ニューラルネットワーク最適化方法、ニューラルネットワーク最適化装置及びプログラム |
CN111860812B (zh) * | 2016-04-29 | 2024-03-01 | 中科寒武纪科技股份有限公司 | 一种用于执行卷积神经网络训练的装置和方法 |
CN109376861B (zh) * | 2016-04-29 | 2020-04-24 | 中科寒武纪科技股份有限公司 | 一种用于执行全连接层神经网络训练的装置和方法 |
US11055063B2 (en) * | 2016-05-02 | 2021-07-06 | Marvell Asia Pte, Ltd. | Systems and methods for deep learning processor |
CN107239824A (zh) * | 2016-12-05 | 2017-10-10 | 北京深鉴智能科技有限公司 | 用于实现稀疏卷积神经网络加速器的装置和方法 |
CN109190756B (zh) * | 2018-09-10 | 2022-02-18 | 中国科学院计算技术研究所 | 基于Winograd卷积的运算装置及包含该装置的神经网络处理器 |
US11657285B2 (en) * | 2020-07-30 | 2023-05-23 | Xfusion Digital Technologies Co., Ltd. | Methods, systems, and media for random semi-structured row-wise pruning in neural networks |
-
2020
- 2020-02-05 CN CN202010080940.1A patent/CN113222101A/zh active Pending
- 2020-09-10 US US17/017,600 patent/US20210241095A1/en active Pending
- 2020-09-15 EP EP20196107.5A patent/EP3862928B1/en active Active
- 2020-09-18 KR KR1020200120922A patent/KR102642849B1/ko active IP Right Grant
- 2020-09-24 JP JP2020159513A patent/JP7181264B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018005420A (ja) | 2016-06-29 | 2018-01-11 | 富士通株式会社 | 情報処理装置、学習ネットワーク学習値算出プログラムおよび学習ネットワーク学習値算出方法 |
JP2018005369A (ja) | 2016-06-29 | 2018-01-11 | 富士通株式会社 | 演算処理装置及び演算処理装置の制御方法 |
WO2018131409A1 (ja) | 2017-01-13 | 2018-07-19 | Kddi株式会社 | 情報処理方法、情報処理装置及びコンピュータ可読記憶媒体 |
JP2020013412A (ja) | 2018-07-19 | 2020-01-23 | 富士通株式会社 | 情報処理装置、行列演算方法および行列演算プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2021140733A (ja) | 2021-09-16 |
US20210241095A1 (en) | 2021-08-05 |
EP3862928A1 (en) | 2021-08-11 |
KR102642849B1 (ko) | 2024-03-04 |
KR20210099991A (ko) | 2021-08-13 |
EP3862928B1 (en) | 2024-08-07 |
CN113222101A (zh) | 2021-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7181264B2 (ja) | 深層学習処理装置、方法、デバイス及び記憶媒体 | |
US11574195B2 (en) | Operation method | |
KR102258414B1 (ko) | 처리 장치 및 처리 방법 | |
US11922132B2 (en) | Information processing method and terminal device | |
JP7329533B2 (ja) | 演算を加速するための方法および加速器装置 | |
CN109190756B (zh) | 基于Winograd卷积的运算装置及包含该装置的神经网络处理器 | |
Ye et al. | Inverted pyramid multi-task transformer for dense scene understanding | |
WO2020073211A1 (zh) | 运算加速器、处理方法及相关设备 | |
CN111353588B (zh) | 用于执行人工神经网络反向训练的装置和方法 | |
US20200174749A1 (en) | Semiconductor memory device employing processing in memory (pim) and method of operating the semiconductor memory device | |
EP3944157A1 (en) | Device and method for performing training of convolutional neural network | |
CN114897132A (zh) | 在硬件中执行核心跨越 | |
JP2022533206A (ja) | 手姿勢推定 | |
JP2020513120A (ja) | ベクトル縮小プロセッサ | |
CN113469350B (zh) | 一种适于npu的深度卷积神经网络加速方法和系统 | |
JP6955598B2 (ja) | 複数の畳み込みウィンドウ内の画像データの並行抽出方法、装置、機器及びコンピュータ可読記憶媒体 | |
CN113010213A (zh) | 基于阻变忆阻器的精简指令集存算一体神经网络协处理器 | |
CN113392959B (zh) | 一种在计算系统中重构架构的方法及计算系统 | |
CN114595811A (zh) | 用于执行深度学习操作的方法和设备 | |
Meng et al. | How to avoid zero-spacing in fractionally-strided convolution? a hardware-algorithm co-design methodology | |
CN115170381A (zh) | 一种基于深度学习的视觉slam加速系统及方法 | |
CN114385183A (zh) | 一种数据处理方法、装置、设备及计算机存储介质 | |
CN110689475A (zh) | 一种图像数据处理方法、系统、电子设备及存储介质 | |
CN113704172B (zh) | 基于脉动阵列的转置卷积和卷积加速器芯片设计方法 | |
US20220101110A1 (en) | Persistent weights in training |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210604 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20211018 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220905 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7181264 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |