JP2018028908A - ゼロ係数スキップ畳み込みニューラルネットワークエンジン - Google Patents
ゼロ係数スキップ畳み込みニューラルネットワークエンジン Download PDFInfo
- Publication number
- JP2018028908A JP2018028908A JP2017155273A JP2017155273A JP2018028908A JP 2018028908 A JP2018028908 A JP 2018028908A JP 2017155273 A JP2017155273 A JP 2017155273A JP 2017155273 A JP2017155273 A JP 2017155273A JP 2018028908 A JP2018028908 A JP 2018028908A
- Authority
- JP
- Japan
- Prior art keywords
- tile
- index
- current
- coefficients
- sums
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/544—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
- G06F7/5443—Sum of products
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
- G06F17/153—Multidimensional correlation or convolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/76—Arrangements for rearranging, permuting or selecting data according to predetermined rules, independently of the content of the data
- G06F7/764—Masking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2207/00—Indexing scheme relating to methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F2207/38—Indexing scheme relating to groups G06F7/38 - G06F7/575
- G06F2207/48—Indexing scheme relating to groups G06F7/48 - G06F7/575
- G06F2207/4802—Special implementations
- G06F2207/4818—Threshold devices
- G06F2207/4824—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Pure & Applied Mathematics (AREA)
- Computational Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Neurology (AREA)
- Image Processing (AREA)
- Complex Calculations (AREA)
Abstract
【解決手段】入力タイルがロードされ、蓄積された和は、カーネル内の係数の行及び列インデックスに従って、タイルをシフトすることによって、非ゼロ係数の入力タイルについて計算する。各係数は、個々にタイルに適用され、結果は、次の非ゼロ係数に移動する前に、蓄積バッファに書き込まれる。3D又は4D畳み込みは、1次元に沿って、異なるインデックスについて蓄積された和を格納する蓄積バッファの個別の領域についてこのように実装する。画像は、完全に処理され、各画像の結果は、次の画像に移動する前に、蓄積バッファに格納する。
【選択図】図2
Description
この出願は、2016年8月11日に出願された、発明の名称ZERO COEFFICIENT SKIPPING CONVOLUTION NEURAL NETWORK ENGINEの米国仮出願第62/373,518号の利益を主張し、これは、その全体が、参照によりここに組み込まれる。
この発明は、畳み込みニューラルネットワークを実装することにおいて使用するなどのために、行列畳み込みを実行するシステム及び方法に関する。
Claims (20)
- 畳み込みを実行する方法であって、
Z次元、kz次元、kx次元、及びky次元を定義する係数C(kz, Z, kx, ky)のアレイを用意することと、
それぞれが、前記kz次元のインデックスに対応する複数の入力画像を用意することと、
(a)前記電子デバイスによって、現在のタイル位置として、複数のタイル位置の次のタイル位置を選択することと、
(b)電子デバイスによって、前記現在の画像としての、前記複数の入力画像の次の入力画像I(kz1)と、現在のkzインデックスとしての前記現在の画像に対応するインデックスkz1とを選択することと、
(c)前記電子デバイスによって、前記現在のタイルとして、前記現在のタイル位置の前記現在の画像I(kz1)のタイルをバッファにロードすることと、
(d)前記電子デバイスによって、kz1に等しい、前記kz次元のインデックスを有する係数の前記アレイの係数C(kz1, Z, kx, ky)の少なくとも一部の各係数について、個別に、順番に、
前記ky次元の各係数のkyインデックスに従って、前記現在のタイルのkyシフト量を設定することと、
前記kx次元の各係数のkxインデックスに従って、前記現在のタイルのkxシフト量を設定することと、
シフトされたタイルを得るために、前記現在のタイルへ、前記ky及びkxシフト量を適用することと、
積の集合を得るために、前記各係数により、前記シフトされたタイルを乗算することと、
更新された和の集合を得るために、蓄積バッファに格納された蓄積された和の集合に、積の前記集合を加算することと、
蓄積された和の前記集合を、更新された和の前記集合で上書きすることと、
を実行することと、
(e)(b)から(d)に従って、前記複数の画像の全ての入力画像が処理されるまで、(b)から(d)を実行することと、
(f)出力画像として、前記蓄積された和の現在の値を出力することと、
(g)(a)から(f)に従って、前記複数のタイル位置の全てのタイル位置が処理されるまで、(a)から(f)を実行することと、を含み、
前記kyシフト量とkxシフト量は、(f)の完了時に、前記蓄積された和が、前記現在のタイルの前記複数の画像との三次元畳み込みであるように、選択される、方法。 - (d)を実行することは、前記バッファの前記現在のタイルを上書き又は再ロードすることなしに実行される、請求項1に記載の方法。
- 前記現在のkzインデックスを有する係数の前記アレイの前記係数の前記少なくとも前記一部は、前記現在のkzインデックスを有する係数の前記アレイの前記係数の非ゼロ係数のみを含む、請求項1に記載の方法。
- (d)は、更に、前記現在のkzインデックスと、前記Z次元の固有のインデックスを有する係数の前記アレイの係数をそれぞれが含む、複数のカーネルを復元することを含む、請求項1に記載の方法。
- 前記複数のカーネルの各カーネルを復元することは、エントリの集合を得ることを含み、各エントリは、前記各カーネルの一係数、前記一係数の前記kxインデックスと前記kyインデックスを含む、請求項4に記載の方法。
- エントリの前記集合は、ゼロに等しい係数の前記アレイの係数についてのエントリを含まない、請求項5に記載の方法。
- シフトされたタイルを得るために、前記現在のタイルに前記ky及びkxシフト量を適用することは、
前記kyシフト量に従って、前記バッファ内の開始アドレスを選択することと、
前記開始アドレスで開始する、前記バッファからの画像データを読み取ることと、
前記シフトされたデータを得るために、前記kxシフト量に従って、前記画像データをシフトすることと、を含む、請求項1に記載の方法。 - 積の前記集合を得るために、前記各係数により、前記シフトされたタイルを乗算することは、乗算器のアレイを用いて、同時に、前記シフトされた一部の各行を、前記各係数により乗算することを含む、請求項1に記載の方法。
- 係数の前記アレイは、畳み込みニューラルネットワーク(CNN)を規定する、請求項1に記載の方法。
- 前記蓄積された和は、前記Z次元に沿った異なるZインデックスにそれぞれ対応する蓄積された和の複数の集合を含み、
更新された和の前記集合を得るために、積の前記集合を、前記蓄積バッファに格納された蓄積された和の前記集合に加算し、更新された和の前記集合で、蓄積された和の前記集合を上書きすることは、
更新された和の集合を得るために、積の前記集合を、前記各係数のZインデックスに対応する前記複数の蓄積された和の蓄積された和の集合に加算することと、
前記各係数の前記Zインデックスに対応する前記複数の蓄積された和の蓄積された和の前記集合を、更新された和の前記集合で上書きすることと、
を含む、請求項1に記載の方法。 - 畳み込みを実行する装置であって、前記装置は、
Z次元、kz次元、kx次元、及びky次元を定義する係数C(kz, Z, kx, ky)のアレイを受信し、
前記kz次元のインデックスにそれぞれ対応する複数の入力画像を受信し、
(a)前記現在のタイル位置として、複数のタイル位置の次のタイル位置を選択し、
(b)前記現在の画像としての、前記複数の入力画像の次の入力画像I(kz1)と、現在のkzインデックスとしての、現在の画像に対応するインデックスkz1とを選択し、
(c)現在のタイルとして、バッファに、前記現在のタイル位置の前記現在の画像I(kz1)のタイルをロードし、
(d)kz1に等しい前記kz次元のインデックスを有する係数の前記アレイの係数C(kz1, Z, kx, ky)の少なくとも一部の各係数について、個別に、順番に、
前記ky次元の前記各係数のkyインデックスに従って、前記現在のタイルのkyシフト量を設定することと、
前記kx次元の前記各係数のkxインデックスに従って、前記現在のタイルのkxシフト量を設定することと、
シフトされたタイルを得るために、前記現在のタイルに、前記ky及びkxシフト量を適用することと、
積の集合を得るために、前記各係数により、前記シフトされたタイルを乗算することと、
更新された和の集合を得るために、積の前記集合を、蓄積されたバッファに格納された蓄積された和の集合に加算することと、
蓄積された和の前記集合を、更新された和の前記集合で上書きすることと、
を実行し、
(e)(b)から(d)に従って、前記複数の画像の全ての入力画像が処理されるまで、(b)から(d)を実行し、
(f)出力画像として、前記蓄積された和の現在の値を出力し、
(a)から(f)に従って、前記複数のタイル位置の全てのタイル位置が処理されるまで、(a)から(f)を実行する、ようにプログラムされる電子デバイスを備え、
前記kyシフト量とkxシフト量は、前記蓄積された和が、(f)の完了時に、前記現在のタイルの、前記複数の画像との三次元畳み込みであるように選択される、装置。 - 前記電子デバイスは、前記バッファに前記現在のタイルを上書き又は再ロードせずに、(d)を実行するようにプログラムされる、請求項11に記載の装置。
- 前記現在のkzインデックスを有する係数の前記アレイの前記係数の前記少なくとも前記一部は、前記現在のkzインデックスを有する係数の前記アレイの前記係数の非ゼロ係数のみを含む、請求項11に記載の装置。
- 前記電子デバイスは、更に、前記現在のkzインデックスと、前記Z次元の固有のインデックスを有する係数の前記アレイの係数をそれぞれが含む、複数のカーネルを復元することによって、(d)を実行するようにプログラムされる、請求項11に記載の装置。
- 前記電子デバイスは、更に、エントリの集合を得ることにより、前記複数のカーネルの各カーネルを復元するようにプログラムされ、各エントリは、前記各カーネルの一係数、前記一係数の前記kxインデックス及び前記kyインデックスを含む、請求項14に記載の装置。
- エントリの前記集合は、ゼロに等しい係数の前記アレイの係数についてのエントリを含まない、請求項15に記載の装置。
- 前記電子デバイスは、更に、
前記kyシフト量に従って、前記バッファの開始アドレスを選択し、
前記開始アドレスにおいて開始する、前記バッファからの画像データを読み取り、
前記シフトされたデータを得るために、前記kxシフト量に従って、前記画像データをシフトする、
ことによって、シフトされたタイルを得るために、前記ky及びkxシフト量を前記現在のタイルに適用するようにプログラムされる、請求項11に記載の装置。 - 前記電子デバイスは、更に、乗算器のアレイを用いて、前記シフトされた一部の各行を、前記各係数により、同時に乗算することによって、積の前記集合を得るために、前記各係数によって、前記シフトされたタイルを乗算するようにプログラムされる、請求項11に記載の装置。
- 係数の前記アレイは、畳み込みニューラルネットワーク(CNN)を規定する、請求項11に記載の装置。
- 前記蓄積された和は、前記Z次元に沿って、異なるZインデックスにそれぞれが対応する、蓄積された和の複数の集合を含み、
前記電子デバイスは、更に、
更新された和の集合をえるために、前記各係数のZインデックスに対応する前記複数の蓄積された和の蓄積された和の集合に、積の前記集合を加算し、
前記各係数の前記Zインデックスに対応する前記複数の蓄積された和の蓄積された和の前記集合を、更新された和の前記集合で上書きする、
ことにより、更新された和の前記集合を得るために、前記蓄積されたバッファに格納された蓄積された和の前記集合に、積の前記集合を加算し、蓄積された和の前記集合を、更新された和の前記集合で上書きする、ようにプログラムされる、請求項11に記載の装置。
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662373518P | 2016-08-11 | 2016-08-11 | |
US62/373,518 | 2016-08-11 | ||
US15/671,829 | 2017-08-08 | ||
US15/671,860 | 2017-08-08 | ||
US15/671,860 US10242311B2 (en) | 2016-08-11 | 2017-08-08 | Zero coefficient skipping convolution neural network engine |
US15/671,829 US20180046898A1 (en) | 2016-08-11 | 2017-08-08 | Zero Coefficient Skipping Convolution Neural Network Engine |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018028908A true JP2018028908A (ja) | 2018-02-22 |
JP6941499B2 JP6941499B2 (ja) | 2021-09-29 |
Family
ID=61158928
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017155273A Active JP6941499B2 (ja) | 2016-08-11 | 2017-08-10 | ゼロ係数スキップ畳み込みニューラルネットワークエンジン |
JP2017155270A Active JP6998699B2 (ja) | 2016-08-11 | 2017-08-10 | ゼロ係数スキップ畳み込みニューラルネットワークエンジン |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017155270A Active JP6998699B2 (ja) | 2016-08-11 | 2017-08-10 | ゼロ係数スキップ畳み込みニューラルネットワークエンジン |
Country Status (3)
Country | Link |
---|---|
US (2) | US10242311B2 (ja) |
JP (2) | JP6941499B2 (ja) |
CN (2) | CN107729996B (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019215907A1 (ja) * | 2018-05-11 | 2019-11-14 | オリンパス株式会社 | 演算処理装置 |
JP2020194442A (ja) * | 2019-05-29 | 2020-12-03 | 富士通株式会社 | 最適化装置及び最適化方法 |
JP2021034039A (ja) * | 2019-08-13 | 2021-03-01 | 三星電子株式会社Samsung Electronics Co.,Ltd. | ニューラルネットワーク方法及び装置 |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11003985B2 (en) * | 2016-11-07 | 2021-05-11 | Electronics And Telecommunications Research Institute | Convolutional neural network system and operation method thereof |
WO2018119035A1 (en) * | 2016-12-22 | 2018-06-28 | Ip Reservoir, Llc | Pipelines for hardware-accelerated machine learning |
US11048997B2 (en) * | 2016-12-27 | 2021-06-29 | Texas Instruments Incorporated | Reduced complexity convolution for convolutional neural networks |
US10310768B1 (en) * | 2017-01-11 | 2019-06-04 | Ambarella, Inc. | Convolution calculations in multiple dimensions |
KR102415508B1 (ko) * | 2017-03-28 | 2022-07-01 | 삼성전자주식회사 | 컨볼루션 신경망 처리 방법 및 장치 |
US11164071B2 (en) * | 2017-04-18 | 2021-11-02 | Samsung Electronics Co., Ltd. | Method and apparatus for reducing computational complexity of convolutional neural networks |
US10474458B2 (en) | 2017-04-28 | 2019-11-12 | Intel Corporation | Instructions and logic to perform floating-point and integer operations for machine learning |
TWI680409B (zh) * | 2017-07-08 | 2019-12-21 | 英屬開曼群島商意騰科技股份有限公司 | 適用於人工神經網路之矩陣及向量相乘的方法 |
KR20190052893A (ko) * | 2017-11-09 | 2019-05-17 | 삼성전자주식회사 | 뉴럴 네트워크 연산을 위한 전처리 장치 및 방법 |
CN111742331A (zh) * | 2018-02-16 | 2020-10-02 | 多伦多大学管理委员会 | 神经网络加速器 |
JP6749358B2 (ja) * | 2018-03-19 | 2020-09-02 | 株式会社東芝 | 演算処理装置 |
US11537838B2 (en) * | 2018-05-04 | 2022-12-27 | Apple Inc. | Scalable neural network processing engine |
US11783174B2 (en) * | 2018-05-04 | 2023-10-10 | Apple Inc. | Splitting of input data for processing in neural network processor |
US20190340490A1 (en) * | 2018-05-04 | 2019-11-07 | Apple Inc. | Systems and methods for assigning tasks in a neural network processor |
JP7240657B2 (ja) | 2018-05-15 | 2023-03-16 | Tokyo Artisan Intelligence株式会社 | ニューラルネットワーク回路装置、ニューラルネットワーク、ニューラルネットワーク処理方法およびニューラルネットワークの実行プログラム |
CN110659014B (zh) * | 2018-06-29 | 2022-01-14 | 赛灵思公司 | 乘法器及神经网络计算平台 |
US10936914B2 (en) | 2018-07-31 | 2021-03-02 | International Business Machines Corporation | Convolutional neural network with augmentation features |
US10831702B2 (en) * | 2018-09-20 | 2020-11-10 | Ceva D.S.P. Ltd. | Efficient utilization of systolic arrays in computational processing |
US11586417B2 (en) | 2018-09-28 | 2023-02-21 | Qualcomm Incorporated | Exploiting activation sparsity in deep neural networks |
KR102637733B1 (ko) | 2018-10-31 | 2024-02-19 | 삼성전자주식회사 | 뉴럴 네트워크 프로세서 및 그것의 컨볼루션 연산 방법 |
KR20200081044A (ko) | 2018-12-27 | 2020-07-07 | 삼성전자주식회사 | 뉴럴 네트워크의 컨볼루션 연산을 처리하는 방법 및 장치 |
CN111401512B (zh) * | 2019-01-03 | 2024-06-04 | 三星电子株式会社 | 以可变的扩张率在神经网络中进行卷积的方法和系统 |
US20220129725A1 (en) * | 2019-02-06 | 2022-04-28 | Vastai Holding Company | Method and system for convolution model hardware accelerator |
US11604958B2 (en) | 2019-03-13 | 2023-03-14 | Samsung Electronics Co., Ltd. | Method and apparatus for processing computation of zero value in processing of layers in neural network |
EP3938888A1 (en) * | 2019-03-15 | 2022-01-19 | INTEL Corporation | Systolic disaggregation within a matrix accelerator architecture |
WO2020190802A1 (en) | 2019-03-15 | 2020-09-24 | Intel Corporation | Compression techniques |
US11188744B2 (en) * | 2019-03-15 | 2021-11-30 | Microsoft Technology Licensing, Llc | Spatially sparse convolutional neural networks for inking applications |
US11934342B2 (en) | 2019-03-15 | 2024-03-19 | Intel Corporation | Assistance for hardware prefetch in cache access |
KR20210024865A (ko) | 2019-08-26 | 2021-03-08 | 삼성전자주식회사 | 데이터를 처리하는 방법 및 장치 |
KR20210031296A (ko) | 2019-09-11 | 2021-03-19 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
KR20210045225A (ko) | 2019-10-16 | 2021-04-26 | 삼성전자주식회사 | 뉴럴 네트워크에서 연산을 수행하는 방법 및 장치 |
US11475283B2 (en) | 2019-10-24 | 2022-10-18 | Apple Inc. | Multi dimensional convolution in neural network processor |
US20230019275A1 (en) * | 2019-11-19 | 2023-01-19 | Nec Corporation | Information processing apparatus, information processing method, non-transitory computer readable medium |
KR20210071472A (ko) * | 2019-12-06 | 2021-06-16 | 삼성전자주식회사 | 데이터를 처리하는 방법 및 장치 |
US11562235B2 (en) | 2020-02-21 | 2023-01-24 | International Business Machines Corporation | Activation function computation for neural networks |
US20210318887A1 (en) * | 2020-04-09 | 2021-10-14 | Vivante Corporation | Multiplier with Zero Skipping |
US11586442B2 (en) * | 2020-08-06 | 2023-02-21 | Nxp Usa, Inc. | System and method for convolving image with sparse kernels |
US10970619B1 (en) * | 2020-08-21 | 2021-04-06 | Moffett Technologies Co., Limited | Method and system for hierarchical weight-sparse convolution processing |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010134697A (ja) * | 2008-12-04 | 2010-06-17 | Canon Inc | コンボリューション演算回路、階層的コンボリューション演算回路及び物体認識装置 |
JP2019522291A (ja) * | 2016-07-01 | 2019-08-08 | グーグル エルエルシー | プログラマブル二次元画像プロセッサ上の畳み込みニューラルネットワーク |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5151953A (en) * | 1990-12-10 | 1992-09-29 | Harris Corporation | Single chip 2-D convolver |
GB0922126D0 (en) * | 2009-12-17 | 2010-02-03 | Advanced Risc Mach Ltd | Graphics processing systems |
CN102208005B (zh) * | 2011-05-30 | 2014-03-26 | 华中科技大学 | 一种2-d卷积器 |
US9367519B2 (en) * | 2013-08-30 | 2016-06-14 | Microsoft Technology Licensing, Llc | Sparse matrix data structure |
CN104077233B (zh) | 2014-06-18 | 2017-04-05 | 百度在线网络技术(北京)有限公司 | 多通道卷积层处理方法和装置 |
US9805303B2 (en) * | 2015-05-21 | 2017-10-31 | Google Inc. | Rotating data for neural network computations |
US9582726B2 (en) | 2015-06-24 | 2017-02-28 | Qualcomm Incorporated | Systems and methods for image processing in a deep convolution network |
-
2017
- 2017-08-08 US US15/671,860 patent/US10242311B2/en active Active
- 2017-08-08 US US15/671,829 patent/US20180046898A1/en not_active Abandoned
- 2017-08-10 JP JP2017155273A patent/JP6941499B2/ja active Active
- 2017-08-10 JP JP2017155270A patent/JP6998699B2/ja active Active
- 2017-08-11 CN CN201710684870.9A patent/CN107729996B/zh active Active
- 2017-08-11 CN CN201710685104.4A patent/CN107729997B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010134697A (ja) * | 2008-12-04 | 2010-06-17 | Canon Inc | コンボリューション演算回路、階層的コンボリューション演算回路及び物体認識装置 |
JP2019522291A (ja) * | 2016-07-01 | 2019-08-08 | グーグル エルエルシー | プログラマブル二次元画像プロセッサ上の畳み込みニューラルネットワーク |
Non-Patent Citations (3)
Title |
---|
ATUL RAHMAN, ET AL.: ""Efficient FPGA Acceleration of Convolutional Neural Networks Using Logical-3D Compute Array"", PROCEEDINGS OF THE 2016 DESIGN, AUTOMATION & TEST IN EUROPE CONFERENCE & EXHIBITION (DATE), JPN6021031073, 18 March 2016 (2016-03-18), pages 1393 - 1398, ISSN: 0004570893 * |
JONGSOO PARK, ET AL.: ""Holistic SparseCNN: Forging the Trident of Accuracy, Speed, and Size"", ARXIV:1608.01409V1, vol. version v1, JPN6021031074, 4 August 2016 (2016-08-04), pages 1 - 10, ISSN: 0004570894 * |
YIFAN HE, ET AL.: ""A Configurable SIMD Architecture with Explicit Datapath for Intelligent Learning"", PROCEEDINGS OF THE 2016 INTERNATIONAL CONFERENCE ON EMBEDDED COMPUTER SYSTEMS: ARCHITECTURES, MODELI, JPN6021031076, 21 July 2016 (2016-07-21), pages 156 - 163, XP033044657, ISSN: 0004570895, DOI: 10.1109/SAMOS.2016.7818343 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019215907A1 (ja) * | 2018-05-11 | 2019-11-14 | オリンパス株式会社 | 演算処理装置 |
WO2019216376A1 (ja) * | 2018-05-11 | 2019-11-14 | オリンパス株式会社 | 演算処理装置 |
JPWO2019216376A1 (ja) * | 2018-05-11 | 2021-05-13 | オリンパス株式会社 | 演算処理装置 |
JP7261226B2 (ja) | 2018-05-11 | 2023-04-19 | オリンパス株式会社 | 演算処理装置 |
JP2020194442A (ja) * | 2019-05-29 | 2020-12-03 | 富士通株式会社 | 最適化装置及び最適化方法 |
JP7208529B2 (ja) | 2019-05-29 | 2023-01-19 | 富士通株式会社 | 最適化装置及び最適化方法 |
JP2021034039A (ja) * | 2019-08-13 | 2021-03-01 | 三星電子株式会社Samsung Electronics Co.,Ltd. | ニューラルネットワーク方法及び装置 |
JP7114659B2 (ja) | 2019-08-13 | 2022-08-08 | 三星電子株式会社 | ニューラルネットワーク方法及び装置 |
Also Published As
Publication number | Publication date |
---|---|
US10242311B2 (en) | 2019-03-26 |
JP2018026134A (ja) | 2018-02-15 |
US20180046437A1 (en) | 2018-02-15 |
JP6941499B2 (ja) | 2021-09-29 |
CN107729997A (zh) | 2018-02-23 |
US20180046898A1 (en) | 2018-02-15 |
CN107729997B (zh) | 2022-12-27 |
CN107729996B (zh) | 2023-07-14 |
JP6998699B2 (ja) | 2022-01-18 |
CN107729996A (zh) | 2018-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6941499B2 (ja) | ゼロ係数スキップ畳み込みニューラルネットワークエンジン | |
US10679127B2 (en) | Performing average pooling in hardware | |
US20180165574A1 (en) | Performing average pooling in hardware | |
JP5734475B2 (ja) | 変換の高速でメモリ効率の良い実施のための方法 | |
JP7414930B2 (ja) | 情報処理装置、情報処理方法 | |
JP2020126651A (ja) | ニューラルネットワークのコンボルーション演算を処理する方法及び装置 | |
EP3282398A1 (en) | Zero coefficient skipping convolution neural network engine | |
US11599334B2 (en) | Enhanced multiply accumulate device for neural networks | |
JP2021144428A (ja) | データ処理装置、データ処理方法 | |
CN116051345A (zh) | 图像数据处理方法、装置、计算机设备及可读存储介质 | |
US8810572B2 (en) | Tessellation cache for object rendering | |
US20210318887A1 (en) | Multiplier with Zero Skipping | |
US11301214B2 (en) | Device for performing multiply/accumulate operations | |
US20220140841A1 (en) | ReLU COMPRESSION TO REDUCE GPU MEMORY |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200727 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20200727 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210817 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210906 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6941499 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |