JP6726246B2 - 畳み込みニューラルネットワークにおいて演算を実行する方法および装置並びに非一時的な記憶媒体 - Google Patents
畳み込みニューラルネットワークにおいて演算を実行する方法および装置並びに非一時的な記憶媒体 Download PDFInfo
- Publication number
- JP6726246B2 JP6726246B2 JP2018176240A JP2018176240A JP6726246B2 JP 6726246 B2 JP6726246 B2 JP 6726246B2 JP 2018176240 A JP2018176240 A JP 2018176240A JP 2018176240 A JP2018176240 A JP 2018176240A JP 6726246 B2 JP6726246 B2 JP 6726246B2
- Authority
- JP
- Japan
- Prior art keywords
- parameter
- array
- calculation
- partial
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013527 convolutional neural network Methods 0.000 title claims description 92
- 238000000034 method Methods 0.000 title claims description 62
- 238000004364 calculation method Methods 0.000 claims description 120
- 238000000638 solvent extraction Methods 0.000 claims description 7
- 238000003491 array Methods 0.000 claims 1
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/31—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
- G06F17/153—Multidimensional correlation or convolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0495—Quantised networks; Sparse networks; Compressed networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Computational Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Neurology (AREA)
- Databases & Information Systems (AREA)
- Algebra (AREA)
- Image Analysis (AREA)
- Complex Calculations (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Description
畳み込みニューラルネットワークにおける選択された層の重みパラメータを、深さの次元およびカーネル数の次元の少なくとも一方において分割することによって複数の演算パラメータを含む演算パラメータ配列を得るステップと、
演算パラメータ配列の中の各演算パラメータを使用し、選択された層の入力データのうち、使用される演算パラメータのチャンネルに対応するデータに対して、選択された層の演算を実行することによって複数の部分演算結果を含む部分演算結果配列を得るステップと、
部分演算結果配列に基づいて、選択された層の1つまたは複数の出力データを生成するステップと、
を含み、
演算パラメータ配列の各行におけるそれぞれの演算パラメータは、重みパラメータのカーネルのセットの同じサブセットであり、かつ、それぞれ異なるチャンネルを有し、
演算パラメータ配列の各列におけるそれぞれの演算パラメータは、重みパラメータのカーネルのセットのそれぞれ異なるサブセットであり、かつ、同じ1つまたは複数のチャンネルを有する、
畳み込みニューラルネットワークにおいて演算を実行する方法に関する。
1つまたは複数のプロセッサと、
命令を記憶するメモリと、
を備え、
命令が1つまたは複数のプロセッサによって実行された場合、1つまたは複数のプロセッサは、
畳み込みニューラルネットワークにおける選択された層の重みパラメータを、深さの次元およびカーネル数の次元の少なくとも一方において分割することによって複数の演算パラメータを含む演算パラメータ配列を得るステップと、
演算パラメータ配列の中の各演算パラメータを使用し、選択された層の入力データのうち、使用される演算パラメータのチャンネルに対応するデータに対して、選択された層の演算を実行することによって複数の部分演算結果を含む部分演算結果配列を得るステップと、
部分演算結果配列に基づいて、選択された層の1つまたは複数の出力データを生成するステップと、
を実行し、
演算パラメータ配列の各行におけるそれぞれの演算パラメータは、重みパラメータのカーネルのセットの同じサブセットであり、かつ、それぞれ異なるチャンネルを有し、
演算パラメータ配列の各列におけるそれぞれの演算パラメータは、重みパラメータのカーネルのセットのそれぞれ異なるサブセットであり、かつ、同じ1つまたは複数のチャンネルを有する、
畳み込みニューラルネットワークにおいて演算を実行する装置、に関する。
畳み込みニューラルネットワークにおける選択された層の重みパラメータを、深さの次元およびカーネル数の次元の少なくとも一方において分割することによって複数の演算パラメータを含む演算パラメータ配列を得るように構成されている分割器と、
演算パラメータ配列の中の各演算パラメータを使用し、選択された層の入力データのうち、使用される演算パラメータのチャンネルに対応するデータに対して、選択された層の演算を実行することによって複数の部分演算結果を含む部分演算結果配列を得るように構成されている演算器と、
部分演算結果配列に基づいて、選択された層の1つまたは複数の出力データを生成するように構成されている生成器と、
を備え、
演算パラメータ配列の各行におけるそれぞれの演算パラメータは、重みパラメータのカーネルのセットの同じサブセットであり、かつ、それぞれ異なるチャンネルを有し、
演算パラメータ配列の各列におけるそれぞれの演算パラメータは、重みパラメータのカーネルのセットのそれぞれ異なるサブセットであり、かつ、同じ1つまたは複数のチャンネルを有する、
畳み込みニューラルネットワークにおいて演算を実行する装置、に関する。
命令を記憶する非一時的な記憶媒体であって、
命令が、畳み込みニューラルネットワークにおいて演算を実行するように構成されているプロセッサによって実行された場合、プロセッサは、
畳み込みニューラルネットワークにおける選択された層の重みパラメータを、深さの次元およびカーネル数の次元の少なくとも一方において分割することによって複数の演算パラメータを含む演算パラメータ配列を得るステップと、
演算パラメータ配列の中の各演算パラメータを使用し、選択された層の入力データのうち、使用される演算パラメータのチャンネルに対応するデータに対して、選択された層の演算を実行することによって複数の部分演算結果を含む部分演算結果配列を得るステップと、
部分演算結果配列に基づいて、選択された層の1つまたは複数の出力データを生成するステップと、
を実行し、
演算パラメータ配列の各行におけるそれぞれの演算パラメータは、重みパラメータのカーネルのセットの同じサブセットであり、かつ、それぞれ異なるチャンネルを有し、
演算パラメータ配列の各列におけるそれぞれの演算パラメータは、重みパラメータのカーネルのセットのそれぞれ異なるサブセットであり、かつ、同じ1つまたは複数のチャンネルを有する非一時的な記憶媒体、に関する。
− 部分演算結果配列の中の各部分演算結果を、選択された層の出力データとして次の層に提供する。
− 得られた部分演算結果配列に基づいて出力データを生成し、生成された出力データを次の層に提供する。
− 部分演算結果配列を、より少ない行および/またはより少ない列を有する部分演算結果配列に圧縮するため、部分演算結果配列の隣接する行および/または列におけるいくつかの部分演算結果を結合し、次いで、圧縮された部分演算結果配列の中の各部分演算結果を、選択された層の出力データとして次の層に提供する。
Claims (15)
- 畳み込みニューラルネットワークにおける選択された層の重みパラメータを、深さの次元およびカーネル数の次元の少なくとも一方において分割することによって複数の演算パラメータを含む演算パラメータ配列を得るステップと、
前記演算パラメータ配列の中の各演算パラメータを使用し、前記選択された層の入力データのうち、使用される前記演算パラメータのチャンネルに対応するデータに対して、前記選択された層の演算を実行することによって複数の部分演算結果を含む部分演算結果配列を得るステップと、
前記部分演算結果配列に基づいて、前記選択された層の1つまたは複数の出力データを生成するステップと、
を含み、
前記演算パラメータ配列の各行におけるそれぞれの演算パラメータは、前記重みパラメータのカーネルのセットの同じサブセットであり、かつ、それぞれ異なるチャンネルを有し、
前記演算パラメータ配列の各列におけるそれぞれの演算パラメータは、前記重みパラメータのカーネルの前記セットのそれぞれ異なるサブセットであり、かつ、同じ1つまたは複数のチャンネルを有する、
畳み込みニューラルネットワークにおいて演算を実行する方法。 - 前記重みパラメータのサイズが第1のしきい値を超える場合、前記分割によって得られる前記演算パラメータ配列の中の各演算パラメータが前記第1のしきい値以下のサイズを有するように、前記重みパラメータを分割する、
を含む、
請求項1に記載の畳み込みニューラルネットワークにおいて演算を実行する方法。 - 前記重みパラメータのカーネル数が第2のしきい値を超える場合、前記分割によって得られる前記演算パラメータ配列の中の各演算パラメータが前記第2のしきい値以下の数のカーネルを有するように、前記重みパラメータを分割する、
請求項1に記載の畳み込みニューラルネットワークにおいて演算を実行する方法。 - 前記重みパラメータが第1の所定の数以上の数のカーネルを有する場合、前記分割によって得られる前記演算パラメータ配列が前記第1の所定の数の倍数に等しい数の行を有するように、前記重みパラメータを分割する、
請求項1に記載の畳み込みニューラルネットワークにおいて演算を実行する方法。 - 前記重みパラメータが第3のしきい値を超える数のチャンネルを有する場合、前記分割によって得られる前記演算パラメータ配列の中の各演算パラメータが前記第3のしきい値以下の数のチャンネルを有するように、前記重みパラメータを分割する、
請求項1に記載の畳み込みニューラルネットワークにおいて演算を実行する方法。 - 前記重みパラメータが第2の所定の数以上の数のチャンネルを有する場合、前記分割によって得られる前記演算パラメータ配列が前記第2の所定の数の倍数に等しい数の列を有するように、前記重みパラメータを分割する、
請求項1に記載の畳み込みニューラルネットワークにおいて演算を実行する方法。 - 前記選択された層が複数の部分入力データを受け取り、
前記複数の部分入力データの任意の2つが同じチャンネルを有しておらず、かつ前記複数の部分入力データが、全体として、前記選択された層の完全な入力データに対応している場合、前記分割によって得られる前記演算パラメータ配列が、前記受け取った複数の部分入力データの数に等しい数の列を有し、かつ各列におけるすべての前記演算パラメータが、前記複数の部分入力データの1つと同じ1つまたは複数のチャンネルに対応するように、各部分入力データに従って前記重みパラメータを分割する、
を含む、
請求項1に記載の畳み込みニューラルネットワークにおいて演算を実行する方法。 - 前記行および/または前記列が、第1のしきい値を超えるサイズを有する演算パラメータを含む場合、さらに分割することによって得られる前記演算パラメータ配列の中の各演算パラメータが、前記第1のしきい値以下のサイズを有するように、前記演算パラメータ配列の少なくとも行および/または列を、深さの次元およびカーネル数の次元の少なくとも一方においてさらに分割するステップ、
をさらに含む、
請求項1に記載の畳み込みニューラルネットワークにおいて演算を実行する方法。 - 前記部分演算結果配列の中の各部分演算結果は、前記選択された層の1つの出力データに対応する、
請求項1に記載の畳み込みニューラルネットワークにおいて演算を実行する方法。 - 前記部分演算結果配列が複数の列を含む場合、前記部分演算結果配列の各行におけるすべての前記部分演算結果を、対応する部分ごとに加算することによって、前記部分演算結果配列を1列に圧縮し、
前記圧縮された部分演算結果配列の中の各部分演算結果は、前記選択された層の出力データに対応する、
請求項1に記載の畳み込みニューラルネットワークにおいて演算を実行する方法。 - 前記部分演算結果配列が複数の行を含む場合、前記部分演算結果配列の各列におけるすべての前記部分演算結果を深さ方向において結合することによって、前記部分演算結果配列を1行に圧縮し、
前記圧縮された部分演算結果配列の中の各部分演算結果は、前記選択された層の出力データに対応する、
請求項1に記載の畳み込みニューラルネットワークにおいて演算を実行する方法。 - 前記部分演算結果配列が複数の行および複数の列を含む場合、
前記部分演算結果配列の各行におけるすべての前記部分演算結果を、対応する部分ごとに加算した後、前記加算によって圧縮された前記部分演算結果配列の各列におけるすべての前記部分演算結果を、深さ方向において結合することによって、または、
前記部分演算結果配列の各列におけるすべての部分演算結果を前記深さ方向において結合した後、前記結合によって圧縮された前記部分演算結果配列の各行におけるすべての部分演算結果配列を、対応する部分ごとに加算することによって、
前記選択された層の出力データを生成する、
請求項1に記載の畳み込みニューラルネットワークにおいて演算を実行する方法。 - 1つまたは複数のプロセッサと、
命令を記憶するメモリと、
を備え、
前記命令が前記1つまたは複数のプロセッサによって実行された場合、前記1つまたは複数のプロセッサは、
畳み込みニューラルネットワークにおける選択された層の重みパラメータを、深さの次元およびカーネル数の次元の少なくとも一方において分割することによって複数の演算パラメータを含む演算パラメータ配列を得るステップと、
前記演算パラメータ配列の中の各演算パラメータを使用し、前記選択された層の入力データのうち、使用される前記演算パラメータのチャンネルに対応するデータに対して、前記選択された層の演算を実行することによって複数の部分演算結果を含む部分演算結果配列を得るステップと、
前記部分演算結果配列に基づいて、前記選択された層の1つまたは複数の出力データを生成するステップと、
を実行し、
前記演算パラメータ配列の各行におけるそれぞれの演算パラメータは、前記重みパラメータのカーネルのセットの同じサブセットであり、かつ、それぞれ異なるチャンネルを有し、
前記演算パラメータ配列の各列におけるそれぞれの演算パラメータは、前記重みパラメータのカーネルの前記セットのそれぞれ異なるサブセットであり、かつ、同じ1つまたは複数のチャンネルを有する、
畳み込みニューラルネットワークにおいて演算を実行する装置。 - 畳み込みニューラルネットワークにおける選択された層の重みパラメータを、深さの次元およびカーネル数の次元の少なくとも一方において分割することによって複数の演算パラメータを含む演算パラメータ配列を得るように構成されている分割器と、
前記演算パラメータ配列の中の各演算パラメータを使用し、前記選択された層の入力データのうち、使用される前記演算パラメータのチャンネルに対応するデータに対して、前記選択された層の演算を実行することによって複数の部分演算結果を含む部分演算結果配列を得るように構成されている演算器と、
前記部分演算結果配列に基づいて、前記選択された層の1つまたは複数の出力データを生成するように構成されている生成器と、
を備え、
前記演算パラメータ配列の各行におけるそれぞれの演算パラメータは、前記重みパラメータのカーネルのセットの同じサブセットであり、かつ、それぞれ異なるチャンネルを有し、
前記演算パラメータ配列の各列におけるそれぞれの演算パラメータは、前記重みパラメータのカーネルの前記セットのそれぞれ異なるサブセットであり、かつ、同じ1つまたは複数のチャンネルを有する、
畳み込みニューラルネットワークにおいて演算を実行する装置。 - 命令を記憶する非一時的な記憶媒体であって、
前記命令が、畳み込みニューラルネットワークにおいて演算を実行するように構成されているプロセッサによって実行された場合、前記プロセッサは、
前記畳み込みニューラルネットワークにおける選択された層の重みパラメータを、深さの次元およびカーネル数の次元の少なくとも一方において分割することによって複数の演算パラメータを含む演算パラメータ配列を得るステップと、
前記演算パラメータ配列の中の各演算パラメータを使用し、前記選択された層の入力データのうち、使用される前記演算パラメータのチャンネルに対応するデータに対して、前記選択された層の演算を実行することによって複数の部分演算結果を含む部分演算結果配列を得るステップと、
前記部分演算結果配列に基づいて、前記選択された層の1つまたは複数の出力データを生成するステップと、
を実行し、
前記演算パラメータ配列の各行におけるそれぞれの演算パラメータは、前記重みパラメータのカーネルのセットの同じサブセットであり、かつ、それぞれ異なるチャンネルを有し、
前記演算パラメータ配列の各列におけるそれぞれの演算パラメータは、前記重みパラメータのカーネルの前記セットのそれぞれ異なるサブセットであり、かつ、同じ1つまたは複数のチャンネルを有する、
非一時的な記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711041806.5 | 2017-10-31 | ||
CN201711041806.5A CN107832839B (zh) | 2017-10-31 | 2017-10-31 | 执行卷积神经网络中的运算的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019082996A JP2019082996A (ja) | 2019-05-30 |
JP6726246B2 true JP6726246B2 (ja) | 2020-07-22 |
Family
ID=61650154
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018176240A Active JP6726246B2 (ja) | 2017-10-31 | 2018-09-20 | 畳み込みニューラルネットワークにおいて演算を実行する方法および装置並びに非一時的な記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20190130265A1 (ja) |
EP (1) | EP3477556A1 (ja) |
JP (1) | JP6726246B2 (ja) |
KR (1) | KR20190049593A (ja) |
CN (1) | CN107832839B (ja) |
Families Citing this family (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10387740B2 (en) * | 2016-10-10 | 2019-08-20 | Gyrfalcon Technology Inc. | Object detection and recognition apparatus based on CNN based integrated circuits |
KR102548718B1 (ko) * | 2017-06-07 | 2023-06-28 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
CN107633295B (zh) * | 2017-09-25 | 2020-04-28 | 南京地平线机器人技术有限公司 | 用于适配神经网络的参数的方法和装置 |
US10902318B2 (en) * | 2017-11-06 | 2021-01-26 | Neuralmagic Inc. | Methods and systems for improved transforms in convolutional neural networks |
US11715287B2 (en) | 2017-11-18 | 2023-08-01 | Neuralmagic Inc. | Systems and methods for exchange of data in distributed training of machine learning algorithms |
CN108647773B (zh) * | 2018-04-20 | 2021-07-23 | 复旦大学 | 一种可重构卷积神经网络的硬件互连系统 |
US11210586B1 (en) | 2018-04-20 | 2021-12-28 | Perceive Corporation | Weight value decoder of neural network inference circuit |
KR20190136431A (ko) * | 2018-05-30 | 2019-12-10 | 삼성전자주식회사 | 뉴럴 네트워크 시스템, 이를 포함하는 어플리케이션 프로세서 및 뉴럴 네트워크 시스템의 동작방법 |
US11449363B2 (en) | 2018-05-31 | 2022-09-20 | Neuralmagic Inc. | Systems and methods for improved neural network execution |
US10832133B2 (en) | 2018-05-31 | 2020-11-10 | Neuralmagic Inc. | System and method of executing neural networks |
CN108984426B (zh) * | 2018-08-03 | 2021-01-26 | 北京字节跳动网络技术有限公司 | 用于处理数据的方法和装置 |
CN109284817B (zh) * | 2018-08-31 | 2022-07-05 | 中国科学院上海高等研究院 | 深度可分离卷积神经网络处理架构/方法/系统及介质 |
WO2020072274A1 (en) | 2018-10-01 | 2020-04-09 | Neuralmagic Inc. | Systems and methods for neural network pruning with accuracy preservation |
US10726073B2 (en) * | 2018-10-26 | 2020-07-28 | Tensil AI Company | Method and apparatus for compiling computation graphs into an integrated circuit |
CN109697500B (zh) * | 2018-12-29 | 2020-06-09 | 中科寒武纪科技股份有限公司 | 数据处理方法、装置、电子设备及存储介质 |
US11544559B2 (en) | 2019-01-08 | 2023-01-03 | Neuralmagic Inc. | System and method for executing convolution in a neural network |
CN109919311B (zh) * | 2019-03-13 | 2020-04-10 | 北京地平线机器人技术研发有限公司 | 生成指令序列的方法、执行神经网络运算的方法和装置 |
CN110334798B (zh) * | 2019-03-13 | 2021-06-08 | 北京地平线机器人技术研发有限公司 | 特征数据提取方法及装置、指令生成方法及装置 |
CN111832585B (zh) * | 2019-04-16 | 2023-04-18 | 杭州海康威视数字技术股份有限公司 | 图像处理的方法和装置 |
CN110377342B (zh) * | 2019-06-10 | 2022-08-30 | 平安科技(深圳)有限公司 | 基于卷积神经网络的显存处理方法、装置及存储介质 |
JP7391553B2 (ja) * | 2019-06-28 | 2023-12-05 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
WO2021012215A1 (zh) * | 2019-07-24 | 2021-01-28 | 华为技术有限公司 | 神经网络切分方法、预测方法及相关装置 |
KR102372869B1 (ko) * | 2019-07-31 | 2022-03-08 | 한양대학교 산학협력단 | 인공 신경망을 위한 행렬 연산기 및 행렬 연산 방법 |
CN112308217B (zh) * | 2019-07-31 | 2024-06-04 | 北京欣奕华科技有限公司 | 一种卷积神经网络加速方法及系统 |
WO2021026225A1 (en) | 2019-08-08 | 2021-02-11 | Neuralmagic Inc. | System and method of accelerating execution of a neural network |
JP2021047711A (ja) | 2019-09-19 | 2021-03-25 | キオクシア株式会社 | 演算装置、演算方法、及び学習方法 |
CN110633153A (zh) * | 2019-09-24 | 2019-12-31 | 上海寒武纪信息科技有限公司 | 一种用多核处理器实现神经网络模型拆分方法及相关产品 |
CN110689115B (zh) * | 2019-09-24 | 2023-03-31 | 安徽寒武纪信息科技有限公司 | 神经网络模型处理方法、装置、计算机设备及存储介质 |
CN110826708B (zh) * | 2019-09-24 | 2022-05-31 | 安徽寒武纪信息科技有限公司 | 一种用多核处理器实现神经网络模型拆分方法及相关产品 |
KR20210053390A (ko) | 2019-11-01 | 2021-05-12 | 삼성전자주식회사 | 메모리 장치 및 이를 포함하는 메모리 시스템 |
US11163453B2 (en) * | 2019-11-01 | 2021-11-02 | Samsung Electronics Co., Ltd. | Memory device, memory system including memory device and vehicle-based system including memory system |
US11973743B2 (en) | 2019-12-13 | 2024-04-30 | TripleBlind, Inc. | Systems and methods for providing a systemic error in artificial intelligence algorithms |
US12026219B2 (en) * | 2019-12-13 | 2024-07-02 | TripleBlind, Inc. | Systems and methods for efficient computations on split data and split algorithms |
US11528259B2 (en) | 2019-12-13 | 2022-12-13 | TripleBlind, Inc. | Systems and methods for providing a systemic error in artificial intelligence algorithms |
US11431688B2 (en) | 2019-12-13 | 2022-08-30 | TripleBlind, Inc. | Systems and methods for providing a modified loss function in federated-split learning |
KR102384587B1 (ko) * | 2020-08-25 | 2022-04-08 | 오픈엣지테크놀로지 주식회사 | 하드웨어 가속기의 출력 데이터를 압축하는 방법, 하드웨어 가속기로의 입력 데이터를 디코딩하는 방법, 및 이를 위한 하드웨어 가속기 |
WO2022109215A1 (en) | 2020-11-20 | 2022-05-27 | TripleBlind, Inc. | Systems and methods for providing a blind de-identification of privacy data |
US11556757B1 (en) | 2020-12-10 | 2023-01-17 | Neuralmagic Ltd. | System and method of executing deep tensor columns in neural networks |
EP4276699A4 (en) * | 2021-03-04 | 2024-07-03 | Samsung Electronics Co Ltd | IMAGE PROCESSING DEVICE AND OPERATING METHOD THEREFOR |
JP2022178465A (ja) | 2021-05-20 | 2022-12-02 | 日立Astemo株式会社 | 演算装置、認識装置および制御装置 |
US11960982B1 (en) | 2021-10-21 | 2024-04-16 | Neuralmagic, Inc. | System and method of determining and executing deep tensor columns in neural networks |
WO2024014002A1 (ja) * | 2022-07-15 | 2024-01-18 | 日本電信電話株式会社 | 推論処理装置、推論処理方法、及び推論処理プログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7142626B2 (en) * | 2003-05-30 | 2006-11-28 | George Shu-Xing Cheng | Apparatus and method of controlling multi-input-single-output systems |
CA2977262A1 (en) * | 2015-02-23 | 2016-09-01 | Cellanyx Diagnostics, Llc | Cell imaging and analysis to differentiate clinically relevant sub-populations of cells |
US10204301B2 (en) * | 2015-03-18 | 2019-02-12 | International Business Machines Corporation | Implementing a neural network algorithm on a neurosynaptic substrate based on criteria related to the neurosynaptic substrate |
US10049322B2 (en) * | 2015-05-21 | 2018-08-14 | Google Llc | Prefetching weights for use in a neural network processor |
US10438117B1 (en) * | 2015-05-21 | 2019-10-08 | Google Llc | Computing convolutions using a neural network processor |
CN106650922B (zh) * | 2016-09-29 | 2019-05-03 | 清华大学 | 硬件神经网络转换方法、计算装置、软硬件协作系统 |
US10565492B2 (en) * | 2016-12-31 | 2020-02-18 | Via Alliance Semiconductor Co., Ltd. | Neural network unit with segmentable array width rotator |
CN106909970B (zh) * | 2017-01-12 | 2020-04-21 | 南京风兴科技有限公司 | 一种基于近似计算的二值权重卷积神经网络硬件加速器计算装置 |
CN107273969B (zh) * | 2017-05-11 | 2020-06-19 | 西安交通大学 | 一种参数化可扩展的神经网络全连接层多层互连结构 |
WO2019051658A1 (en) * | 2017-09-13 | 2019-03-21 | Intel Corporation | INCREMENTAL NETWORK QUANTIFICATION |
-
2017
- 2017-10-31 CN CN201711041806.5A patent/CN107832839B/zh active Active
-
2018
- 2018-09-20 JP JP2018176240A patent/JP6726246B2/ja active Active
- 2018-10-25 US US16/170,360 patent/US20190130265A1/en active Pending
- 2018-10-31 EP EP18203633.5A patent/EP3477556A1/en not_active Withdrawn
- 2018-10-31 KR KR1020180132001A patent/KR20190049593A/ko not_active Application Discontinuation
Also Published As
Publication number | Publication date |
---|---|
EP3477556A1 (en) | 2019-05-01 |
KR20190049593A (ko) | 2019-05-09 |
JP2019082996A (ja) | 2019-05-30 |
CN107832839B (zh) | 2020-02-14 |
CN107832839A (zh) | 2018-03-23 |
US20190130265A1 (en) | 2019-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6726246B2 (ja) | 畳み込みニューラルネットワークにおいて演算を実行する方法および装置並びに非一時的な記憶媒体 | |
JP6856609B2 (ja) | 畳み込みニューラルネットワークの畳み込み層における演算を実行する方法及び装置 | |
US11461632B2 (en) | Method and apparatus for adapting parameters of neural network | |
US11847569B2 (en) | Training and application method of a multi-layer neural network model, apparatus and storage medium | |
US20180204110A1 (en) | Compressed neural network system using sparse parameters and design method thereof | |
WO2019128475A1 (zh) | 数据训练方法及装置、存储介质、电子装置 | |
CN109190758B (zh) | 用于展开卷积神经网络的张量数据的方法和装置 | |
US20220147795A1 (en) | Neural network tiling method, prediction method, and related apparatus | |
KR20180073118A (ko) | 컨볼루션 신경망 처리 방법 및 장치 | |
JP2022550730A (ja) | 高速なスパースニューラルネットワーク | |
US20210326687A1 (en) | Neural Network System and Data Processing Technology | |
WO2017124930A1 (zh) | 一种特征数据处理方法及设备 | |
JP2021507345A (ja) | 畳み込みニューラル・ネットワークの完全なカーネルを近似するためのスパース・カーネルの融合 | |
WO2020253117A1 (zh) | 一种数据处理方法及装置 | |
KR20220154698A (ko) | 병렬 프로세싱 동안 전력 영향들을 감소시키기 위한 프로세싱 데이터 스트림 수정 | |
JP7332722B2 (ja) | データ処理方法、装置、記憶媒体及び電子機器 | |
TW202338668A (zh) | 用於神經網路訓練的稀疏性掩蔽方法 | |
US12079301B2 (en) | Performing tensor operations using a programmable control engine | |
CN115130672B (zh) | 一种软硬件协同优化卷积神经网络计算的方法及装置 | |
CN111027688A (zh) | 一种基于fpga的神经网络计算器生成方法及装置 | |
US11748251B2 (en) | Storing tensors in memory based on depth | |
US20240080255A1 (en) | Network traffic control using estimated maximum gap | |
Mehrez et al. | Understanding the performances of SMVP on multiprocessor platform | |
KR20230155943A (ko) | 그래프 임베딩 방법 및 그 시스템 | |
KR101555752B1 (ko) | 그리드 컴퓨팅 스케줄링을 위한 불연속 그룹 탐색 최적화 적용 방법 및 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181116 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20190109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20190110 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191018 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200306 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200306 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200311 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200626 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6726246 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |