JP6856609B2 - 畳み込みニューラルネットワークの畳み込み層における演算を実行する方法及び装置 - Google Patents
畳み込みニューラルネットワークの畳み込み層における演算を実行する方法及び装置 Download PDFInfo
- Publication number
- JP6856609B2 JP6856609B2 JP2018221335A JP2018221335A JP6856609B2 JP 6856609 B2 JP6856609 B2 JP 6856609B2 JP 2018221335 A JP2018221335 A JP 2018221335A JP 2018221335 A JP2018221335 A JP 2018221335A JP 6856609 B2 JP6856609 B2 JP 6856609B2
- Authority
- JP
- Japan
- Prior art keywords
- dimension
- convolution
- folded
- kernel
- convolutional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 66
- 238000013527 convolutional neural network Methods 0.000 title claims description 33
- 230000015654 memory Effects 0.000 claims description 40
- 238000004364 calculation method Methods 0.000 claims description 22
- 230000003068 static effect Effects 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 238000004590 computer program Methods 0.000 claims 1
- 230000036961 partial effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/30003—Arrangements for executing specific machine instructions
- G06F9/30007—Arrangements for executing specific machine instructions to perform operations on data operands
- G06F9/3001—Arithmetic instructions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11C—STATIC STORES
- G11C11/00—Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
- G11C11/21—Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using electric elements
- G11C11/34—Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using electric elements using semiconductor devices
- G11C11/40—Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using electric elements using semiconductor devices using transistors
- G11C11/41—Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using electric elements using semiconductor devices using transistors forming static cells with positive feedback, i.e. cells not needing refreshing or charge regeneration, e.g. bistable multivibrator or Schmitt trigger
- G11C11/413—Auxiliary circuits, e.g. for addressing, decoding, driving, writing, sensing, timing or power reduction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Neurology (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Computer Hardware Design (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Error Detection And Correction (AREA)
Description
該畳み込み層によって指定されたパディング方法に従って、畳み込み層に提供された折り畳まれていない特徴データをパディングするステップS101と、
パディングされた折り畳まれていない特徴データを、幅と高さの少なくとも一つの次元において折り畳んで、折り畳まれた特徴データを生成するステップS105と、
幅と高さの少なくとも一つの次元において該畳み込み層のオリジナル畳み込みカーネルを折り畳んで、該オリジナル畳み込みカーネルに対応する1つ又は複数の折り畳まれた畳み込みカーネルを生成するステップS110と、
生成した1つ又は複数の折り畳まれた畳み込みカーネルを用いて折り畳まれた特徴データに対して畳み込み演算を実行するステップS115とを含む。
600 例示装置
610 プロセッサ
620 メモリ
630 I/Oインターフェイス
700 例示装置
710 前処理手段
720 第1の折り畳み手段
730 第2の折り畳み手段
740 演算手段
1100 装置
1101 バスシステム
1110 メインプロセッサ
1120 ダイナミックランダムアクセス
1130 畳み込みエンジン
1131 入力バッファ(SRAM)
1132 バッファクロスバースイッチ
1133 計算手段
1134 バッファクロスバースイッチ
1135 出力バッファ
1140 列(スライス)
1141 メモリ手段
Claims (14)
- 畳み込みニューラルネットワークの畳み込み層における演算を実行する方法であって、
前記畳み込み層に提供される折り畳まれていない特徴データ及びオリジナル畳み込みカーネルを、ダイナミックランダムアクセスメモリ(DRAM)から読み取るステップであって、前記オリジナル畳み込みカーネルは折り畳まれていない畳み込みカーネルを表すステップと、
前記畳み込み層によって指定されたパディング方法に従って前記畳み込み層に提供される折り畳まれていない特徴データをパディングするステップと、
パディングされた折り畳まれていない特徴データを幅と高さの少なくとも一つの次元において折り畳んで、折り畳まれた特徴データを生成するステップと、
前記折り畳まれた特徴データをスタティックランダムアクセスメモリ(SRAM)に記憶するステップと、
前記オリジナル畳み込みカーネルを前記幅と高さの少なくとも一つの次元において折り畳んで、前記オリジナル畳み込みカーネルに対応する1つ又は複数の折り畳まれた畳み込みカーネルを生成するステップと、
前記1つ又は複数の折り畳まれた畳み込みカーネルを前記スタティックランダムアクセスメモリに記憶するステップと、
前記スタティックランダムアクセスメモリから前記折り畳まれた特徴データ及び前記1つ又は複数の折り畳まれた畳み込みカーネルを演算手段に読み込み、前記1つ又は複数の折り畳まれた畳み込みカーネルを使用して前記折り畳まれた特徴データに対して畳み込み演算を実行するステップと
を含む畳み込みニューラルネットワークの畳み込み層における演算を実行する方法。 - 前記スタティックランダムアクセスメモリは複数のメモリ手段を含み、メモリ手段ごとにメモリアドレスを有し、前記折り畳まれた特徴データは、少なくとも2つのピクセルごとに同一の前記メモリ手段に記憶され、各前記折り畳まれた畳み込みカーネルは、少なくとも2つのピクセルごとに同一の前記メモリ手段に記憶される請求項1に記載の方法。
- 前記演算手段は複数の乗算器及び複数の加算器を含む請求項1に記載の方法。
- 前記パディングされた折り畳まれていない特徴データを前記少なくとも一つの次元において折り畳むことは、
第一の次元におけるNx枚ごとの連続したスライスを深さの方向で接合するように、前記第一の次元において、前記折り畳まれていない特徴データに対して、第一の折り畳みを行うステップをさらに含み、
前記第一の次元は幅と高さのいずれかであり、Nxは1より大きい整数であり、
前記パディングされた折り畳まれていない特徴データにおける前記第一の次元のifx×Nx+jfx番目のスライスのすべてのCx個のチャネルのデータが、前記第一の折り畳みの結果の前記第一の次元におけるifx番目のスライスのjfx×Cx番目のチャネルから始まる連続したCx個のチャネルのデータに対応し、ifxは0以上の整数で、jfxは0以上Nx未満の整数で、Cxは0より大きい整数である
請求項3に記載の方法。 - 前記畳み込み演算を実行することは、
前記オリジナル畳み込みカーネルの前記第一の次元における第一ストライドがNxに等しくない場合、前記オリジナル畳み込みカーネルに対応するすべての折り畳まれた畳み込みカーネルを用いて、前記折り畳まれた特徴データの同一の部分を畳み込んでから、前記オリジナル畳み込みカーネルに対応するすべての折り畳まれた畳み込みカーネルを、前記第一の次元で前記第一ストライドに従って移動させ、前記折り畳まれた特徴データに対して前記すべての折り畳まれた畳み込みカーネルを用いて畳み込み演算を実行することは、前記複数の乗算器を利用して前記折り畳まれた特徴データにおける複数のピクセルのそれぞれが、複数の折り畳まれた畳み込みカーネルの対応するピクセルと乗算することを含み、又は
前記オリジナル畳み込みカーネルに対応する各折り畳まれた畳み込みカーネルをそれぞれ用いて、折り畳まれた特徴データの全体に対して畳み込み演算を実行し、折り畳まれた畳み込みカーネルごとの前記第一の次元におけるストライドは前記第一ストライドに等しく、及び
前記オリジナル畳み込みカーネルの前記第一の次元における第一ストライドがNxに等しい場合、折り畳まれた畳み込みカーネルごとの前記第一の次元におけるストライドは1である
ことを含む請求項4に記載の方法。 - 前記オリジナル畳み込みカーネルを前記少なくとも一つの次元において折り畳むことは、
前記オリジナル畳み込みカーネルの前記第一の次元における開始境界においてkx×Sx個のゼロスライスをそれぞれパディングすることで、Ex個の第一の変換された畳み込みカーネルを生成するステップと、
ただし、Sxは前記オリジナル畳み込みカーネルの前記第一の次元における第一ストライドであり、ExはNxとSxによって決まる1以上の値であり、kxは0以上Ex未満の整数であり、
前記第一の次元におけるNx枚ごとの連続したスライスを深さ方向で接合するように、前記第一の次元において、第一の変換された畳み込みカーネルごとに第二の折り畳みを行い、第一の変換された畳み込みカーネルごとに対応する第一の折り畳まれた畳み込みカーネルを生成するステップとをさらに含み、
第一の変換された畳み込みカーネルごとの前記第一の次元におけるikx×Nx+jkx番目のスライスのすべてのCx個のチャネルのデータは、対応する第一の折り畳まれた畳み込みカーネルの前記第一の次元におけるikx番目のスライスのjkx×Cx番目のチャネルから始まる連続したCx個のチャネルのデータに対応し、ただし、ikxは0以上の整数で、jkxは0以上Nx未満の整数である
ことを含む請求項4に記載の方法。 - 前記オリジナル畳み込みカーネルを前記少なくとも一つの次元において折り畳むことは、生成されたEx個の第一の折り畳まれた畳み込みカーネルを前記オリジナル畳み込みカーネルに対応する1つ又は複数の折り畳まれた畳み込みカーとして使用する
ことをさらに含む請求項6に記載の方法。 - パディングされた折り畳まれていない特徴データを前記少なくとも一つの次元において折り畳むことは、
第二次元におけるNy枚ごとの連続したスライスを深さ方向で接合するように、前記第二次元において前記第一の折り畳みの結果に対して第三の折り畳みを行うことをさらに含み、
前記第二次元は幅と高さの他方であり、Nyは1より大きい整数であり、
前記第一の折り畳みの結果における前記第二次元のify×Ny+jfy番目のスライスのすべてのCy個のチャネルのデータは、前記第三の折り畳みの結果における前記第二次元のify番目のスライスのjfy×Cy番目のチャネルから始まる連続したCy個のチャネルのデータに対応し、ifyは0以上の整数で、jfyは0以上Ny未満の整数で、Cyは0より大きい整数である
請求項6に記載の方法。 - 前記オリジナル畳み込みカーネルを前記少なくとも一つの次元において折り畳むことは、
第一の折り畳まれた畳み込みカーネルごとの前記第二次元における開始境界において、ky×Sy個のゼロスライスをそれぞれパディングすることで、第一の折り畳まれた畳み込みカーネルごとに、Ey個の第二の変換された畳み込みカーネルをそれぞれ生成するステップと、
ただし、Syは前記オリジナル畳み込みカーネルの前記第二次元における第二ストライドであり、EyはNyとSyによって決まる1以上の値であり、kyは0以上Ey未満の整数であり、
前記第二次元におけるNy枚ごとの連続したスライスを深さ方向で接合するように、前記第二次元において、第二の変換された畳み込みカーネルごとに第四の折り畳みを行い、第二の変換された畳み込みカーネルに対し、対応する第二の折り畳まれた畳み込みカーネルを生成するステップとをさらに含み、
第二の変換された畳み込みカーネルごとの前記第二次元におけるiky×Ny+jky番目のスライスのすべてのCy個のチャネルのデータは、対応する第二の折り畳まれた畳み込みカーネルの前記第二次元におけるiky番目のスライスのjky×Cy番目のチャネルから始まる連続したCy個のチャネルのデータに対応し、ただし、ikyは0以上の整数で、jkyは0以上Ny未満の整数である
請求項8に記載の方法。 - 前記オリジナル畳み込みカーネルを前記少なくとも一つの次元において折り畳むことは、生成されたEx×Ey個の第二の折り畳まれた畳み込みカーネルを前記オリジナル畳み込みカーネルに対応する1つ又は複数の折り畳まれた畳み込みカーネルとして使用する
ことをさらに含む請求項9に記載の方法。 - 前記畳み込み演算を実行することは、
前記オリジナル畳み込みカーネルの前記第二次元における第二ストライドがNyに等しくない場合、前記オリジナル畳み込みカーネルに対応するすべての折り畳まれた畳み込みカーネルを用いて、前記折り畳まれた特徴データの同一の部分を畳み込んでから、前記オリジナル畳み込みカーネルに対応するすべての折り畳まれた畳み込みカーネルを、前記第二次元に前記第二ストライドに従って移動させるステップ、又は
前記オリジナル畳み込みカーネルに対応する各前記折り畳まれた畳み込みカーネルをそれぞれ用いて、折り畳まれた特徴データの全体に対して畳み込みを実行するステップをさらに含み、
前記折り畳まれた畳み込みカーネルごとの前記第二次元におけるストライドは前記第二ストライドに等しく、
前記オリジナル畳み込みカーネルの前記第二次元における第二ストライドがNyに等しい場合、折り畳まれた畳み込みカーネルごとの前記第二次元におけるストライドは1である
請求項8に記載の方法。 - 指令を実行するように構成される1つ又は複数のプロセッサを具備し、
前記指令が実行されると、前記1つ又は複数のプロセッサによって請求項1〜11のいずれか1項に記載の方法が実行される
畳み込みニューラルネットワークの畳み込み層における演算を実行するための装置。 - 畳み込みニューラルネットワークの畳み込み層における演算を実行するための装置であって、
前記畳み込み層によって指定されたパディング方法に従って前記畳み込み層に提供される折り畳まれていない特徴データに対してパディングするように構成された前処理部と、
パディングされた折り畳まれていない特徴データを、幅と高さの少なくとも一つの次元において折り畳んで、折り畳まれた特徴データを生成するように構成された第一折り畳み部と、
前記畳み込み層の、折り畳まれていない畳み込みカーネルを前記少なくとも一つの次元において折り畳んで、前記折り畳まれていない畳み込みカーネルに対応する1つ又は複数の折り畳まれた畳み込みカーネルを生成するように構成された第二折り畳み部と、
前記1つ又は複数の折り畳まれた畳み込みカーネルを用いて前記折り畳まれた特徴データに対して畳み込み演算を実行するように構成された演算部と
を含む畳み込みニューラルネットワークの畳み込み層における演算を実行するための装置。 - 1つ又は複数のメモリ及び1つ又は複数のプロセッサを具備する装置によって実行されると、前記請求項1〜11のいずれか1項に記載の方法が実行されるように構成されるコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711212080.7A CN107844827B (zh) | 2017-11-28 | 2017-11-28 | 执行卷积神经网络中的卷积层的运算的方法和装置 |
CN201711212080.7 | 2017-11-28 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019125352A JP2019125352A (ja) | 2019-07-25 |
JP6856609B2 true JP6856609B2 (ja) | 2021-04-07 |
Family
ID=61680547
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018221335A Active JP6856609B2 (ja) | 2017-11-28 | 2018-11-27 | 畳み込みニューラルネットワークの畳み込み層における演算を実行する方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11468301B2 (ja) |
EP (1) | EP3489863A1 (ja) |
JP (1) | JP6856609B2 (ja) |
KR (1) | KR20190062305A (ja) |
CN (1) | CN107844827B (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10366328B2 (en) * | 2017-09-19 | 2019-07-30 | Gyrfalcon Technology Inc. | Approximating fully-connected layers with multiple arrays of 3x3 convolutional filter kernels in a CNN based integrated circuit |
US10402628B2 (en) * | 2016-10-10 | 2019-09-03 | Gyrfalcon Technology Inc. | Image classification systems based on CNN based IC and light-weight classifier |
CN109190758B (zh) * | 2018-09-04 | 2021-06-15 | 地平线(上海)人工智能技术有限公司 | 用于展开卷积神经网络的张量数据的方法和装置 |
CN110968832B (zh) * | 2018-09-29 | 2023-10-20 | 华为技术有限公司 | 一种数据处理方法和装置 |
US11037030B1 (en) * | 2018-10-29 | 2021-06-15 | Hrl Laboratories, Llc | System and method for direct learning from raw tomographic data |
CN109656623B (zh) * | 2019-03-13 | 2019-06-14 | 北京地平线机器人技术研发有限公司 | 执行卷积运算操作的方法及装置、生成指令的方法及装置 |
CN111832585B (zh) * | 2019-04-16 | 2023-04-18 | 杭州海康威视数字技术股份有限公司 | 图像处理的方法和装置 |
CN111914985B (zh) * | 2019-05-10 | 2023-07-04 | 杭州海康威视数字技术股份有限公司 | 深度学习网络模型的配置方法、装置及存储介质 |
CN112133342B (zh) * | 2019-06-25 | 2022-05-06 | 中电海康集团有限公司 | 存储器 |
US20200410319A1 (en) * | 2019-06-26 | 2020-12-31 | Micron Technology, Inc. | Stacked artificial neural networks |
CN110288090B (zh) * | 2019-06-28 | 2023-11-07 | 广东中星微电子有限公司 | 训练卷积神经网络的方法及装置、计算机设备和存储介质 |
CN112215329B (zh) * | 2019-07-09 | 2023-09-29 | 杭州海康威视数字技术股份有限公司 | 基于神经网络的卷积计算方法及装置 |
US11699081B2 (en) * | 2019-12-20 | 2023-07-11 | Meta Platforms, Inc. | Systems and methods for reducing data movement during convolution operations in artificial neural networks |
CN113191377A (zh) * | 2020-01-14 | 2021-07-30 | 北京京东乾石科技有限公司 | 用于处理图像的方法和装置 |
DE102020201182A1 (de) * | 2020-01-31 | 2021-08-05 | Robert Bosch Gesellschaft mit beschränkter Haftung | Hardwarebeschleunigte Berechnung von Faltungen |
CN113807506B (zh) * | 2020-06-11 | 2023-03-24 | 杭州知存智能科技有限公司 | 数据加载电路和方法 |
US11977969B2 (en) | 2020-06-11 | 2024-05-07 | Hangzhou Zhicun Intelligent Technology Co., Ltd. | Data loading |
CN111860809B (zh) * | 2020-06-18 | 2024-03-15 | 清华大学 | 采用填充后图像传感芯片进行首层卷积层处理的方法 |
KR102423047B1 (ko) | 2020-11-17 | 2022-07-19 | 연세대학교 산학협력단 | 하드웨어로 구현되는 초해상도 장치를 위한 전처리 장치 및 방법 |
CN112633490B (zh) * | 2020-12-31 | 2023-09-26 | 上海寒武纪信息科技有限公司 | 执行神经网络模型的数据处理装置、方法及相关产品 |
EP4273751A1 (en) | 2020-12-31 | 2023-11-08 | Cambricon Technologies Corporation Limited | Data processing apparatus and method for executing neural network model, and related products |
CN112836803A (zh) * | 2021-02-04 | 2021-05-25 | 珠海亿智电子科技有限公司 | 一种提高卷积运算效率的数据摆放方法 |
CN112799598B (zh) * | 2021-02-08 | 2022-07-15 | 清华大学 | 一种数据处理方法、处理器及电子设备 |
CN116629320B (zh) * | 2023-07-21 | 2023-11-28 | 美智纵横科技有限责任公司 | 神经网络的优化方法、装置、存储介质及芯片 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1502203A2 (en) * | 2002-01-10 | 2005-02-02 | Massively Parallel Technologies, Inc. | Parallel processing systems and method |
US10497089B2 (en) * | 2016-01-29 | 2019-12-03 | Fotonation Limited | Convolutional neural network |
-
2017
- 2017-11-28 CN CN201711212080.7A patent/CN107844827B/zh active Active
-
2018
- 2018-11-27 JP JP2018221335A patent/JP6856609B2/ja active Active
- 2018-11-28 EP EP18208762.7A patent/EP3489863A1/en not_active Withdrawn
- 2018-11-28 KR KR1020180149480A patent/KR20190062305A/ko not_active Application Discontinuation
- 2018-11-28 US US16/203,017 patent/US11468301B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN107844827A (zh) | 2018-03-27 |
US11468301B2 (en) | 2022-10-11 |
JP2019125352A (ja) | 2019-07-25 |
EP3489863A1 (en) | 2019-05-29 |
KR20190062305A (ko) | 2019-06-05 |
CN107844827B (zh) | 2020-05-26 |
US20190164045A1 (en) | 2019-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6856609B2 (ja) | 畳み込みニューラルネットワークの畳み込み層における演算を実行する方法及び装置 | |
JP6775565B2 (ja) | 畳み込みニューラルネットワークの畳み込み層における演算を実行するための方法、装置、メモリ及びコンピュータプログラム | |
JP6713036B2 (ja) | 折り畳まれた特徴データに対して畳み込み演算を実行するための方法および装置 | |
JP6726246B2 (ja) | 畳み込みニューラルネットワークにおいて演算を実行する方法および装置並びに非一時的な記憶媒体 | |
CN109086867B (zh) | 一种基于fpga的卷积神经网络加速系统 | |
Sohrabizadeh et al. | End-to-end optimization of deep learning applications | |
CN108388537B (zh) | 一种卷积神经网络加速装置和方法 | |
CN109190758B (zh) | 用于展开卷积神经网络的张量数据的方法和装置 | |
CN112508184B (zh) | 一种基于卷积神经网络的快速图像识别加速器设计方法 | |
JPWO2020106781A5 (ja) | ||
JP7402623B2 (ja) | フィルタ処理装置及びその制御方法 | |
JP7461081B2 (ja) | 畳み込みハードウェアによる特徴データに対する逆畳み込み処理方法及び装置 | |
Zeng et al. | Optimizing frequency domain implementation of CNNs on FPGAs | |
US11842273B2 (en) | Neural network processing | |
Wang et al. | Accelerating block-matching and 3d filtering-based image denoising algorithm on fpgas | |
CN116596038A (zh) | 卷积运算加速方法、电路、系统、设备及图像处理方法 | |
KR20220062879A (ko) | 복셀 연결을 이용한 3차원 포인트 클라우드의 노이즈 필터링 방법 및 장치 | |
CN114692819A (zh) | 执行神经网络模型的数据处理装置、方法及相关产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190328 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200609 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200907 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210318 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6856609 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |