JP2022022876A - 畳み込みニューラルネットワーク処理装置 - Google Patents
畳み込みニューラルネットワーク処理装置 Download PDFInfo
- Publication number
- JP2022022876A JP2022022876A JP2020118737A JP2020118737A JP2022022876A JP 2022022876 A JP2022022876 A JP 2022022876A JP 2020118737 A JP2020118737 A JP 2020118737A JP 2020118737 A JP2020118737 A JP 2020118737A JP 2022022876 A JP2022022876 A JP 2022022876A
- Authority
- JP
- Japan
- Prior art keywords
- processing
- data
- convolution
- input
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 370
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 49
- 238000004364 calculation method Methods 0.000 claims abstract description 70
- 238000000034 method Methods 0.000 claims description 220
- 230000008569 process Effects 0.000 claims description 212
- 238000013500 data storage Methods 0.000 claims description 25
- 230000001186 cumulative effect Effects 0.000 claims description 9
- 238000012546 transfer Methods 0.000 description 29
- 238000001994 activation Methods 0.000 description 15
- 238000012805 post-processing Methods 0.000 description 13
- 230000004913 activation Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000011176 pooling Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 2
- 102000002067 Protein Subunits Human genes 0.000 description 1
- 108010001267 Protein Subunits Proteins 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
- G06F17/153—Multidimensional correlation or convolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/60—Rotation of whole images or parts thereof
- G06T3/606—Rotation of whole images or parts thereof by memory addressing or mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/10—Image enhancement or restoration using non-spatial domain filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/192—Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
- G06V30/194—References adjustable by an adaptive method, e.g. learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Neurology (AREA)
- Algebra (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Advance Control (AREA)
- Complex Calculations (AREA)
Abstract
【解決手段】複数の階層のうち処理対象階層における複数のチャネルのデータの少なくとも一部を保持するデータ保持手段と、それぞれが、前記処理対象階層の1つのチャネルのデータと、処理対象階層に対応する係数と、を用いた積和演算を並列に行う、複数の演算手段と、を備える。処理対象階層における処理を特定する情報に基づいて、データ保持手段に格納された処理対象階層における1つのチャネルのデータを、複数の演算手段のうちの1つの演算手段に入力する第1の処理を行うか、複数の演算手段のそれぞれに並列に入力する第2の処理を行うか、を選択する。
【選択図】図1
Description
複数の階層を有する畳み込みニューラルネットワークにおける演算を行う処理装置であって、
前記複数の階層のうち処理対象階層における複数のチャネルのデータの少なくとも一部を保持するデータ保持手段と、
それぞれが、前記処理対象階層の1つのチャネルのデータと、前記処理対象階層に対応する係数と、を用いた積和演算を並列に行う、複数の演算手段と、
前記処理対象階層における処理を特定する情報に基づいて、前記データ保持手段に格納された前記処理対象階層における1つのチャネルのデータを、前記複数の演算手段のうちの1つの演算手段に入力する第1の処理を行うか、前記複数の演算手段のそれぞれに並列に入力する第2の処理を行うか、を選択する選択手段と、
を備えることを特徴とする。
本発明の一実施形態は、畳み込みニューラルネットワークにおける演算を行う処理装置に関する。まず、このような処理装置を利用して画像処理を行う画像処理装置について説明する。図3は、このような画像処理装置300の一構成例を示すブロック図である。
図2は、畳み込みニューラルネットワーク(以下、単にネットワークと呼ぶことがある)の構造の一例を示す。ネットワークは、複数の階層(レイヤ)を有しており、それぞれの階層には1以上のチャネルのデータ(例えば1以上の特徴画像)が存在する。そして、前階層のデータに対して所定の処理を行うことにより、後階層のデータが生成される。畳み込みニューラルネットワークにおいては、少なくとも1つの処理対象階層のデータに対して畳み込み処理を含む処理を行うことにより、処理対象階層の次の階層のデータが生成される。各階層のデータが画像に限られるわけではないが、以下では、畳み込みニューラルネットワークにおける演算が処理対象画像に対して行われる場合について説明する。この場合、ネットワークの中間にある処理対象階層におけるデータは、畳み込みニューラルネットワークにおける演算の過程で得られる特徴画像である。
以下で、本発明の一実施形態に係る処理装置の構成例について、図4を参照して説明する。図4の下側は、本発明の一実施形態に係る処理装置である、CNN処理部305の構成を示す。CNN処理部305は、制御部401、保持部402、特徴データ保持部403、係数保持部404、読み出し部405、畳み込み処理部406、後処理部407、及び結果保持部408を備える。
f(x)=
0(x<0)
x(x≧0) ……(3)
式(3)において、f(x)は活性化関数であり、xは入力データである。この例では活性化関数としてReLU(Rectified Linear Unit)を用いているが、活性化関数がReLUに限られるわけではない。例えば、活性化関数として他の非線形の関数、又は量子化関数を用いてもよい。また、後処理部407は、必要に応じて、ネットワーク構造情報に示される階層の情報に応じて、活性化処理の結果に基づいてプーリング処理を行うことで、出力特徴画像のサイズを調整してもよい。
本実施形態の構成によれば、複数枚の特徴画像を並列に処理することができる。以下に、図1のフローチャートに従う処理について、図5に示す例に従ってさらに説明する。図5は、図2に示す2つの階層(レイヤ2及びレイヤ3)の処理を行う様子を示す。ここでは、4枚の特徴画像を並列に処理する例について説明する。図5において、実線のブロックは各ステップにおける処理対象を示し、実線の矢印は各ステップで行われる畳み込み処理を示す。
CNN処理部305の構成は図4に示す構成に限られない。図10を参照して、CNN処理部305の別の構成例を説明する。この構成例においてCNN処理部305は、それぞれが複数の演算コア416のうちの1つに対応する、複数の特徴データ格納ユニット411を備える。上述のとおり、複数の演算コア416のそれぞれは、処理対象階層の1つのチャネルのデータと、処理対象階層に対応する係数と、を用いた積和演算を並列に行うことができる。この構成例に係るCNN処理部305は、演算コア416への入力を複数のソースから選択することができるマルチプレクサ(MUX)を備える。このようなMUXは、第1の処理と第2の処理とを切り替えることができる。MUXは、演算コア416とともに同じチップ上に設けられていてもよい。
実施形態1では、深さ方向の畳み込み処理を行わない場合に、共通の入力特徴画像が複数の畳み込みサブユニット410に並列に入力された。実施形態2では、深さ方向の畳み込み処理を行わない場合に、1枚の出力特徴画像を並列処理により生成するように、互いに異なる入力特徴画像が複数の畳み込みサブユニット410に並列に入力される。以下では、実施形態1とは異なる構成について説明する。実施形態1と同様の構成には同じ参照符号が付されており、説明は省略される。
本実施形態の構成によっても、複数枚の特徴画像を並列に処理することができる。以下に、図6のフローチャートに従う処理について、図9に示す例に従ってさらに説明する。図8は、図5と同様に、図2に示す2つの階層(レイヤ2及びレイヤ3)の処理を行う様子を示す。
CNN処理部305の構成は図6に示す構成に限られない。図11を参照して、CNN処理部305の別の構成例を説明する。この構成例においてCNN処理部305は、それぞれが複数の演算コア416のうちの1つに対応する、複数の結果格納ユニット415を備える。上述のとおり、複数の演算コア416のそれぞれは、処理対象階層の1つのチャネルのデータと、処理対象階層に対応する係数と、を用いた積和演算を並列に行うことができる。この構成例に係るCNN処理部305は、複数の演算コア416を用いて得られた複数の出力のうち1つを選択することができるマルチプレクサ(MUX)を備える。このようなMUXは、第1の処理と第2の処理とを切り替えることができる。MUXは、演算コア416とともに同じチップ上に設けられていてもよい。
上述の実施形態において、図1又は図6に示される各ステップは順番に処理された。しかしながら、パイプライン処理を行うことができるハードウェアを用いることにより、パイプライン処理により各実施形態に係る処理を行ってもよい。以下では、実施形態1に係る処理をパイプライン処理を用いて行う場合について、図12を参照して説明する。以下では、PEnum枚の出力特徴画像を並列に生成することができるハードウェアを用いる場合について説明する。また、簡略化のために入力特徴画像の枚数OC=2PEnumである場合について説明するが、入力特徴画像の数は特に限定されない。
上述の実施形態においては、特徴画像単位で畳み込み処理が行われた。例えば、実施形態1のステップS107では、特徴画像が特徴データ保持部403に転送された。しかしながら、データ転送及び畳み込み処理を特徴画像ごとに行う必要はない。例えば、ブロック単位の転送により特徴画像が複数回に分けて転送されてもよいし、畳み込み処理がブロック単位で行われてもよい。
IC:入力特徴画像の枚数
OC:出力特徴画像の枚数
IN×IM:入力ブロックサイズ(ビット)
ON×OM:出力ブロックサイズ(ビット)
X×Y:フィルタサイズ(ビット)
BWFM:特徴画像の転送帯域(ビット/時間)
BWW:重み係数の転送帯域(ビット/時間)
MACPE:畳み込み処理の演算器の積和演算処理の並列度
PEnum:畳み込み処理の演算器の個数
上述の実施形態では、階層毎に畳み込み処理の種類及びフィルタサイズが異なる例について説明した。一方で、1つの階層において用いられるフィルタ又は特徴データが複数のグループに分類され、グループ毎に畳み込み処理の種類及びフィルタサイズが異なっていてもよい。このような場合も、上述の実施形態に係る処理装置は、グループ毎に処理を切り替えることができる。すなわち、上述の実施形態において、処理対象階層における積和演算で用いられる特徴データ及びフィルタの重み係数が複数のグループに分類されていてもよい。この場合、処理対象階層の処理において、処理しようとするグループごとに第1の処理を行うか第2の処理を行うかを選択することができる。
Claims (18)
- 複数の階層を有する畳み込みニューラルネットワークにおける演算を行う処理装置であって、
前記複数の階層のうち処理対象階層における複数のチャネルのデータの少なくとも一部を保持するデータ保持手段と、
それぞれが、前記処理対象階層の1つのチャネルのデータと、前記処理対象階層に対応する係数と、を用いた積和演算を並列に行う、複数の演算手段と、
前記処理対象階層における処理を特定する情報に基づいて、前記データ保持手段に格納された前記処理対象階層における1つのチャネルのデータを、前記複数の演算手段のうちの1つの演算手段に入力する第1の処理を行うか、前記複数の演算手段のそれぞれに並列に入力する第2の処理を行うか、を選択する選択手段と、
を備えることを特徴とする処理装置。 - 前記第2の処理では、前記処理対象階層における前記複数のチャネルのそれぞれ1つについて、該1つのチャネルのデータを前記データ保持手段から前記複数の演算手段に並列に入力することを繰り返すことを特徴とする、請求項1に記載の処理装置。
- 前記第2の処理において、前記複数の演算手段のそれぞれは、順次入力された前記処理対象階層におけるそれぞれのチャネルのデータを用いて、前記処理対象階層の次の階層における1つのチャネルに対応する演算結果を出力することを特徴とする、請求項2に記載の処理装置。
- それぞれが前記複数の演算手段のうちの異なる1つに対応する、複数のデータ格納手段をさらに備え、
前記第1の処理において、前記複数のデータ格納手段のそれぞれは、対応する前記演算手段に、前記処理対象階層における前記1つのチャネルのデータを供給し、
前記第2の処理において、前記複数のデータ格納手段のうちの1つのデータ格納手段は、前記複数の演算手段のそれぞれに、前記処理対象階層における共通の前記1つのチャネルのデータを供給する
ことを特徴とする、請求項1から3のいずれか1項に記載の処理装置。 - 複数の階層を有する畳み込みニューラルネットワークにおける演算を行う処理装置であって、
前記複数の階層のうち処理対象階層における複数のチャネルのデータの少なくとも一部を保持するデータ保持手段と、
それぞれが、前記処理対象階層の1つのチャネルのデータと、前記処理対象階層に対応する係数と、を用いた積和演算を並列に行う、複数の演算手段と、
前記複数の演算手段のそれぞれによる演算結果を累積する累積手段と、
前記処理対象階層における処理を特定する情報に基づいて、前記複数の演算手段のそれぞれによる演算結果を前記処理対象階層の次の階層におけるそれぞれのチャネルに対応する演算結果として出力する第1の処理を行うか、前記累積手段により得られた演算結果を前記次の階層における1つのチャネルに対応する演算結果として出力する第2の処理を行うか、を選択する選択手段と、
を備えることを特徴とする処理装置。 - 前記第2の処理では、1つのチャネルのデータが対応する1つの前記演算手段に入力されるように、前記データ保持手段に格納された前記処理対象階層における複数のチャネルのデータが前記複数の演算手段に並列に入力される、請求項5に記載の処理装置。
- それぞれが前記複数の演算手段のうちの1つに対応する、複数の結果格納手段をさらに備え、
前記第1の処理において、前記複数の演算手段のそれぞれは、対応する前記結果格納手段に前記演算結果を出力し、
前記第2の処理において、前記複数の演算手段のそれぞれは、前記累積手段に前記演算結果を出力し、前記累積手段は、前記累積の結果を前記複数の結果格納手段のうちの1つに出力する
ことを特徴とする、請求項5又は6に記載の処理装置。 - 前記第1の処理では、1つのチャネルのデータが対応する1つの前記演算手段に入力されるように、前記データ保持手段に格納された前記処理対象階層における複数のチャネルのデータが前記複数の演算手段に並列に入力される、請求項1から7のいずれか1項に記載の処理装置。
- 前記第1の処理において、前記複数の演算手段のそれぞれは、前記処理対象階層における1つのチャネルのデータを用いて、前記処理対象階層の次の階層における1つのチャネルに対応する演算結果を出力することを特徴とする、請求項1から8のいずれか1項に記載の処理装置。
- 前記処理対象階層における積和演算に用いる係数の少なくとも一部を保持する係数保持手段と、
前記データ保持手段及び前記係数保持手段から前記複数の演算手段へのデータ供給を制御する供給制御手段と、をさらに備え、
前記複数の演算手段のそれぞれは、入力された1つの前記データと1つの前記係数との積を算出し、算出された積を累計することにより、前記積和演算を行う
ことを特徴とする、請求項1から9のいずれか1項に記載の処理装置。 - 前記処理対象階層における積和演算で用いられる前記データ及び前記係数が複数のグループに分類されており、
前記選択手段は、積和演算に用いる前記データ及び前記係数の前記グループに基づいて、前記第1の処理を行うか、前記第2の処理を行うか、を選択することを特徴とする、請求項1から10のいずれか1項に記載の処理装置。 - 前記係数は畳み込み処理に用いるフィルタの重み係数であり、前記フィルタのサイズは前記階層ごとに設定可能であることを特徴とする、請求項1から11のいずれか1項に記載の処理装置。
- 前記係数は拡張畳み込み処理に用いるフィルタの重み係数であることを特徴とする、請求項1から11のいずれか1項に記載の処理装置。
- 前記データ保持手段はメモリであり、
前記演算手段は乗算器と加算器とを備える演算コアを備え、
前記メモリと前記演算コアとが設けられたチップを備えることを特徴とする、請求項1から11のいずれか1項に記載の処理装置。 - 前記選択手段は、
前記演算コアへと入力されるデータの前記メモリ内のアドレスを指定する、前記チップに設けられたアドレス発行部を備える
ことを特徴とする、請求項14に記載の処理装置。 - 前記選択手段は、
前記演算コアへの入力を複数のソースから選択する、若しくは複数の前記演算コアからの出力のうち1つの出力を選択する、前記チップに設けられたマルチプレクサを備える
ことを特徴とする、請求項14に記載の処理装置。 - 前記畳み込みニューラルネットワークに従う演算は処理対象画像に対して行われ、
前記処理対象階層におけるデータは、前記畳み込みニューラルネットワークに従う演算の過程で得られる特徴画像である
ことを特徴とする、請求項1から16のいずれか1項に記載の処理装置。 - 前記処理対象画像に対して前記畳み込みニューラルネットワークに従う演算を行うように、前記複数の演算手段を制御する制御手段と、
前記処理対象画像に対して前記畳み込みニューラルネットワークに従う演算を行うことにより得られた処理結果に基づいて、前記処理対象画像に対する画像処理を行う画像処理手段と、
をさらに備えることを特徴とする、請求項17に記載の処理装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020118737A JP2022022876A (ja) | 2020-07-09 | 2020-07-09 | 畳み込みニューラルネットワーク処理装置 |
US17/353,959 US11900577B2 (en) | 2020-07-09 | 2021-06-22 | Processing apparatus for performing processing using a convolutional neural network |
EP21180760.7A EP3940603A1 (en) | 2020-07-09 | 2021-06-22 | Processing apparatus for performing pointwise convolutions and depthwise convolutions |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020118737A JP2022022876A (ja) | 2020-07-09 | 2020-07-09 | 畳み込みニューラルネットワーク処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022022876A true JP2022022876A (ja) | 2022-02-07 |
JP2022022876A5 JP2022022876A5 (ja) | 2023-07-12 |
Family
ID=76553571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020118737A Pending JP2022022876A (ja) | 2020-07-09 | 2020-07-09 | 畳み込みニューラルネットワーク処理装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11900577B2 (ja) |
EP (1) | EP3940603A1 (ja) |
JP (1) | JP2022022876A (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7165018B2 (ja) * | 2018-10-03 | 2022-11-02 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
CN115204355A (zh) * | 2021-04-14 | 2022-10-18 | 蒂普爱可斯有限公司 | 能够重新使用数据的神经处理单元及其方法 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4891197B2 (ja) | 2007-11-01 | 2012-03-07 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
JP6102645B2 (ja) * | 2013-09-11 | 2017-03-29 | 富士通株式会社 | 積和演算回路及び積和演算システム |
US10268881B2 (en) | 2015-09-30 | 2019-04-23 | Canon Kabushiki Kaisha | Pattern classifying apparatus, information processing apparatus, pattern classifying method, and non-transitory computer readable storage medium |
JP6700712B2 (ja) | 2015-10-21 | 2020-05-27 | キヤノン株式会社 | 畳み込み演算装置 |
GB201607713D0 (en) | 2016-05-03 | 2016-06-15 | Imagination Tech Ltd | Convolutional neural network |
US10360470B2 (en) | 2016-10-10 | 2019-07-23 | Gyrfalcon Technology Inc. | Implementation of MobileNet in a CNN based digital integrated circuit |
CN110050267B (zh) | 2016-12-09 | 2023-05-26 | 北京地平线信息技术有限公司 | 用于数据管理的系统和方法 |
EP3564866A4 (en) * | 2016-12-28 | 2020-03-25 | Shanghai Cambricon Information Technology Co., Ltd | CALCULATION PROCEDURE |
JP2018156266A (ja) * | 2017-03-16 | 2018-10-04 | 富士通株式会社 | 演算器および演算器の制御方法 |
JP7053995B2 (ja) * | 2018-04-16 | 2022-04-13 | 富士通株式会社 | 最適化装置及び最適化装置の制御方法 |
JP7345262B2 (ja) | 2019-03-11 | 2023-09-15 | キヤノン株式会社 | データ圧縮装置、データ処理装置、データ圧縮方法、プログラム、及び学習済みモデル |
CN113811900A (zh) * | 2019-05-10 | 2021-12-17 | 索尼集团公司 | 算术运算装置和算术运算系统 |
JP7402623B2 (ja) * | 2019-06-17 | 2023-12-21 | キヤノン株式会社 | フィルタ処理装置及びその制御方法 |
JP7008221B2 (ja) * | 2019-12-27 | 2022-01-25 | パナソニックIpマネジメント株式会社 | ニューラルネットワーク最適化方法、ニューラルネットワーク最適化装置およびプログラム |
JP2021144428A (ja) * | 2020-03-11 | 2021-09-24 | キヤノン株式会社 | データ処理装置、データ処理方法 |
US11954830B2 (en) * | 2020-12-17 | 2024-04-09 | Nvidia Corporation | High dynamic range support for legacy applications |
CN114677258A (zh) * | 2020-12-24 | 2022-06-28 | 英特尔公司 | 用于视觉渲染和合成的空间稀疏卷积模块的方法和设备 |
GB2602997B (en) * | 2021-01-25 | 2023-03-01 | Imagination Tech Ltd | Implementing dilated convolution in hardware |
CN115204355A (zh) * | 2021-04-14 | 2022-10-18 | 蒂普爱可斯有限公司 | 能够重新使用数据的神经处理单元及其方法 |
-
2020
- 2020-07-09 JP JP2020118737A patent/JP2022022876A/ja active Pending
-
2021
- 2021-06-22 EP EP21180760.7A patent/EP3940603A1/en active Pending
- 2021-06-22 US US17/353,959 patent/US11900577B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3940603A1 (en) | 2022-01-19 |
US11900577B2 (en) | 2024-02-13 |
US20220012856A1 (en) | 2022-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10679127B2 (en) | Performing average pooling in hardware | |
US10929746B2 (en) | Low-power hardware acceleration method and system for convolution neural network computation | |
JP2021521515A (ja) | 演算を加速するための方法および加速器装置 | |
JP2021521516A (ja) | 演算を加速するための加速器及びシステム | |
JPWO2019168084A1 (ja) | 推論装置、畳み込み演算実行方法及びプログラム | |
JP7414930B2 (ja) | 情報処理装置、情報処理方法 | |
CN109670574B (zh) | 用于同时执行激活和卷积运算的方法和装置及其学习方法和学习装置 | |
US10579334B2 (en) | Block floating point computations using shared exponents | |
JP2022022876A (ja) | 畳み込みニューラルネットワーク処理装置 | |
JP7402623B2 (ja) | フィルタ処理装置及びその制御方法 | |
JP2017068577A (ja) | 演算装置、方法及びプログラム | |
Memik et al. | Analysis and FPGA implementation of image restoration under resource constraints | |
JP2023518717A (ja) | 機械学習アクセラレータの電力削減 | |
JP2021144428A (ja) | データ処理装置、データ処理方法 | |
JP2023073824A (ja) | 演算装置、情報処理方法、及びプログラム | |
KR20200143274A (ko) | 데이터 처리장치 및 그 제어 방법 | |
US20220309778A1 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP2024004400A (ja) | データ処理装置及びその方法 | |
WO2023006170A1 (en) | Devices and methods for providing computationally efficient neural networks | |
KR20230059718A (ko) | 심층 신경망 연산을 수행하는 방법 및 전자 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230704 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230704 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240405 |