JP2019032833A - 固定小数点量子化ニューラルネットワークのための方法及び装置 - Google Patents
固定小数点量子化ニューラルネットワークのための方法及び装置 Download PDFInfo
- Publication number
- JP2019032833A JP2019032833A JP2018144829A JP2018144829A JP2019032833A JP 2019032833 A JP2019032833 A JP 2019032833A JP 2018144829 A JP2018144829 A JP 2018144829A JP 2018144829 A JP2018144829 A JP 2018144829A JP 2019032833 A JP2019032833 A JP 2019032833A
- Authority
- JP
- Japan
- Prior art keywords
- fraction length
- channel
- fixed
- fraction
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 205
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000009826 distribution Methods 0.000 claims abstract description 75
- 238000013139 quantization Methods 0.000 claims description 69
- 230000004913 activation Effects 0.000 claims description 42
- 238000007667 floating Methods 0.000 claims description 33
- 238000004364 calculation method Methods 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims 1
- 239000010410 layer Substances 0.000 description 72
- 238000001994 activation Methods 0.000 description 34
- 238000010586 diagram Methods 0.000 description 34
- 238000012545 processing Methods 0.000 description 18
- 238000012549 training Methods 0.000 description 14
- 238000004422 calculation algorithm Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000004088 simulation Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013178 mathematical model Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008571 general function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0495—Quantised networks; Sparse networks; Compressed networks
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M7/00—Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
- H03M7/14—Conversion to or from non-weighted codes
- H03M7/24—Conversion to or from floating-point codes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
- G06F17/153—Multidimensional correlation or convolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/483—Computations with numbers represented by a non-linear combination of denominational numbers, e.g. rational numbers, logarithmic number system or floating-point numbers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/499—Denomination or exception handling, e.g. rounding or overflow
- G06F7/49942—Significance control
- G06F7/49947—Rounding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/544—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
- G06F7/5443—Sum of products
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/57—Arithmetic logic units [ALU], i.e. arrangements or devices for performing two or more of the operations covered by groups G06F7/483 – G06F7/556 or for performing logical operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2207/00—Indexing scheme relating to methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F2207/38—Indexing scheme relating to groups G06F7/38 - G06F7/575
- G06F2207/48—Indexing scheme relating to groups G06F7/48 - G06F7/575
- G06F2207/4802—Special implementations
- G06F2207/4818—Threshold devices
- G06F2207/4824—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Pure & Applied Mathematics (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Neurology (AREA)
- Nonlinear Science (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
Abstract
Description
a2 1=σ(W2 1,1×a1 1+W2 1,2×a1 2+b2 1)
の値を有することができる。ただし、前述の数式(1)は、ニューラルネットワーク2において、データを処理するために利用されるアクチベーション及びウェートについて説明するための例示であるのみ、それに制限されるものではない。該アクチベーションは、以前レイヤから受信されたアクチベーションの和(sum)にアクチベーション関数を適用した値を、ReLU(rectified linear unit)を通過させることによって獲得された値でもある。
10 ニューラルネットワーク量子化装置
110,1910 プロセッサ
120,1940 メモリ
1900 電子システム
1920 RAM
1930 ニューラルネットワーク装置
1950 センサモジュール
1960 通信モジュール
Claims (21)
- 固定小数点に基づく量子化を利用するニューラルネットワークのための方法において、
浮動小数点を利用して事前に訓練されたニューラルネットワークのデータから、フィーチャマップ及びカーネルのそれぞれに含まれる各チャネルで利用される浮動小数点タイプのパラメータ値に係わるチャネル別統計分布を分析する段階と、
前記チャネル別統計分布に基づいて、前記パラメータ値の分布範囲を統計的にカバーする前記チャネル別パラメータの固定小数点表現を決定する段階と、
前記チャネル別固定小数点表現のパラメータでコンボリューション演算を行った結果に基づいて、バイアス及び前記チャネル別ウェートのフラクション長を決定する段階と、
前記決定されたフラクション長の前記バイアス及び前記チャネル別ウェートを有する固定小数点タイプの量子化されたニューラルネットワークを生成する段階と、を含む方法。 - 前記分析する段階は、
前記ニューラルネットワークが事前に訓練される間、前記各チャネルで利用された前記浮動小数点タイプのアクチベーション、ウェート及びバイアスの前記パラメータ値に係わる前記チャネル別統計量を求めることにより、前記統計分布を分析することを特徴とする請求項1に記載の方法。 - 前記コンボリューション演算は、
MAC(multiply-accumulate)演算及びAdd演算を行う、複数のチャネル間の部分和演算を含み、
前記フラクション長を決定する段階は、
前記決定された固定小数点表現による入力アクチベーションのフラクション長及びウェートのフラクション長に基づいて、前記部分和演算の結果に対応する前記バイアスの前記フラクション長を決定することを特徴とする請求項1又は2に記載の方法。 - 前記バイアスの前記決定されたフラクション長は、
前記MAC演算の結果で求めた固定小数点表現のフラクション長のうち最長フラクション長に基づいて決定されることを特徴とする請求項3に記載の方法。 - 前記部分和演算は、
第1チャネルの第1入力アクチベーション、及び第1ウェートに対する第1 MAC演算、第2チャネルの第2入力アクチベーション、及び第2ウェートに対する第2 MAC演算、並びに前記第1 MAC演算の結果と前記第2 MAC演算の結果とに対するAdd演算を含み、
前記フラクション長を決定する段階は、
前記第1 MAC演算の結果に対応する第1固定小数点表現の第1フラクション長、及び前記第2 MAC演算の結果に対応する第2固定小数点表現の第2フラクション長を獲得する段階と、
前記第1フラクション長及び前記第2フラクション長のうち最長フラクション長に基づいて、前記Add演算の結果に対応する前記バイアスの前記フラクション長を決定する段階と、を含むことを特徴とする請求項4に記載の方法。 - 前記フラクション長を決定する段階は、
前記第1固定小数点表現及び前記第2固定小数点表現のうちさらに短いフラクション長を有する固定小数点表現のフラクション長を、前記バイアスの前記決定されたフラクション長に基づいて、ビットシフティングする段階をさらに含み、
前記量子化されたニューラルネットワークは、前記ビットシフティングの程度に係わる情報を含むことを特徴とする請求項5に記載の方法。 - 前記バイアスの前記決定されたフラクション長は、前記MAC演算の結果として求めた固定小数点表現のフラクション長のうち最短フラクション長に対応し、
前記フラクション長を決定する段階は、
前記固定小数点表現の前記フラクション長の差ほど前記ウェートのうち少なくとも1つのフラクション長を低減させ、前記チャネル別ウェートの前記フラクション長を決定することを特徴とする請求項3に記載の方法。 - 前記部分和演算は、
第1チャネルの第1入力アクチベーション、及び第1ウェートに対する第1 MAC演算、第2チャネルの第2入力アクチベーション、及び第2ウェートに対する第2 MAC演算、並びに前記第1 MAC演算の結果と、前記第2 MAC演算の結果とに対するAdd演算を含み、
前記フラクション長を決定する段階は、
前記第1 MAC演算の結果に対応する第1固定小数点表現の第1フラクション長、及び前記第2 MAC演算の結果に対応する第2固定小数点表現の第2フラクション長を獲得する段階と、
前記第1フラクション長及び前記第2フラクション長のうち最短フラクション長を、前記Add演算の結果に対応する前記バイアスの前記フラクション長と決定する段階と、
前記第1 MAC演算及び前記第2 MAC演算のうち前記最短フラクション長を有する固定小数点表現を求めたMAC演算に入力されたウェートのフラクション長を、前記第1フラクション長及び前記第2フラクション長の差ほど低減させて調整する段階と、を含むことを特徴とする請求項7に記載の方法。 - 前記チャネル別統計分布は、
正規分布及びラプラス分布のうちいずれか一つに近似化された分布に対応し、
前記固定小数点表現を決定する段階は、
前記チャネル別統計分布から獲得された前記各チャネル別に、前記パラメータ値の平均、分散、標準偏差、最大値、最小値のうち少なくとも一つを利用して定義された前記チャネル別フラクション長に基づいて、前記固定小数点表現を決定することを特徴とする請求項1ないし8のうち何れか一項に記載の方法。 - 前記フラクション長の前記決定が完了した後、微細調整のために、前記バイアス及び前記チャネル別ウェートの前記決定されたフラクション長を制約条件にし、前記量子化されたニューラルネットワークを再訓練する段階をさらに含むことを特徴とする請求項1ないし9のうち何れか一項に記載の方法。
- 固定小数点に基づく量子化を利用するニューラルネットワークのための装置であって、
少なくとも1つのプログラムが保存されたメモリと、
前記少なくとも1つのプログラムを実行することにより、ニューラルネットワークのパラメータを量子化するプロセッサと、を含み、
前記プロセッサは、
浮動小数点を利用して事前に訓練されたニューラルネットワークのデータから、フィーチャマップ及びカーネルのそれぞれに含まれる各チャネルで利用される浮動小数点タイプのパラメータ値に係わるチャネル別統計分布を分析し、
前記チャネル別統計分布に基づいて、前記パラメータ値の分布範囲を統計的にカバーする前記チャネル別パラメータの固定小数点表現を決定し、
前記チャネル別固定小数点表現のパラメータでコンボリューション演算を行った結果に基づいて、バイアス及び前記チャネル別ウェートのフラクション長を決定し、
前記決定されたフラクション長の前記バイアス及び前記チャネル別ウェートを有する固定小数点タイプの量子化を利用するニューラルネットワークを生成する装置。 - 前記プロセッサは、
前記ニューラルネットワークが事前に訓練される間、前記各チャネルで利用された前記浮動小数点タイプのアクチベーション、ウェート及びバイアスの前記パラメータ値に係わる前記チャネル別統計量を求めることにより、前記統計分布を分析することを特徴とする請求項11に記載の装置。 - 前記コンボリューション演算は、
MAC(multiply-accumulate)演算及びAdd演算を行う、複数のチャネル間の部分和演算を含み、
前記プロセッサは、
前記決定された固定小数点表現による入力アクチベーションのフラクション長及びウェートのフラクション長に基づいて、前記部分和演算の結果に対応する前記バイアスの前記フラクション長を決定することを特徴とする請求項11又は12に記載の装置。 - 前記バイアスの前記決定されたフラクション長は、
前記MAC演算の結果として求めた固定小数点表現のフラクション長のうち最長フラクション長に基づいて決定されることを特徴とする請求項13に記載の装置。 - 前記部分和演算は、
第1チャネルの第1入力アクチベーション、及び第1ウェートに対する第1 MAC演算、第2チャネルの第2入力アクチベーション、及び第2ウェートに対する第2 MAC演算、並びに前記第1 MAC演算の結果と前記第2 MAC演算の結果とに対するAdd演算を含み、
前記プロセッサは、
前記第1 MAC演算の結果に対応する第1固定小数点表現の第1フラクション長、及び前記第2 MAC演算の結果に対応する第2固定小数点表現の第2フラクション長を獲得し、
前記第1フラクション長及び前記第2フラクション長のうち最長フラクション長に基づいて、前記Add演算の結果に対応する前記バイアスの前記フラクション長を決定することを特徴とする請求項14に記載の装置。 - 前記プロセッサは、
前記第1固定小数点表現及び前記第2固定小数点表現のうちさらに小さいフラクション長を有する固定小数点表現のフラクション長を、前記バイアスの前記決定されたフラクション長に基づいて、ビットシフティングすることを特徴とする請求項15に記載の装置。 - 前記バイアスの前記決定されたフラクション長は、前記MAC演算の結果として求めた固定小数点表現のフラクション長のうち最短フラクション長に対応し、
前記プロセッサは、
前記固定小数点表現の前記フラクション長の差ほど前記ウェートのうち少なくとも1つのフラクション長を低減させ、前記チャネル別ウェートの前記フラクション長を決定することを特徴とする請求項13に記載の装置。 - 前記部分和演算は、
第1チャネルの第1入力アクチベーション、及び第1ウェートに対する第1 MAC演算、第2チャネルの第2入力アクチベーション、及び第2ウェートに対する第2 MAC演算、並びに前記第1 MAC演算の結果と、前記第2 MAC演算の結果とに対するAdd演算を含み、
前記プロセッサは、
前記第1 MAC演算の結果に対応する第1固定小数点表現の第1フラクション長、及び前記第2 MAC演算の結果に対応する第2固定小数点表現の第2フラクション長を獲得し、
前記第1フラクション長及び前記第2フラクション長のうち最短フラクション長を、前記Add演算の結果に対応する前記バイアスの前記フラクション長と決定し、
前記第1 MAC演算及び前記第2 MAC演算のうち前記最短フラクション長を有する固定小数点表現を求めたMAC演算に入力されたウェートのフラクション長を、前記第1フラクション長及び前記第2フラクション長の差ほど低減させて調整することを特徴とする請求項17に記載の装置。 - 前記チャネル別統計分布は、
正規分布及びラプラス分布のうちいずれか一つに近似化された分布に対応し、
前記プロセッサは、
前記チャネル別統計分布から獲得された前記各チャネル別に、前記パラメータ値の平均、分散、標準偏差、最大値、最小値のうち少なくとも一つを利用して定義された前記チャネル別フラクション長に基づいて、前記固定小数点表現を決定することを特徴とする請求項11ないし18のうち何れか一項に記載の装置。 - 前記プロセッサは、
前記フラクション長の前記決定が完了した後、微細調整のために、前記バイアス及び前記チャネル別ウェートの前記決定されたフラクション長を制約条件にし、前記量子化されたニューラルネットワークを再訓練することを特徴とする請求項11ないし19のうち何れか一項に記載の装置。 - 請求項1ないし10のうち何れか一項に記載の方法を装置のコンピュータに実行させるコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170098999A KR102601604B1 (ko) | 2017-08-04 | 2017-08-04 | 뉴럴 네트워크의 파라미터들을 양자화하는 방법 및 장치 |
KR10-2017-0098999 | 2017-08-04 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019032833A true JP2019032833A (ja) | 2019-02-28 |
JP7072464B2 JP7072464B2 (ja) | 2022-05-20 |
Family
ID=63407020
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018144829A Active JP7072464B2 (ja) | 2017-08-04 | 2018-08-01 | 固定小数点量子化ニューラルネットワークのための方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11588496B2 (ja) |
EP (1) | EP3438890B1 (ja) |
JP (1) | JP7072464B2 (ja) |
KR (1) | KR102601604B1 (ja) |
CN (1) | CN109389219B (ja) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020166674A (ja) * | 2019-03-29 | 2020-10-08 | 富士通株式会社 | 情報処理装置、情報処理方法、情報処理プログラム |
EP3792837A1 (en) | 2019-09-09 | 2021-03-17 | Fujitsu Limited | Learning program and learning method |
EP3792836A1 (en) | 2019-09-13 | 2021-03-17 | Fujitsu Limited | Information processing apparatus, method of processing information, and information processing program |
EP3796233A1 (en) | 2019-09-13 | 2021-03-24 | Fujitsu Limited | Information processing device and method, and program |
WO2021144879A1 (ja) * | 2020-01-15 | 2021-07-22 | 富士通株式会社 | 演算処理装置、演算処理プログラム及び演算処理方法 |
WO2021192497A1 (ja) * | 2020-03-27 | 2021-09-30 | パナソニックIpマネジメント株式会社 | 推論実行方法 |
JP2021177369A (ja) * | 2019-06-12 | 2021-11-11 | シャンハイ カンブリコン インフォメーション テクノロジー カンパニー リミテッドShanghai Cambricon Information Technology Co., Ltd. | ニューラルネットワークにおける量子化パラメータの確定方法および関連製品 |
JP2022501674A (ja) * | 2019-08-28 | 2022-01-06 | 上海寒武紀信息科技有限公司Shanghai Cambricon Information Technology Co., Ltd | データを処理するための方法、装置、及び関連製品 |
JP2022501670A (ja) * | 2019-08-26 | 2022-01-06 | 上海寒武紀信息科技有限公司Shanghai Cambricon Information Technology Co., Ltd | データを処理するための方法、装置、及び関連製品 |
WO2022009449A1 (ja) * | 2020-07-10 | 2022-01-13 | 富士通株式会社 | 情報処理装置,情報処理方法および情報処理プログラム |
JP2022532439A (ja) * | 2020-02-24 | 2022-07-14 | 中科寒武紀科技股▲分▼有限公司 | データ量子化処理方法、装置、電子機器および記憶媒体 本願は、2020年02月24日に中国国家知識産権局に提出された、出願番号が202010111884.3であり、発明の名称が「データ量子化処理方法、装置、電子機器および記憶媒体」である中国特許出願の優先権を主張し、その全ての内容は、参照により本願に組み込まれるものとする。 |
WO2022239448A1 (ja) * | 2021-05-10 | 2022-11-17 | コニカミノルタ株式会社 | 量子化プログラム、情報処理装置、及び値域決定方法 |
JP2022548965A (ja) * | 2019-09-19 | 2022-11-22 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | トレーニング可能なモジュールの高速な量子化されたトレーニング |
Families Citing this family (78)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10678244B2 (en) | 2017-03-23 | 2020-06-09 | Tesla, Inc. | Data synthesis for autonomous control systems |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US10671349B2 (en) | 2017-07-24 | 2020-06-02 | Tesla, Inc. | Accelerated mathematical engine |
US11157441B2 (en) | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US11437032B2 (en) | 2017-09-29 | 2022-09-06 | Shanghai Cambricon Information Technology Co., Ltd | Image processing apparatus and method |
KR20190044878A (ko) | 2017-10-23 | 2019-05-02 | 삼성전자주식회사 | 뉴럴 네트워크에서 파라미터를 처리하는 방법 및 장치 |
US11195096B2 (en) * | 2017-10-24 | 2021-12-07 | International Business Machines Corporation | Facilitating neural network efficiency |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US11740898B2 (en) | 2018-02-13 | 2023-08-29 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
CN110162162B (zh) | 2018-02-14 | 2023-08-18 | 上海寒武纪信息科技有限公司 | 处理器的控制装置、方法及设备 |
JP7056225B2 (ja) * | 2018-02-26 | 2022-04-19 | 富士通株式会社 | 演算処理装置、情報処理装置、情報処理方法、およびプログラム |
US11989639B2 (en) * | 2018-03-02 | 2024-05-21 | Nec Corporation | Inferential device, convolutional operation method, and program |
US10769526B2 (en) * | 2018-04-24 | 2020-09-08 | Intel Corporation | Machine learning accelerator architecture |
KR20190125141A (ko) | 2018-04-27 | 2019-11-06 | 삼성전자주식회사 | 뉴럴 네트워크의 파라미터들을 양자화하는 방법 및 장치 |
US11215999B2 (en) | 2018-06-20 | 2022-01-04 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
WO2020001438A1 (zh) | 2018-06-27 | 2020-01-02 | 上海寒武纪信息科技有限公司 | 片上代码断点调试方法、片上处理器及芯片断点调试系统 |
US11361457B2 (en) | 2018-07-20 | 2022-06-14 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
US20200104715A1 (en) * | 2018-09-28 | 2020-04-02 | Xilinx, Inc. | Training of neural networks by including implementation cost as an objective |
SG11202103493QA (en) | 2018-10-11 | 2021-05-28 | Tesla Inc | Systems and methods for training machine models with augmented data |
US11196678B2 (en) | 2018-10-25 | 2021-12-07 | Tesla, Inc. | QOS manager for system on a chip communications |
US11922314B1 (en) * | 2018-11-30 | 2024-03-05 | Ansys, Inc. | Systems and methods for building dynamic reduced order physical models |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11847567B1 (en) | 2018-12-05 | 2023-12-19 | Perceive Corporation | Loss-aware replication of neural network layers |
CN109754074A (zh) * | 2018-12-29 | 2019-05-14 | 北京中科寒武纪科技有限公司 | 一种神经网络量化方法、装置以及相关产品 |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
KR20200086581A (ko) | 2019-01-09 | 2020-07-17 | 삼성전자주식회사 | 뉴럴 네트워크 양자화를 위한 방법 및 장치 |
KR102233174B1 (ko) * | 2019-01-28 | 2021-03-29 | 포항공과대학교 산학협력단 | 신경망 가속기 및 그것의 동작 방법 |
US10997461B2 (en) | 2019-02-01 | 2021-05-04 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
EP3857453A1 (en) * | 2019-02-08 | 2021-08-04 | Huawei Technologies Co., Ltd. | Neural network quantization method using multiple refined quantized kernels for constrained hardware deployment |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US10956755B2 (en) | 2019-02-19 | 2021-03-23 | Tesla, Inc. | Estimating object properties using visual image data |
CN109800877B (zh) * | 2019-02-20 | 2022-12-30 | 腾讯科技(深圳)有限公司 | 神经网络的参数调整方法、装置及设备 |
KR102152374B1 (ko) * | 2019-02-25 | 2020-09-07 | 주식회사 딥엑스 | 인공신경망의 비트 양자화 방법 및 시스템 |
WO2020175862A1 (ko) * | 2019-02-25 | 2020-09-03 | 주식회사 딥엑스 | 인공신경망의 비트 양자화 방법 및 시스템 |
CN109978135B (zh) * | 2019-03-04 | 2022-03-29 | 清华大学 | 基于量化的神经网络压缩方法及系统 |
CN110068302A (zh) * | 2019-03-07 | 2019-07-30 | 中科院微电子研究所昆山分所 | 一种基于深度神经网络的车辆测距方法 |
CN111695671B (zh) * | 2019-03-12 | 2023-08-08 | 北京地平线机器人技术研发有限公司 | 训练神经网络的方法及装置、电子设备 |
US11625585B1 (en) | 2019-05-21 | 2023-04-11 | Perceive Corporation | Compiler for optimizing filter sparsity for neural network implementation configuration |
KR20200139909A (ko) | 2019-06-05 | 2020-12-15 | 삼성전자주식회사 | 전자 장치 및 그의 연산 수행 방법 |
US11676029B2 (en) | 2019-06-12 | 2023-06-13 | Shanghai Cambricon Information Technology Co., Ltd | Neural network quantization parameter determination method and related products |
US11847568B2 (en) * | 2019-07-30 | 2023-12-19 | Perceive Corporation | Quantizing neural networks using shifting and scaling |
WO2021036904A1 (zh) | 2019-08-23 | 2021-03-04 | 安徽寒武纪信息科技有限公司 | 数据处理方法、装置、计算机设备和存储介质 |
CN112488285A (zh) * | 2019-09-12 | 2021-03-12 | 上海大学 | 基于神经网络权重数据分布特点的量化方法 |
DE102020123155A1 (de) * | 2019-09-24 | 2021-03-25 | Samsung Electronics Co., Ltd. | Quantisierungsverfahren eines künstlichen neuronalen Netzwerks und Operationsverfahren unter Verwendung eines künstlichen neuronalen Netzwerks |
KR20210043295A (ko) * | 2019-10-11 | 2021-04-21 | 삼성전자주식회사 | 뉴럴 네트워크의 데이터를 양자화하는 방법 및 장치 |
CN113228056B (zh) * | 2019-10-12 | 2023-12-22 | 深圳鲲云信息科技有限公司 | 运行时硬件模拟仿真方法、装置、设备及存储介质 |
CN110472700B (zh) * | 2019-10-14 | 2020-06-16 | 深兰人工智能芯片研究院(江苏)有限公司 | 一种基于卷积神经网络的参数填充方法与装置 |
CN110991649A (zh) * | 2019-10-28 | 2020-04-10 | 中国电子产品可靠性与环境试验研究所((工业和信息化部电子第五研究所)(中国赛宝实验室)) | 深度学习模型搭建方法、装置、设备和存储介质 |
KR102421987B1 (ko) * | 2019-12-16 | 2022-07-15 | 경희대학교 산학협력단 | 깊은 신경망 내에서의 강화된 배치 정규화를 위한 전자 장치, 방법, 및 컴퓨터 판독가능 매체 |
US11995555B1 (en) | 2019-12-17 | 2024-05-28 | Perceive Corporation | Training a neural network with quantized weights |
CN111079767B (zh) * | 2019-12-22 | 2022-03-22 | 浪潮电子信息产业股份有限公司 | 一种用于分割图像的神经网络模型及其图像分割方法 |
KR20210083935A (ko) | 2019-12-27 | 2021-07-07 | 삼성전자주식회사 | 뉴럴 네트워크의 파라미터들을 양자화하는 방법 및 장치 |
US11847451B2 (en) | 2020-01-07 | 2023-12-19 | SK Hynix Inc. | Processing-in-memory (PIM) device for implementing a quantization scheme |
TW202141290A (zh) | 2020-01-07 | 2021-11-01 | 韓商愛思開海力士有限公司 | 記憶體中處理(pim)系統和pim系統的操作方法 |
CN113222098A (zh) * | 2020-01-21 | 2021-08-06 | 上海商汤智能科技有限公司 | 数据处理方法和相关产品 |
US11521007B2 (en) * | 2020-02-17 | 2022-12-06 | International Business Machines Corporation | Accelerator resource utilization by neural networks |
CN111401518B (zh) * | 2020-03-04 | 2024-06-04 | 北京硅升科技有限公司 | 一种神经网络量化方法、装置及计算机可读存储介质 |
US20230118802A1 (en) * | 2020-03-13 | 2023-04-20 | Intel Corporation | Optimizing low precision inference models for deployment of deep neural networks |
CN113496274A (zh) * | 2020-03-20 | 2021-10-12 | 郑桂忠 | 基于存储器内运算电路架构的量化方法及其系统 |
CN113673664B (zh) * | 2020-05-14 | 2023-09-12 | 杭州海康威视数字技术股份有限公司 | 数据溢出检测方法、装置、设备及存储介质 |
CN113762499B (zh) * | 2020-06-04 | 2024-04-02 | 合肥君正科技有限公司 | 一种分通道量化权重的方法 |
CN111950715A (zh) * | 2020-08-24 | 2020-11-17 | 云知声智能科技股份有限公司 | 基于自适应动态移位的8位整型全量化推理方法及装置 |
KR102505946B1 (ko) * | 2020-09-02 | 2023-03-08 | 네이버 주식회사 | 인공신경망 모델 학습 방법 및 시스템 |
KR20220057356A (ko) | 2020-10-29 | 2022-05-09 | 삼성전자주식회사 | 커패시터 및 이를 포함하는 반도체 장치 |
KR20230107869A (ko) * | 2020-11-18 | 2023-07-18 | 인텔렉추얼디스커버리 주식회사 | 신경망 특징맵 양자화 방법 및 장치 |
CN112446491B (zh) * | 2021-01-20 | 2024-03-15 | 上海齐感电子信息科技有限公司 | 神经网络模型实时自动量化方法及实时自动量化系统 |
WO2022183335A1 (zh) * | 2021-03-01 | 2022-09-09 | 浙江大学 | 图像编解码方法、编码器、解码器及存储介质 |
CN113128116B (zh) * | 2021-04-20 | 2023-09-26 | 上海科技大学 | 可用于轻量级神经网络的纯整型量化方法 |
KR102466016B1 (ko) * | 2021-06-21 | 2022-11-11 | 주식회사 크립토랩 | 동형 암호문을 처리하는 서버 장치 및 그 방법 |
CN114004347A (zh) | 2021-08-30 | 2022-02-01 | 平头哥(上海)半导体技术有限公司 | 用于加速图神经网络属性访问的硬件加速器、系统和方法 |
KR20230066700A (ko) * | 2021-11-08 | 2023-05-16 | 한국전자기술연구원 | 딥러닝 가속장치를 위한 적응적 파라미터 생성 장치 및 방법 |
US20230214639A1 (en) * | 2021-12-31 | 2023-07-06 | Sumant Milind Hanumante | Fixed-point multiplication for network quantization |
CN114677548B (zh) * | 2022-05-26 | 2022-10-14 | 之江实验室 | 基于阻变存储器的神经网络图像分类系统及方法 |
CN116720563B (zh) * | 2022-09-19 | 2024-03-29 | 荣耀终端有限公司 | 一种提升定点神经网络模型精度的方法、装置及电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160328646A1 (en) * | 2015-05-08 | 2016-11-10 | Qualcomm Incorporated | Fixed point neural network based on floating point neural network quantization |
JP2017509951A (ja) * | 2014-01-23 | 2017-04-06 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | スパースニューラルネットワークを構成すること |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5257215A (en) * | 1992-03-31 | 1993-10-26 | Intel Corporation | Floating point and integer number conversions in a floating point adder |
DE102006001681B4 (de) * | 2006-01-12 | 2008-07-10 | Wismüller, Axel, Dipl.-Phys. Dr.med. | Verfahren und Vorrichtung zur Darstellung mehrkanaliger Bilddaten |
US20160026912A1 (en) | 2014-07-22 | 2016-01-28 | Intel Corporation | Weight-shifting mechanism for convolutional neural networks |
CN106575379B (zh) * | 2014-09-09 | 2019-07-23 | 英特尔公司 | 用于神经网络的改进的定点整型实现方式 |
US20160328645A1 (en) | 2015-05-08 | 2016-11-10 | Qualcomm Incorporated | Reduced computational complexity for fixed point neural network |
US10262259B2 (en) | 2015-05-08 | 2019-04-16 | Qualcomm Incorporated | Bit width selection for fixed point neural networks |
US10417555B2 (en) * | 2015-05-29 | 2019-09-17 | Samsung Electronics Co., Ltd. | Data-optimized neural network traversal |
US20170076195A1 (en) * | 2015-09-10 | 2017-03-16 | Intel Corporation | Distributed neural networks for scalable real-time analytics |
HUE047807T2 (hu) * | 2015-10-04 | 2020-05-28 | Atomwise Inc | Rendszer konvolúciós hálózat alkalmazására térbeli adatokon |
US10275393B2 (en) | 2015-10-08 | 2019-04-30 | Via Alliance Semiconductor Co., Ltd. | Tri-configuration neural network unit |
CN106991477B (zh) * | 2016-01-20 | 2020-08-14 | 中科寒武纪科技股份有限公司 | 一种人工神经网络压缩编码装置和方法 |
KR102565273B1 (ko) * | 2016-01-26 | 2023-08-09 | 삼성전자주식회사 | 뉴럴 네트워크에 기초한 인식 장치 및 뉴럴 네트워크의 학습 방법 |
CN105760933A (zh) * | 2016-02-18 | 2016-07-13 | 清华大学 | 卷积神经网络的逐层变精度定点化方法及装置 |
US11755913B2 (en) * | 2016-03-11 | 2023-09-12 | Telecom Italia S.P.A | Convolutional neural networks, particularly for image analysis |
CN106066783A (zh) * | 2016-06-02 | 2016-11-02 | 华为技术有限公司 | 基于幂次权重量化的神经网络前向运算硬件结构 |
US10491239B1 (en) * | 2017-02-02 | 2019-11-26 | Habana Labs Ltd. | Large-scale computations using an adaptive numerical format |
US9916531B1 (en) * | 2017-06-22 | 2018-03-13 | Intel Corporation | Accumulator constrained quantization of convolutional neural networks |
-
2017
- 2017-08-04 KR KR1020170098999A patent/KR102601604B1/ko active IP Right Grant
-
2018
- 2018-08-01 US US16/051,788 patent/US11588496B2/en active Active
- 2018-08-01 JP JP2018144829A patent/JP7072464B2/ja active Active
- 2018-08-01 CN CN201810868446.4A patent/CN109389219B/zh active Active
- 2018-08-03 EP EP18187235.9A patent/EP3438890B1/en active Active
-
2022
- 2022-12-20 US US18/084,948 patent/US20230117033A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017509951A (ja) * | 2014-01-23 | 2017-04-06 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | スパースニューラルネットワークを構成すること |
US20160328646A1 (en) * | 2015-05-08 | 2016-11-10 | Qualcomm Incorporated | Fixed point neural network based on floating point neural network quantization |
Non-Patent Citations (2)
Title |
---|
GYSEL, ET AL.: "Hardware-oriented Approximation of Convolutional Neural Networks", ARXIV.ORG [ONLINE], JPN6022013069, 11 April 2016 (2016-04-11), ISSN: 0004747741 * |
TAKEDA, R., ET AL.: "Acoustic model training based on node-wise weight boundary model increasing speed of discrete neural", PROCEEDINGS OF 2015 IEEE WORKSHOP ON AUTOMATIC SPEECH RECOGNITION AND UNDERSTANDING (ASRU), JPN6021035727, 13 December 2015 (2015-12-13), pages 52 - 58, XP032863524, ISSN: 0004592906, DOI: 10.1109/ASRU.2015.7404773 * |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020166674A (ja) * | 2019-03-29 | 2020-10-08 | 富士通株式会社 | 情報処理装置、情報処理方法、情報処理プログラム |
JP7188237B2 (ja) | 2019-03-29 | 2022-12-13 | 富士通株式会社 | 情報処理装置、情報処理方法、情報処理プログラム |
JP7166704B2 (ja) | 2019-06-12 | 2022-11-08 | 寒武紀(西安)集成電路有限公司 | ニューラルネットワークにおける量子化パラメータの確定方法および関連製品 |
JP2021177369A (ja) * | 2019-06-12 | 2021-11-11 | シャンハイ カンブリコン インフォメーション テクノロジー カンパニー リミテッドShanghai Cambricon Information Technology Co., Ltd. | ニューラルネットワークにおける量子化パラメータの確定方法および関連製品 |
JP7060718B2 (ja) | 2019-08-26 | 2022-04-26 | 上海寒武紀信息科技有限公司 | データを処理するための方法、装置、及び関連製品 |
JP2022501670A (ja) * | 2019-08-26 | 2022-01-06 | 上海寒武紀信息科技有限公司Shanghai Cambricon Information Technology Co., Ltd | データを処理するための方法、装置、及び関連製品 |
JP7060719B2 (ja) | 2019-08-28 | 2022-04-26 | 上海寒武紀信息科技有限公司 | データを処理するための方法、装置、及び関連製品 |
JP2022501674A (ja) * | 2019-08-28 | 2022-01-06 | 上海寒武紀信息科技有限公司Shanghai Cambricon Information Technology Co., Ltd | データを処理するための方法、装置、及び関連製品 |
EP3792837A1 (en) | 2019-09-09 | 2021-03-17 | Fujitsu Limited | Learning program and learning method |
US11676054B2 (en) | 2019-09-09 | 2023-06-13 | Fujitsu Limited | Computer-readable recording medium recording learning program and learning method |
EP3796233A1 (en) | 2019-09-13 | 2021-03-24 | Fujitsu Limited | Information processing device and method, and program |
US11811427B2 (en) | 2019-09-13 | 2023-11-07 | Fujitsu Limited | Information processing apparatus, method of processing information, and non-transitory computer-readable storage medium for storing information processing program |
EP3792836A1 (en) | 2019-09-13 | 2021-03-17 | Fujitsu Limited | Information processing apparatus, method of processing information, and information processing program |
JP7385022B2 (ja) | 2019-09-19 | 2023-11-21 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | トレーニング可能なモジュールの高速な量子化されたトレーニング |
JP2022548965A (ja) * | 2019-09-19 | 2022-11-22 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | トレーニング可能なモジュールの高速な量子化されたトレーニング |
WO2021144879A1 (ja) * | 2020-01-15 | 2021-07-22 | 富士通株式会社 | 演算処理装置、演算処理プログラム及び演算処理方法 |
JP2022532439A (ja) * | 2020-02-24 | 2022-07-14 | 中科寒武紀科技股▲分▼有限公司 | データ量子化処理方法、装置、電子機器および記憶媒体 本願は、2020年02月24日に中国国家知識産権局に提出された、出願番号が202010111884.3であり、発明の名称が「データ量子化処理方法、装置、電子機器および記憶媒体」である中国特許出願の優先権を主張し、その全ての内容は、参照により本願に組み込まれるものとする。 |
JP7233636B2 (ja) | 2020-02-24 | 2023-03-07 | 中科寒武紀科技股▲分▼有限公司 | データ量子化処理方法、装置、電子機器および記憶媒体 |
JP2021157653A (ja) * | 2020-03-27 | 2021-10-07 | パナソニックIpマネジメント株式会社 | 推論実行方法 |
WO2021192497A1 (ja) * | 2020-03-27 | 2021-09-30 | パナソニックIpマネジメント株式会社 | 推論実行方法 |
JP7357225B2 (ja) | 2020-03-27 | 2023-10-06 | パナソニックIpマネジメント株式会社 | 推論実行方法 |
WO2022009449A1 (ja) * | 2020-07-10 | 2022-01-13 | 富士通株式会社 | 情報処理装置,情報処理方法および情報処理プログラム |
WO2022239448A1 (ja) * | 2021-05-10 | 2022-11-17 | コニカミノルタ株式会社 | 量子化プログラム、情報処理装置、及び値域決定方法 |
Also Published As
Publication number | Publication date |
---|---|
US20230117033A1 (en) | 2023-04-20 |
EP3438890A1 (en) | 2019-02-06 |
US11588496B2 (en) | 2023-02-21 |
CN109389219B (zh) | 2024-04-09 |
KR20190014900A (ko) | 2019-02-13 |
US20190042948A1 (en) | 2019-02-07 |
EP3438890B1 (en) | 2024-01-10 |
KR102601604B1 (ko) | 2023-11-13 |
CN109389219A (zh) | 2019-02-26 |
JP7072464B2 (ja) | 2022-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7072464B2 (ja) | 固定小数点量子化ニューラルネットワークのための方法及び装置 | |
JP7329455B2 (ja) | ニューラルネットワーク量子化のための方法及び装置 | |
KR102589303B1 (ko) | 고정 소수점 타입의 뉴럴 네트워크를 생성하는 방법 및 장치 | |
KR102526650B1 (ko) | 뉴럴 네트워크에서 데이터를 양자화하는 방법 및 장치 | |
KR20190125141A (ko) | 뉴럴 네트워크의 파라미터들을 양자화하는 방법 및 장치 | |
CN110689109B (zh) | 神经网络方法和装置 | |
JP2020064635A (ja) | ニューラルネットワークのパラメータを量子化する方法及びその装置 | |
US11816557B2 (en) | Method and apparatus with neural network parameter quantization | |
JP2019102084A (ja) | ニューラルネットワークにおいてコンボリューション演算を処理する方法及びその装置 | |
KR20210045225A (ko) | 뉴럴 네트워크에서 연산을 수행하는 방법 및 장치 | |
JP7329352B2 (ja) | 分類のためのニューラルネットワークにおいて、パラメータを処理する方法及び装置 | |
CN114358274A (zh) | 训练用于图像识别的神经网络的方法和设备 | |
KR20210121946A (ko) | 뉴럴 네트워크 양자화를 위한 방법 및 장치 | |
KR102581471B1 (ko) | 분류를 위한 뉴럴 네트워크에서 파라미터를 처리하는 방법 및 장치 | |
KR20210053791A (ko) | 뉴럴 네트워크의 데이터를 처리하는 방법 및 장치 | |
KR102650660B1 (ko) | 뉴로모픽 장치 및 뉴로모픽 장치에서 멀티-비트 뉴로모픽 연산을 처리하는 방법 | |
KR20200094534A (ko) | 뉴럴 네트워크 장치 및 뉴럴 네트워크 장치에서 멀티-비트 연산을 처리하는 방법 | |
KR20200139071A (ko) | 뉴럴 네트워크에서 파라미터를 양자화하는 방법 및 장치 | |
KR20210076687A (ko) | 뉴럴 프로세싱 장치 및 뉴럴 프로세싱 장치에서 뉴럴 네트워크를 처리하는 방법 | |
KR20240035013A (ko) | 뉴럴 네트워크의 파라미터 양자화 방법 및 장치 | |
CN114254746A (zh) | 执行神经网络的方法和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200805 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210914 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220412 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220510 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7072464 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |