JP7072464B2 - 固定小数点量子化ニューラルネットワークのための方法及び装置 - Google Patents
固定小数点量子化ニューラルネットワークのための方法及び装置 Download PDFInfo
- Publication number
- JP7072464B2 JP7072464B2 JP2018144829A JP2018144829A JP7072464B2 JP 7072464 B2 JP7072464 B2 JP 7072464B2 JP 2018144829 A JP2018144829 A JP 2018144829A JP 2018144829 A JP2018144829 A JP 2018144829A JP 7072464 B2 JP7072464 B2 JP 7072464B2
- Authority
- JP
- Japan
- Prior art keywords
- channel
- fixed
- fraction length
- neural network
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 201
- 238000000034 method Methods 0.000 title claims description 48
- 238000009826 distribution Methods 0.000 claims description 73
- 230000004913 activation Effects 0.000 claims description 43
- 238000007667 floating Methods 0.000 claims description 27
- 238000004590 computer program Methods 0.000 claims 1
- 239000010410 layer Substances 0.000 description 71
- 238000013139 quantization Methods 0.000 description 57
- 238000001994 activation Methods 0.000 description 33
- 238000012545 processing Methods 0.000 description 20
- 238000004364 calculation method Methods 0.000 description 17
- 238000012549 training Methods 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000013178 mathematical model Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008571 general function Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M7/00—Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
- H03M7/14—Conversion to or from non-weighted codes
- H03M7/24—Conversion to or from floating-point codes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0495—Quantised networks; Sparse networks; Compressed networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
- G06F17/153—Multidimensional correlation or convolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/483—Computations with numbers represented by a non-linear combination of denominational numbers, e.g. rational numbers, logarithmic number system or floating-point numbers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/499—Denomination or exception handling, e.g. rounding or overflow
- G06F7/49942—Significance control
- G06F7/49947—Rounding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/544—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
- G06F7/5443—Sum of products
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/57—Arithmetic logic units [ALU], i.e. arrangements or devices for performing two or more of the operations covered by groups G06F7/483 – G06F7/556 or for performing logical operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2207/00—Indexing scheme relating to methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F2207/38—Indexing scheme relating to groups G06F7/38 - G06F7/575
- G06F2207/48—Indexing scheme relating to groups G06F7/48 - G06F7/575
- G06F2207/4802—Special implementations
- G06F2207/4818—Threshold devices
- G06F2207/4824—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Mathematical Optimization (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Neurology (AREA)
- Nonlinear Science (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
Description
a2 1=σ(W2 1,1×a1 1+W2 1,2×a1 2+b2 1)
の値を有することができる。ただし、前述の数式(1)は、ニューラルネットワーク2において、データを処理するために利用されるアクチベーション及びウェートについて説明するための例示であるのみ、それに制限されるものではない。該アクチベーションは、以前レイヤから受信されたアクチベーションの和(sum)にアクチベーション関数を適用した値を、ReLU(rectified linear unit)を通過させることによって獲得された値でもある。
10 ニューラルネットワーク量子化装置
110,1910 プロセッサ
120,1940 メモリ
1900 電子システム
1920 RAM
1930 ニューラルネットワーク装置
1950 センサモジュール
1960 通信モジュール
Claims (21)
- ニューラルネットワーク量子化装置が実行する方法において、
浮動小数点を利用して事前に訓練されたニューラルネットワークのデータから、フィーチャマップ及びカーネルのそれぞれに含まれる各チャネルで利用される浮動小数点タイプのパラメータ値のチャネル別統計分布を求める段階と、
前記チャネル別統計分布に基づいて、前記パラメータ値の分布範囲をカバーする固定小数点表現をチャネル別パラメータ値の各々について決定する段階と、
前記チャネル別パラメータ値の固定小数点表現のコンボリューション演算を行った結果に基づいて、固定小数点表現におけるバイアスのフラクション長を決定する段階と、
前記決定する段階で決定された前記フラクション長に基づいて、データタイプが固定小数点タイプであるニューラルネットワークを生成する段階と、
を含み、前記コンボリューション演算は、
第1チャネルの第1入力アクチベーション及び第1ウェートに対する第1 MAC演算と、第2チャネルの第2入力アクチベーション及び第2ウェートに対する第2MAC演算と、前記第1MAC演算の結果及び前記第2MAC演算の結果に対するAdd演算とを含み、
前記フラクション長を決定する段階は、
前記第1MAC演算の結果に対応する第1固定小数点表現の第1フラクション長、及び前記第2MAC演算の結果に対応する第2固定小数点表現の第2フラクション長のうちの一方を選択することによって行われる、方法。 - 前記チャネル別統計分布を求める段階は、
前記浮動小数点を利用して事前に訓練されたニューラルネットワークの各チャネルで利用された前記浮動小数点タイプのアクチベーション、ウェート及びバイアスのチャネル別統計量を求めることにより、前記チャネル別統計分布を求めることを特徴とする請求項1に記載の方法。 - 前記第1フラクション長は、前記第1入力アクチベーションのフラクション長及び前記第1ウェートのフラクション長に基づいて決定され、
前記第2フラクション長は、前記第2入力アクチベーションのフラクション長及び前記第2ウェートのフラクション長に基づいて決定される、ことを特徴とする請求項1又は2に記載の方法。 - 前記フラクション長を決定する段階は、
前記第1固定小数点表現の第1フラクション長、及び前記第2固定小数点表現の第2フラクション長のうち長い方を選択することによって行われることを特徴とする請求項1に記載の方法。 - 前記フラクション長を決定する段階は、
前記第1固定小数点表現の第1フラクション長、及び前記第2固定小数点表現の第2フラクション長のうち短い方を選択することによって行われることを特徴とする請求項1に記載の方法。 - 前記フラクション長を決定する段階は、
前記第1MAC演算の結果及び前記第2MAC演算の結果に対するAdd演算が、同じ固定小数点表現のデータを加算できるように、前記第1MAC演算の結果をビットシフティングすることを特徴とする請求項1に記載の方法。 - 前記フラクション長を決定する段階は、
前記第1MAC演算の結果及び前記第2MAC演算の結果に対するAdd演算が、同じ固定小数点表現のデータを加算できるように、前記第2MAC演算の結果をビットシフティングすることを特徴とする請求項1に記載の方法。 - 前記チャネル別統計分布を正規分布で近似するために、前記パラメータ値の平均、分散、標準偏差、最大値、最小値のうち少なくとも一つから、前記チャネル別パラメータ値の固定小数点表現のフラクション長が決定される、ことを特徴とする請求項1ないし7のうち何れか一項に記載の方法。
- 前記チャネル別統計分布をラプラス分布で近似するために、前記パラメータ値の平均、分散、標準偏差、最大値、最小値のうち少なくとも一つから、前記チャネル別パラメータ値の固定小数点表現のフラクション長が決定される、ことを特徴とする請求項1ないし7のうち何れか一項に記載の方法。
- 前記データタイプが固定小数点タイプであるニューラルネットワークを、微細調整するように再訓練する段階をさらに含むことを特徴とする請求項1ないし9のうち何れか一項に記載の方法。
- ニューラルネットワークのための装置であって、
少なくとも1つのプログラムが保存されたメモリと、
前記少なくとも1つのプログラムを実行することにより、ニューラルネットワークのパラメータを量子化するプロセッサと、を含み、
前記プロセッサは、
浮動小数点を利用して事前に訓練されたニューラルネットワークのデータから、フィーチャマップ及びカーネルのそれぞれに含まれる各チャネルで利用される浮動小数点タイプのパラメータ値のチャネル別統計分布を求め、
前記チャネル別統計分布に基づいて、前記パラメータ値の分布範囲をカバーする固定小数点表現をチャネル別パラメータ値の各々について決定し、
前記チャネル別パラメータ値の固定小数点表現のコンボリューション演算を行った結果に基づいて、固定小数点表現におけるバイアスのフラクション長を決定し、
決定されたフラクション長に基づいて、データタイプが固定小数点タイプであるニューラルネットワークを生成し、
前記コンボリューション演算は、
第1チャネルの第1入力アクチベーション及び第1ウェートに対する第1 MAC演算と、第2チャネルの第2入力アクチベーション及び第2ウェートに対する第2MAC演算と、前記第1MAC演算の結果及び前記第2MAC演算の結果に対するAdd演算とを含み、
前記固定小数点表現におけるバイアスのフラクション長を決定することは、
前記第1MAC演算の結果に対応する第1固定小数点表現の第1フラクション長、及び前記第2MAC演算の結果に対応する第2固定小数点表現の第2フラクション長のうちの一方を選択することによって行われる、装置。 - 前記プロセッサは、
前記浮動小数点を利用して事前に訓練されたニューラルネットワークの各チャネルで利用された前記浮動小数点タイプのアクチベーション、ウェート及びバイアスのチャネル別統計量を求めることにより、前記チャネル別統計分布を求めることを特徴とする請求項11に記載の装置。 - 前記第1フラクション長は、前記第1入力アクチベーションのフラクション長及び前記第1ウェートのフラクション長に基づいて決定され、
前記第2フラクション長は、前記第2入力アクチベーションのフラクション長及び前記第2ウェートのフラクション長に基づいて決定される、ことを特徴とする請求項11又は12に記載の装置。 - 前記フラクション長を決定する段階は、
前記第1固定小数点表現の第1フラクション長、及び前記第2固定小数点表現の第2フラクション長のうち長い方を選択することによって行われる、ことを特徴とする請求項11に記載の装置。 - 前記フラクション長を決定する段階は、
前記第1固定小数点表現の第1フラクション長、及び前記第2固定小数点表現の第2フラクション長のうち短い方を選択することによって行われることを特徴とする請求項11に記載の装置。 - 前記プロセッサは、
前記第1MAC演算の結果及び前記第2MAC演算の結果に対するAdd演算が、同じ固定小数点表現のデータを加算できるように、前記第1MAC演算の結果をビットシフティングすることを特徴とする請求項11に記載の装置。 - 前記プロセッサは、
前記第1MAC演算の結果及び前記第2MAC演算の結果に対するAdd演算が、同じ固定小数点表現のデータを加算できるように、前記第2MAC演算の結果をビットシフティングすることを特徴とする請求項11に記載の装置。 - 前記チャネル別統計分布を正規分布で近似するために、前記パラメータ値の平均、分散、標準偏差、最大値、最小値のうち少なくとも一つから、前記チャネル別パラメータ値の固定小数点表現のフラクション長が決定されることを特徴とする請求項11ないし17のうち何れか一項に記載の装置。
- 前記チャネル別統計分布をラプラス分布で近似するために、前記パラメータ値の平均、分散、標準偏差、最大値、最小値のうち少なくとも一つから、前記チャネル別パラメータ値の固定小数点表現のフラクション長が決定されることを特徴とする請求項11ないし17のうち何れか一項に記載の装置。
- 前記プロセッサは、
前記データタイプが固定小数点タイプであるニューラルネットワークを、微細調整するように再訓練することを特徴とする請求項11ないし19のうち何れか一項に記載の装置。 - 請求項1ないし10のうち何れか一項に記載の方法を装置のコンピュータに実行させるコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170098999A KR102601604B1 (ko) | 2017-08-04 | 2017-08-04 | 뉴럴 네트워크의 파라미터들을 양자화하는 방법 및 장치 |
KR10-2017-0098999 | 2017-08-04 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019032833A JP2019032833A (ja) | 2019-02-28 |
JP7072464B2 true JP7072464B2 (ja) | 2022-05-20 |
Family
ID=63407020
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018144829A Active JP7072464B2 (ja) | 2017-08-04 | 2018-08-01 | 固定小数点量子化ニューラルネットワークのための方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11588496B2 (ja) |
EP (1) | EP3438890B1 (ja) |
JP (1) | JP7072464B2 (ja) |
KR (1) | KR102601604B1 (ja) |
CN (1) | CN109389219B (ja) |
Families Citing this family (94)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018176000A1 (en) | 2017-03-23 | 2018-09-27 | DeepScale, Inc. | Data synthesis for autonomous control systems |
US10671349B2 (en) | 2017-07-24 | 2020-06-02 | Tesla, Inc. | Accelerated mathematical engine |
US11157441B2 (en) | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US11437032B2 (en) | 2017-09-29 | 2022-09-06 | Shanghai Cambricon Information Technology Co., Ltd | Image processing apparatus and method |
KR20190044878A (ko) | 2017-10-23 | 2019-05-02 | 삼성전자주식회사 | 뉴럴 네트워크에서 파라미터를 처리하는 방법 및 장치 |
US11195096B2 (en) * | 2017-10-24 | 2021-12-07 | International Business Machines Corporation | Facilitating neural network efficiency |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US11169803B2 (en) | 2018-02-13 | 2021-11-09 | Shanghai Cambricon Information Technology Co., Ltd. | Computing device and method |
CN116991225A (zh) | 2018-02-14 | 2023-11-03 | 上海寒武纪信息科技有限公司 | 处理器的控制装置、方法及设备 |
JP7056225B2 (ja) * | 2018-02-26 | 2022-04-19 | 富士通株式会社 | 演算処理装置、情報処理装置、情報処理方法、およびプログラム |
US11989639B2 (en) * | 2018-03-02 | 2024-05-21 | Nec Corporation | Inferential device, convolutional operation method, and program |
US10769526B2 (en) * | 2018-04-24 | 2020-09-08 | Intel Corporation | Machine learning accelerator architecture |
KR20190125141A (ko) | 2018-04-27 | 2019-11-06 | 삼성전자주식회사 | 뉴럴 네트워크의 파라미터들을 양자화하는 방법 및 장치 |
US11215999B2 (en) | 2018-06-20 | 2022-01-04 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
EP3798850A4 (en) | 2018-06-27 | 2022-03-23 | Shanghai Cambricon Information Technology Co., Ltd | ON-CHIP CODE BREAKPOINT DEBUG METHOD, ON-CHIP PROCESSOR AND CHIP BREAKPOINT DEBUG SYSTEM |
US11361457B2 (en) | 2018-07-20 | 2022-06-14 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
US20200104715A1 (en) * | 2018-09-28 | 2020-04-02 | Xilinx, Inc. | Training of neural networks by including implementation cost as an objective |
SG11202103493QA (en) | 2018-10-11 | 2021-05-28 | Tesla Inc | Systems and methods for training machine models with augmented data |
US11196678B2 (en) | 2018-10-25 | 2021-12-07 | Tesla, Inc. | QOS manager for system on a chip communications |
US11922314B1 (en) * | 2018-11-30 | 2024-03-05 | Ansys, Inc. | Systems and methods for building dynamic reduced order physical models |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11847567B1 (en) | 2018-12-05 | 2023-12-19 | Perceive Corporation | Loss-aware replication of neural network layers |
US12014273B2 (en) * | 2018-12-12 | 2024-06-18 | Kneron (Taiwan) Co., Ltd. | Low precision and coarse-to-fine dynamic fixed-point quantization design in convolution neural network |
CN109754074A (zh) * | 2018-12-29 | 2019-05-14 | 北京中科寒武纪科技有限公司 | 一种神经网络量化方法、装置以及相关产品 |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
KR20200086581A (ko) | 2019-01-09 | 2020-07-17 | 삼성전자주식회사 | 뉴럴 네트워크 양자화를 위한 방법 및 장치 |
KR102233174B1 (ko) * | 2019-01-28 | 2021-03-29 | 포항공과대학교 산학협력단 | 신경망 가속기 및 그것의 동작 방법 |
US11150664B2 (en) | 2019-02-01 | 2021-10-19 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
US10997461B2 (en) | 2019-02-01 | 2021-05-04 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
EP3857453A1 (en) * | 2019-02-08 | 2021-08-04 | Huawei Technologies Co., Ltd. | Neural network quantization method using multiple refined quantized kernels for constrained hardware deployment |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US10956755B2 (en) | 2019-02-19 | 2021-03-23 | Tesla, Inc. | Estimating object properties using visual image data |
CN109800877B (zh) * | 2019-02-20 | 2022-12-30 | 腾讯科技(深圳)有限公司 | 神经网络的参数调整方法、装置及设备 |
US11263513B2 (en) | 2019-02-25 | 2022-03-01 | Deepx Co., Ltd. | Method and system for bit quantization of artificial neural network |
KR102152374B1 (ko) * | 2019-02-25 | 2020-09-07 | 주식회사 딥엑스 | 인공신경망의 비트 양자화 방법 및 시스템 |
CN109978135B (zh) * | 2019-03-04 | 2022-03-29 | 清华大学 | 基于量化的神经网络压缩方法及系统 |
CN110068302A (zh) * | 2019-03-07 | 2019-07-30 | 中科院微电子研究所昆山分所 | 一种基于深度神经网络的车辆测距方法 |
CN111695671B (zh) * | 2019-03-12 | 2023-08-08 | 北京地平线机器人技术研发有限公司 | 训练神经网络的方法及装置、电子设备 |
JP7188237B2 (ja) * | 2019-03-29 | 2022-12-13 | 富士通株式会社 | 情報処理装置、情報処理方法、情報処理プログラム |
US20200364552A1 (en) * | 2019-05-13 | 2020-11-19 | Baidu Usa Llc | Quantization method of improving the model inference accuracy |
US11625585B1 (en) | 2019-05-21 | 2023-04-11 | Perceive Corporation | Compiler for optimizing filter sparsity for neural network implementation configuration |
KR20200139909A (ko) | 2019-06-05 | 2020-12-15 | 삼성전자주식회사 | 전자 장치 및 그의 연산 수행 방법 |
EP3998554A4 (en) * | 2019-06-12 | 2023-11-15 | Shanghai Cambricon Information Technology Co., Ltd | METHOD FOR DETERMINING QUANTIZATION PARAMETERS IN A NEURONAL NETWORK AND ASSOCIATED PRODUCTS |
US11676028B2 (en) | 2019-06-12 | 2023-06-13 | Shanghai Cambricon Information Technology Co., Ltd | Neural network quantization parameter determination method and related products |
US11847568B2 (en) * | 2019-07-30 | 2023-12-19 | Perceive Corporation | Quantizing neural networks using shifting and scaling |
JP7146952B2 (ja) | 2019-08-23 | 2022-10-04 | 安徽寒武紀信息科技有限公司 | データ処理方法、装置、コンピュータデバイス、及び記憶媒体 |
CN112446472A (zh) * | 2019-08-28 | 2021-03-05 | 上海寒武纪信息科技有限公司 | 用于处理数据的方法、装置以及相关产品 |
EP4024281A4 (en) * | 2019-08-26 | 2023-11-01 | Shanghai Cambricon Information Technology Co., Ltd | DATA PROCESSING METHOD AND APPARATUS, AND RELATED PRODUCT |
JP7342544B2 (ja) | 2019-09-09 | 2023-09-12 | 富士通株式会社 | 学習プログラムおよび学習方法 |
CN112488285A (zh) * | 2019-09-12 | 2021-03-12 | 上海大学 | 基于神经网络权重数据分布特点的量化方法 |
JP7322620B2 (ja) | 2019-09-13 | 2023-08-08 | 富士通株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
JP2021044783A (ja) | 2019-09-13 | 2021-03-18 | 富士通株式会社 | 情報処理装置,情報処理方法および情報処理プログラム |
DE102019214308B4 (de) * | 2019-09-19 | 2022-07-28 | Robert Bosch Gmbh | Schnelles quantisiertes Training trainierbarer Module |
DE102020123155A1 (de) * | 2019-09-24 | 2021-03-25 | Samsung Electronics Co., Ltd. | Quantisierungsverfahren eines künstlichen neuronalen Netzwerks und Operationsverfahren unter Verwendung eines künstlichen neuronalen Netzwerks |
KR20210043295A (ko) * | 2019-10-11 | 2021-04-21 | 삼성전자주식회사 | 뉴럴 네트워크의 데이터를 양자화하는 방법 및 장치 |
CN113228056B (zh) * | 2019-10-12 | 2023-12-22 | 深圳鲲云信息科技有限公司 | 运行时硬件模拟仿真方法、装置、设备及存储介质 |
CN110472700B (zh) * | 2019-10-14 | 2020-06-16 | 深兰人工智能芯片研究院(江苏)有限公司 | 一种基于卷积神经网络的参数填充方法与装置 |
CN110991649A (zh) * | 2019-10-28 | 2020-04-10 | 中国电子产品可靠性与环境试验研究所((工业和信息化部电子第五研究所)(中国赛宝实验室)) | 深度学习模型搭建方法、装置、设备和存储介质 |
KR102421987B1 (ko) * | 2019-12-16 | 2022-07-15 | 경희대학교 산학협력단 | 깊은 신경망 내에서의 강화된 배치 정규화를 위한 전자 장치, 방법, 및 컴퓨터 판독가능 매체 |
US11995555B1 (en) | 2019-12-17 | 2024-05-28 | Perceive Corporation | Training a neural network with quantized weights |
CN111079767B (zh) * | 2019-12-22 | 2022-03-22 | 浪潮电子信息产业股份有限公司 | 一种用于分割图像的神经网络模型及其图像分割方法 |
KR20210083935A (ko) | 2019-12-27 | 2021-07-07 | 삼성전자주식회사 | 뉴럴 네트워크의 파라미터들을 양자화하는 방법 및 장치 |
US11847451B2 (en) | 2020-01-07 | 2023-12-19 | SK Hynix Inc. | Processing-in-memory (PIM) device for implementing a quantization scheme |
TW202141290A (zh) | 2020-01-07 | 2021-11-01 | 韓商愛思開海力士有限公司 | 記憶體中處理(pim)系統和pim系統的操作方法 |
WO2021144879A1 (ja) * | 2020-01-15 | 2021-07-22 | 富士通株式会社 | 演算処理装置、演算処理プログラム及び演算処理方法 |
CN113222098A (zh) * | 2020-01-21 | 2021-08-06 | 上海商汤智能科技有限公司 | 数据处理方法和相关产品 |
US11521007B2 (en) * | 2020-02-17 | 2022-12-06 | International Business Machines Corporation | Accelerator resource utilization by neural networks |
CN113298843B (zh) * | 2020-02-24 | 2024-05-14 | 中科寒武纪科技股份有限公司 | 数据量化处理方法、装置、电子设备和存储介质 |
CN111401518B (zh) * | 2020-03-04 | 2024-06-04 | 北京硅升科技有限公司 | 一种神经网络量化方法、装置及计算机可读存储介质 |
WO2021179281A1 (en) * | 2020-03-13 | 2021-09-16 | Intel Corporation | Optimizing low precision inference models for deployment of deep neural networks |
CN113496274A (zh) * | 2020-03-20 | 2021-10-12 | 郑桂忠 | 基于存储器内运算电路架构的量化方法及其系统 |
JP7357225B2 (ja) * | 2020-03-27 | 2023-10-06 | パナソニックIpマネジメント株式会社 | 推論実行方法 |
CN113673664B (zh) * | 2020-05-14 | 2023-09-12 | 杭州海康威视数字技术股份有限公司 | 数据溢出检测方法、装置、设备及存储介质 |
CN113762499B (zh) * | 2020-06-04 | 2024-04-02 | 合肥君正科技有限公司 | 一种分通道量化权重的方法 |
WO2022009433A1 (ja) * | 2020-07-10 | 2022-01-13 | 富士通株式会社 | 情報処理装置,情報処理方法および情報処理プログラム |
CN111950715A (zh) * | 2020-08-24 | 2020-11-17 | 云知声智能科技股份有限公司 | 基于自适应动态移位的8位整型全量化推理方法及装置 |
KR102505946B1 (ko) * | 2020-09-02 | 2023-03-08 | 네이버 주식회사 | 인공신경망 모델 학습 방법 및 시스템 |
KR20220057356A (ko) | 2020-10-29 | 2022-05-09 | 삼성전자주식회사 | 커패시터 및 이를 포함하는 반도체 장치 |
US20230421764A1 (en) * | 2020-11-18 | 2023-12-28 | Intellectual Discovery Co., Ltd. | Neural network feature map quantization method and device |
CN112446491B (zh) * | 2021-01-20 | 2024-03-15 | 上海齐感电子信息科技有限公司 | 神经网络模型实时自动量化方法及实时自动量化系统 |
CN116982082A (zh) * | 2021-03-01 | 2023-10-31 | 浙江大学 | 图像编解码方法、编码器、解码器及存储介质 |
CN113128116B (zh) * | 2021-04-20 | 2023-09-26 | 上海科技大学 | 可用于轻量级神经网络的纯整型量化方法 |
WO2022239448A1 (ja) * | 2021-05-10 | 2022-11-17 | コニカミノルタ株式会社 | 量子化プログラム、情報処理装置、及び値域決定方法 |
KR102466016B1 (ko) * | 2021-06-21 | 2022-11-11 | 주식회사 크립토랩 | 동형 암호문을 처리하는 서버 장치 및 그 방법 |
CN114004347A (zh) | 2021-08-30 | 2022-02-01 | 平头哥(上海)半导体技术有限公司 | 用于加速图神经网络属性访问的硬件加速器、系统和方法 |
KR20230066700A (ko) * | 2021-11-08 | 2023-05-16 | 한국전자기술연구원 | 딥러닝 가속장치를 위한 적응적 파라미터 생성 장치 및 방법 |
US20230214639A1 (en) * | 2021-12-31 | 2023-07-06 | Sumant Milind Hanumante | Fixed-point multiplication for network quantization |
CN114677548B (zh) * | 2022-05-26 | 2022-10-14 | 之江实验室 | 基于阻变存储器的神经网络图像分类系统及方法 |
CN116720563B (zh) * | 2022-09-19 | 2024-03-29 | 荣耀终端有限公司 | 一种提升定点神经网络模型精度的方法、装置及电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160328646A1 (en) | 2015-05-08 | 2016-11-10 | Qualcomm Incorporated | Fixed point neural network based on floating point neural network quantization |
JP2017509951A (ja) | 2014-01-23 | 2017-04-06 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | スパースニューラルネットワークを構成すること |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5257215A (en) * | 1992-03-31 | 1993-10-26 | Intel Corporation | Floating point and integer number conversions in a floating point adder |
EP0582885A3 (en) * | 1992-08-05 | 1997-07-02 | Siemens Ag | Procedure to classify field patterns |
DE102006001681B4 (de) * | 2006-01-12 | 2008-07-10 | Wismüller, Axel, Dipl.-Phys. Dr.med. | Verfahren und Vorrichtung zur Darstellung mehrkanaliger Bilddaten |
US20160026912A1 (en) | 2014-07-22 | 2016-01-28 | Intel Corporation | Weight-shifting mechanism for convolutional neural networks |
CN106575379B (zh) * | 2014-09-09 | 2019-07-23 | 英特尔公司 | 用于神经网络的改进的定点整型实现方式 |
US20160328645A1 (en) | 2015-05-08 | 2016-11-10 | Qualcomm Incorporated | Reduced computational complexity for fixed point neural network |
US10262259B2 (en) | 2015-05-08 | 2019-04-16 | Qualcomm Incorporated | Bit width selection for fixed point neural networks |
US10417555B2 (en) * | 2015-05-29 | 2019-09-17 | Samsung Electronics Co., Ltd. | Data-optimized neural network traversal |
US20170076195A1 (en) * | 2015-09-10 | 2017-03-16 | Intel Corporation | Distributed neural networks for scalable real-time analytics |
WO2017062382A1 (en) * | 2015-10-04 | 2017-04-13 | Atomwise Inc. | Systems and methods for applying a convolutional network to spatial data |
US10474627B2 (en) | 2015-10-08 | 2019-11-12 | Via Alliance Semiconductor Co., Ltd. | Neural network unit with neural memory and array of neural processing units that collectively shift row of data received from neural memory |
CN106991477B (zh) * | 2016-01-20 | 2020-08-14 | 中科寒武纪科技股份有限公司 | 一种人工神经网络压缩编码装置和方法 |
KR102565273B1 (ko) * | 2016-01-26 | 2023-08-09 | 삼성전자주식회사 | 뉴럴 네트워크에 기초한 인식 장치 및 뉴럴 네트워크의 학습 방법 |
CN105760933A (zh) | 2016-02-18 | 2016-07-13 | 清华大学 | 卷积神经网络的逐层变精度定点化方法及装置 |
WO2017152990A1 (en) * | 2016-03-11 | 2017-09-14 | Telecom Italia S.P.A. | Convolutional neural networks, particularly for image analysis |
CN106066783A (zh) * | 2016-06-02 | 2016-11-02 | 华为技术有限公司 | 基于幂次权重量化的神经网络前向运算硬件结构 |
CN106709532B (zh) * | 2017-01-25 | 2020-03-10 | 京东方科技集团股份有限公司 | 图像处理方法和装置 |
US10491239B1 (en) * | 2017-02-02 | 2019-11-26 | Habana Labs Ltd. | Large-scale computations using an adaptive numerical format |
US9916531B1 (en) * | 2017-06-22 | 2018-03-13 | Intel Corporation | Accumulator constrained quantization of convolutional neural networks |
-
2017
- 2017-08-04 KR KR1020170098999A patent/KR102601604B1/ko active IP Right Grant
-
2018
- 2018-08-01 CN CN201810868446.4A patent/CN109389219B/zh active Active
- 2018-08-01 US US16/051,788 patent/US11588496B2/en active Active
- 2018-08-01 JP JP2018144829A patent/JP7072464B2/ja active Active
- 2018-08-03 EP EP18187235.9A patent/EP3438890B1/en active Active
-
2022
- 2022-12-20 US US18/084,948 patent/US20230117033A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017509951A (ja) | 2014-01-23 | 2017-04-06 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | スパースニューラルネットワークを構成すること |
US20160328646A1 (en) | 2015-05-08 | 2016-11-10 | Qualcomm Incorporated | Fixed point neural network based on floating point neural network quantization |
Non-Patent Citations (2)
Title |
---|
GYSEL, et al.,Hardware-oriented Approximation of Convolutional Neural Networks,arXiv.org [online],2016年04月11日,[retrieved on 2022-03-28], Retrieved from the Internet: <URL: https://arxiv.org/abs/1604.03168v1> |
TAKEDA, R., et al.,Acoustic model training based on node-wise weight boundary model increasing speed of discrete neural networks,Proceedings of 2015 IEEE Workshop on Automatic Speech Recognition and Understanding (ASRU),2015年12月13日,pp. 52-58,Retrieved from the Internet: <URL: https://ieeexplore.ieee.org/document/7404773> [Retrieved on 2021-09-01],DOI: 10.1109/ASRU.2015.7404773 |
Also Published As
Publication number | Publication date |
---|---|
US11588496B2 (en) | 2023-02-21 |
KR102601604B1 (ko) | 2023-11-13 |
EP3438890B1 (en) | 2024-01-10 |
US20190042948A1 (en) | 2019-02-07 |
EP3438890A1 (en) | 2019-02-06 |
CN109389219B (zh) | 2024-04-09 |
CN109389219A (zh) | 2019-02-26 |
JP2019032833A (ja) | 2019-02-28 |
KR20190014900A (ko) | 2019-02-13 |
US20230117033A1 (en) | 2023-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7072464B2 (ja) | 固定小数点量子化ニューラルネットワークのための方法及び装置 | |
JP7329455B2 (ja) | ニューラルネットワーク量子化のための方法及び装置 | |
KR102589303B1 (ko) | 고정 소수점 타입의 뉴럴 네트워크를 생성하는 방법 및 장치 | |
KR102526650B1 (ko) | 뉴럴 네트워크에서 데이터를 양자화하는 방법 및 장치 | |
KR20190125141A (ko) | 뉴럴 네트워크의 파라미터들을 양자화하는 방법 및 장치 | |
KR20210083935A (ko) | 뉴럴 네트워크의 파라미터들을 양자화하는 방법 및 장치 | |
KR20210072524A (ko) | 뉴럴 네트워크 장치 및 그 동작 방법 | |
JP7329352B2 (ja) | 分類のためのニューラルネットワークにおいて、パラメータを処理する方法及び装置 | |
CN112668381A (zh) | 用于识别图像的方法和设备 | |
JP2020064635A (ja) | ニューラルネットワークのパラメータを量子化する方法及びその装置 | |
CN114358274A (zh) | 训练用于图像识别的神经网络的方法和设备 | |
US20210133570A1 (en) | Neural network method and apparatus | |
KR20210121946A (ko) | 뉴럴 네트워크 양자화를 위한 방법 및 장치 | |
KR20210053791A (ko) | 뉴럴 네트워크의 데이터를 처리하는 방법 및 장치 | |
KR102581471B1 (ko) | 분류를 위한 뉴럴 네트워크에서 파라미터를 처리하는 방법 및 장치 | |
KR102650660B1 (ko) | 뉴로모픽 장치 및 뉴로모픽 장치에서 멀티-비트 뉴로모픽 연산을 처리하는 방법 | |
KR20200094534A (ko) | 뉴럴 네트워크 장치 및 뉴럴 네트워크 장치에서 멀티-비트 연산을 처리하는 방법 | |
KR20200139071A (ko) | 뉴럴 네트워크에서 파라미터를 양자화하는 방법 및 장치 | |
KR20240035013A (ko) | 뉴럴 네트워크의 파라미터 양자화 방법 및 장치 | |
KR20230123309A (ko) | 프루닝 방법 및 장치 | |
CN114254746A (zh) | 执行神经网络的方法和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200805 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210914 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220412 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220510 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7072464 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |