JP6977864B2 - 推論装置、畳み込み演算実行方法及びプログラム - Google Patents
推論装置、畳み込み演算実行方法及びプログラム Download PDFInfo
- Publication number
- JP6977864B2 JP6977864B2 JP2020503604A JP2020503604A JP6977864B2 JP 6977864 B2 JP6977864 B2 JP 6977864B2 JP 2020503604 A JP2020503604 A JP 2020503604A JP 2020503604 A JP2020503604 A JP 2020503604A JP 6977864 B2 JP6977864 B2 JP 6977864B2
- Authority
- JP
- Japan
- Prior art keywords
- input data
- layer
- unit
- convolution
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 99
- 238000004364 calculation method Methods 0.000 claims description 120
- 238000013139 quantization Methods 0.000 claims description 94
- 238000006243 chemical reaction Methods 0.000 claims description 85
- 230000008569 process Effects 0.000 claims description 75
- 238000013527 convolutional neural network Methods 0.000 claims description 25
- 238000013500 data storage Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 description 58
- 238000001994 activation Methods 0.000 description 27
- 230000004913 activation Effects 0.000 description 26
- 238000011176 pooling Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 12
- 238000007667 floating Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000002427 irreversible effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Algebra (AREA)
- Neurology (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Databases & Information Systems (AREA)
- Complex Calculations (AREA)
- Image Analysis (AREA)
Description
本発明は、日本国特許出願:特願2018−038029号(2018年03月02日出願)の優先権主張に基づくものであり、同出願の全記載内容は引用をもって本書に組み込み記載されているものとする。
本発明は、推論装置、畳み込み演算実行方法及びプログラムに関する。
なお、このプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。
第1の実施形態について、図面を用いてより詳細に説明する。
畳み込み演算部43は、対数量子化された入力データと重みの畳み込み演算を実行する。なお、各層における活性化関数やプーリング処理が適用されたとしても、次段の層に入力される入力データは対数量子化された状態を維持する。例えば、活性化関数としてReLUを用いれば、負の値は「0」に変換され、正の値(冪指数)はそのまま出力される。また、プーリング層による動作(プーリング前後)により変化するパラメータは入力データのサイズW、Hである。つまり、プーリング層による動作では、対数量子化された入力データの値それ自体が変化することはない。従って、活性化関数やプーリング処理が実行されても入力データの対数量子化は維持される。
図6に説明を戻す。入力データ処理部42は、入力データ記憶部52から取得したデータが1層目で使用されるものである場合には、当該取得した入力データに所定の変換処理を施し、変換後の入力データを畳み込み演算部43に供給する。一方、入力データ処理部42は、入力データ記憶部52から取得したデータ(アクティベーション)が2層目以降で使用されるものである場合には、特段の処理を行わず、取得したデータを畳み込み演算部43に供給する。
[式2]
[式3]
をチャネル数3×Lと捉えれば、式(7)と式(3)は同等となる。このように、入力データ変換部402による変換された入力データ(各要素が冪指数であるサブチャネル)を用いた畳み込み演算結果とデータ変換前の畳み込み演算の結果は同じとなる。
図6に説明を戻す。重み処理部41は、重み記憶部51から取得した重み(重み群)が1層目で使用するものである場合には、当該取得した重みを所定の数複製し、畳み込み演算部43に供給する。一方、重み処理部41は、重み記憶部51から取得した重みが2層目以降で使用されるものである場合には、特段の処理を行わず、取得した重みを畳み込み演算部43に供給する。
続いて、第2の実施形態について図面を参照して詳細に説明する。
はkに依存する変数b’1 kと置き替えることができる。さらに、式(13)において、第2項、第3項の−b’1 k+b1 kをbnew1 kと置き替えれば、置換後の式(13)により示される畳み込み演算(事前減算を行う畳み込み演算)は、式(9)と同等と捉えることができる。
第1の実施形態にて説明した推論装置10は例示であって、その構成及び動作を限定する趣旨ではない。以下、各種変形例について説明する。
が(x、y)座標によらない値であることを前提としている。しかし、厳密に言えば、画像端の位置における畳み込み演算では画面外画素を補填(パディング)する処理が行われ、上記前提が成立しないことがある。しかし、換言すれば、上記前提が成り立たないのは画像端という特殊な状況だけであり、畳み込み演算には大きな影響を与えるものではない。
[形態1]
上述の第1の視点に係る推論装置のとおりである。
[形態2]
前記入力データ変換部は、
変換前後の入力データが等価であることを担保しつつ、前記1層目の入力データを変換する、好ましくは形態1の推論装置。
[形態3]
前記入力データ変換部は、
前記1層目の入力データに含まれる一のチャネルを、前記1層目の入力データをなす要素のビット数と同数のサブチャネルに拡張する、好ましくは形態2の推論装置。
[形態4]
前記入力データ変換部は、
前記1層目の入力データに含まれる一のチャネルの各要素について、要素値を2進数で表現した場合に、値が1の桁を前記値が1の桁の位置を示す値に変換し、値が0の桁を変換後のデータが真にゼロを示す値に変換してデータ列を生成し、
前記データ列をなす各要素を前記サブチャネルの各要素に割り当てる、好ましくは形態3の推論装置。
[形態5]
前記入力データ変換部は、
前記1層目の入力データに含まれる一のチャネルの各要素の位置に対応する、前記サブチャネルの要素の位置に前記データ列をなす各要素を割り当てる、好ましくは形態4の推論装置。
[形態6]
前記入力データを記憶する、入力データ記憶部と、
前記入力データ記憶部にアクセスし、前記入力データを取得する入力データ取得部と、をさらに備え、
前記入力データ取得部は、
前記取得した入力データが1層目の畳み込み演算で使用される場合には、前記取得した入力データを前記入力データ変換部に供給し、
前記取得した入力データが2層目以降の畳み込み演算で使用される場合には、前記取得した入力データを前記畳み込み演算部に供給する、好ましくは形態1乃至5のいずれか一に記載の推論装置。
[形態7]
前記1層目の入力データに含まれる一のチャネルに対応する重みの数が、前記拡張されたサブチャネルの数と同数となるように前記1層目の入力データに含まれる一のチャネルに対応する重みを複製する、重み複製部をさらに備える、好ましくは形態3乃至5のいずれか一に記載の推論装置。
[形態8]
前記重みを記憶する、重み記憶部と、
前記重み記憶部にアクセスし、前記重みを取得する重み取得部と、をさらに備え、
前記重み取得部は、
前記取得した重みが1層目の畳み込み演算で使用される場合には、前記取得した重みを前記重み複製部に供給し、
前記取得した重みが2層目以降の畳み込み演算で使用される場合には、前記取得した重みを前記畳み込み演算部に供給する、好ましくは形態7の推論装置。
[形態9]
前記畳み込み演算部は、
畳み込み演算にて実行する乗算処理を、取得した入力データをなす各要素の要素値に応じたシフト演算により実現する、好ましくは形態1乃至8のいずれか一に記載の推論装置。
[形態10]
前記畳み込み演算部は、
前記入力データをなすチャネルごとに設けられ、前記チャネルの各要素と前記チャネルの各要素に対応する重みに関する前記シフト演算を実行し、前記シフト演算の結果を加算する、複数のシフト演算&加算器と、
前記複数のシフト演算&加算器の演算結果を加算する、加算器と、
を含んで構成される、好ましくは形態9の推論装置。
[形態11]
前記量子化部は、畳み込み演算の結果を2の冪乗に丸め込み、量子化対象のデータを、底を2とした場合の冪指数又は量子化後のデータが真にゼロであるかを示す値に変換する、好ましくは形態1乃至10のいずれか一に記載の推論装置。
[形態12]
前記1層目の入力データに対応するバイアスを、前記1層目の入力データと前記1層目の入力データに対応する重みを用いて変換し、前記変換されたバイアスを前記1層目の畳み込み演算の結果に加算する、バイアス変更部をさらに備える、好ましくは形態1乃至11のいずれか一に記載の推論装置。
[形態13]
上述の第2の視点に係る畳み込み演算実行方法のとおりである。
[形態14]
上述の第3の視点に係るプログラムのとおりである。
なお、形態13及び形態14は、形態1と同様に、形態2〜12のように展開することが可能である。
11 入力層実行部
12 中間層実行部
13 出力層実行部
31、31a 畳み込み層実行部
32 活性化関数実行部
33 プーリング層実行部
40 畳み込み層制御部
41 重み処理部
42 入力データ処理部
43、102 畳み込み演算部
44、101 量子化部
45 バイアス変更部
51 重み記憶部
52 入力データ記憶部
53 演算結果記憶部
91 CPU(Central Processing Unit)
92 メモリ
93 入出力インターフェイス
94 NIC(Network Interface Card)
103、402 入力データ変換部
201 畳み込み演算制御部
202 重み入出力部
203 入力データ入出力部
204 乗加算部
211 重み一次記憶部
212 入力データ一次記憶部
213 演算結果一次記憶部
301、301−1〜301−N シフト演算&加算器
302、312 加算器
311 シフト演算器
313 レジスタ
401 入力データ取得部
411 重み取得部
412 重み複製部
501、502 重み
511、512 重み群
601、611 入力データ
Claims (8)
- 入力データと重みを用いた畳み込みニューラルネットワークにおける畳み込み演算の結果を対数量子化する、量子化部と、
前記対数量子化された演算結果を入力データとして用いて畳み込み演算を実行する、畳み込み演算部と、
1層目の入力データに含まれる一のチャネルの各要素について、要素値を2進数で表現した場合に、値が1の桁を前記値が1の桁の位置を示す値に変換し、値が0の桁を変換後のデータが真にゼロを示す値に変換してデータ列を生成し、前記データ列をなす各要素をサブチャネルの各要素に割り当てることで、前記1層目の入力データに含まれる一のチャネルを、前記1層目の入力データをなす要素のビット数と同数の前記サブチャネルに拡張し、前記畳み込み演算部が前記1層目の入力データと前記量子化部により対数量子化された入力データを同様に処理できるように、前記1層目の入力データを変換する、入力データ変換部と、
を備える、推論装置。 - 前記入力データ変換部は、
変換前後の入力データが等価であることを担保しつつ、前記1層目の入力データを変換する、請求項1の推論装置。 - 前記入力データ変換部は、
前記1層目の入力データに含まれる一のチャネルの各要素の位置に対応する、前記サブチャネルの要素の位置に前記データ列をなす各要素を割り当てる、請求項1の推論装置。 - 前記入力データを記憶する、入力データ記憶部と、
前記入力データ記憶部にアクセスし、前記入力データを取得する入力データ取得部と、をさらに備え、
前記入力データ取得部は、
前記取得した入力データが1層目の畳み込み演算で使用される場合には、前記取得した入力データを前記入力データ変換部に供給し、
前記取得した入力データが2層目以降の畳み込み演算で使用される場合には、前記取得した入力データを前記畳み込み演算部に供給する、請求項1乃至3のいずれか一項に記載の推論装置。 - 前記1層目の入力データに含まれる一のチャネルに対応する重みの数が、前記拡張されたサブチャネルの数と同数となるように前記1層目の入力データに含まれる一のチャネルに対応する重みを複製する、重み複製部をさらに備える、請求項1乃至3のいずれか一項に記載の推論装置。
- 前記1層目の入力データに対応するバイアスを、前記1層目の入力データと前記1層目の入力データに対応する重みを用いて変換し、前記変換されたバイアスを前記1層目の畳み込み演算の結果に加算する、バイアス変更部をさらに備える、請求項1乃至5のいずれか一項に記載の推論装置。
- 入力データと重みを用いた畳み込みニューラルネットワークにおける畳み込み演算の結果を対数量子化する、量子化部と、
前記対数量子化された演算結果を入力データとして用いて畳み込み演算を実行する、畳み込み演算部と、
を備える推論装置において、
前記入力データを取得するステップと、
前記取得した入力データが1層目の畳み込み演算で使用される場合には、前記1層目の入力データに含まれる一のチャネルの各要素について、要素値を2進数で表現した場合に、値が1の桁を前記値が1の桁の位置を示す値に変換し、値が0の桁を変換後のデータが真にゼロを示す値に変換してデータ列を生成し、前記データ列をなす各要素をサブチャネルの各要素に割り当てることで、前記1層目の入力データに含まれる一のチャネルを、前記1層目の入力データをなす要素のビット数と同数の前記サブチャネルに拡張し、前記畳み込み演算部が前記1層目の入力データと前記量子化部により対数量子化された入力データを同様に処理できるように、前記1層目の入力データを変換する、ステップと、
を含む、畳み込み演算実行方法。 - 入力データと重みを用いた畳み込みニューラルネットワークにおける畳み込み演算の結果を対数量子化する、量子化部と、
前記対数量子化された演算結果を入力データとして用いて畳み込み演算を実行する、畳み込み演算部と、
を備える推論装置に搭載されたコンピュータに、
前記入力データを取得する処理と、
前記取得した入力データが1層目の畳み込み演算で使用される場合には、前記1層目の入力データに含まれる一のチャネルの各要素について、要素値を2進数で表現した場合に、値が1の桁を前記値が1の桁の位置を示す値に変換し、値が0の桁を変換後のデータが真にゼロを示す値に変換してデータ列を生成し、前記データ列をなす各要素をサブチャネルの各要素に割り当てることで、前記1層目の入力データに含まれる一のチャネルを、前記1層目の入力データをなす要素のビット数と同数の前記サブチャネルに拡張し、前記畳み込み演算部が前記1層目の入力データと前記量子化部により対数量子化された入力データを同様に処理できるように、前記1層目の入力データを変換する、処理と、
を実行させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018038029 | 2018-03-02 | ||
JP2018038029 | 2018-03-02 | ||
PCT/JP2019/007756 WO2019168084A1 (ja) | 2018-03-02 | 2019-02-28 | 推論装置、畳み込み演算実行方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019168084A1 JPWO2019168084A1 (ja) | 2021-03-04 |
JP6977864B2 true JP6977864B2 (ja) | 2021-12-08 |
Family
ID=67806335
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020503604A Active JP6977864B2 (ja) | 2018-03-02 | 2019-02-28 | 推論装置、畳み込み演算実行方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11989639B2 (ja) |
JP (1) | JP6977864B2 (ja) |
WO (1) | WO2019168084A1 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6805984B2 (ja) * | 2017-07-06 | 2020-12-23 | 株式会社デンソー | 畳み込みニューラルネットワーク |
US11568227B1 (en) | 2018-04-20 | 2023-01-31 | Perceive Corporation | Neural network inference circuit read controller with multiple operational modes |
US11586910B1 (en) | 2018-04-20 | 2023-02-21 | Perceive Corporation | Write cache for neural network inference circuit |
US11170289B1 (en) | 2018-04-20 | 2021-11-09 | Perceive Corporation | Computation of neural network node by neural network inference circuit |
US11531868B1 (en) | 2018-04-20 | 2022-12-20 | Perceive Corporation | Input value cache for temporarily storing input values |
US10977338B1 (en) | 2018-04-20 | 2021-04-13 | Perceive Corporation | Reduced-area circuit for dot product computation |
US12093696B1 (en) | 2018-04-20 | 2024-09-17 | Perceive Corporation | Bus for transporting output values of a neural network layer to cores specified by configuration data |
JP7137067B2 (ja) * | 2018-10-25 | 2022-09-14 | 富士通株式会社 | 演算処理装置、学習プログラム及び学習方法 |
US11995533B1 (en) * | 2018-12-05 | 2024-05-28 | Perceive Corporation | Executing replicated neural network layers on inference circuit |
US11347297B1 (en) | 2019-01-23 | 2022-05-31 | Perceive Corporation | Neural network inference circuit employing dynamic memory sleep |
US20200293865A1 (en) * | 2019-03-14 | 2020-09-17 | Gyrfalcon Technology Inc. | Using identity layer in a cellular neural network architecture |
US11615322B1 (en) | 2019-05-21 | 2023-03-28 | Perceive Corporation | Compiler for implementing memory shutdown for neural network implementation configuration |
CN113468935B (zh) * | 2020-05-08 | 2024-04-02 | 上海齐感电子信息科技有限公司 | 人脸识别方法 |
CN111814957B (zh) * | 2020-06-28 | 2024-04-02 | 深圳云天励飞技术股份有限公司 | 神经网络运算方法及相关设备 |
CN113128116B (zh) * | 2021-04-20 | 2023-09-26 | 上海科技大学 | 可用于轻量级神经网络的纯整型量化方法 |
JP2024519267A (ja) * | 2021-05-07 | 2024-05-10 | グーグル エルエルシー | 機械学習ワークロードの非同期分散データフロー |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5473730A (en) | 1993-11-09 | 1995-12-05 | At&T Ipm Corp. | High efficiency learning network |
US6038337A (en) | 1996-03-29 | 2000-03-14 | Nec Research Institute, Inc. | Method and apparatus for object recognition |
JP6348431B2 (ja) | 2015-02-24 | 2018-06-27 | 株式会社日立製作所 | 画像処理方法、画像処理装置 |
US10831444B2 (en) * | 2016-04-04 | 2020-11-10 | Technion Research & Development Foundation Limited | Quantized neural network training and inference |
JP2017211735A (ja) | 2016-05-24 | 2017-11-30 | ソニー株式会社 | 演算処理装置、及び、演算処理方法 |
JP6183980B1 (ja) | 2016-12-02 | 2017-08-23 | 国立大学法人東京工業大学 | ニューラルネットワーク回路装置、ニューラルネットワーク、ニューラルネットワーク処理方法およびニューラルネットワークの実行プログラム |
US10542249B2 (en) * | 2016-12-29 | 2020-01-21 | Zhejiang Gongshang University | Stereoscopic video generation method based on 3D convolution neural network |
JP7029321B2 (ja) * | 2017-04-20 | 2022-03-03 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 情報処理方法、情報処理装置およびプログラム |
US11556772B2 (en) * | 2017-04-28 | 2023-01-17 | Intel Corporation | Incremental precision networks using residual inference and fine-grain quantization |
KR102601604B1 (ko) * | 2017-08-04 | 2023-11-13 | 삼성전자주식회사 | 뉴럴 네트워크의 파라미터들을 양자화하는 방법 및 장치 |
KR102683757B1 (ko) * | 2018-02-20 | 2024-07-10 | 삼성전자주식회사 | 심층 신경망의 학습을 수행시키는 방법 및 그에 대한 장치 |
-
2019
- 2019-02-28 JP JP2020503604A patent/JP6977864B2/ja active Active
- 2019-02-28 US US16/977,349 patent/US11989639B2/en active Active
- 2019-02-28 WO PCT/JP2019/007756 patent/WO2019168084A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JPWO2019168084A1 (ja) | 2021-03-04 |
US11989639B2 (en) | 2024-05-21 |
WO2019168084A1 (ja) | 2019-09-06 |
US20210110236A1 (en) | 2021-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6977864B2 (ja) | 推論装置、畳み込み演算実行方法及びプログラム | |
KR102672004B1 (ko) | 저 정밀도 뉴럴 네트워크 학습을 위한 방법 및 장치 | |
CN108337000B (zh) | 用于转换到较低精度数据格式的自动方法 | |
CN107340993B (zh) | 运算装置和方法 | |
KR102562320B1 (ko) | 비트 연산 기반의 뉴럴 네트워크 처리 방법 및 장치 | |
US20170372202A1 (en) | Tensor processing using low precision format | |
JP7325158B2 (ja) | ニューラル・ネットワーク・コアにおける動的精度のためのデータ表現 | |
WO2019238029A1 (zh) | 卷积神经网络系统和卷积神经网络量化的方法 | |
CN110008952B (zh) | 一种目标识别方法及设备 | |
CN107729997A (zh) | 零系数跳过卷积神经网络引擎 | |
US10579334B2 (en) | Block floating point computations using shared exponents | |
JP7414930B2 (ja) | 情報処理装置、情報処理方法 | |
KR102655950B1 (ko) | 뉴럴 네트워크의 고속 처리 방법 및 그 방법을 이용한 장치 | |
CN113396427A (zh) | 用于人工神经网络的比特量化的方法和系统 | |
Chervyakov et al. | Residue number system-based solution for reducing the hardware cost of a convolutional neural network | |
US11907834B2 (en) | Method for establishing data-recognition model | |
US11900577B2 (en) | Processing apparatus for performing processing using a convolutional neural network | |
JP7060079B2 (ja) | 推論装置、畳み込み演算実行方法及びプログラム | |
JP2020166674A (ja) | 情報処理装置、情報処理方法、情報処理プログラム | |
US20220405576A1 (en) | Multi-layer neural network system and method | |
EP3893165A1 (en) | Information processing apparatus and information processing method | |
CN113313253A (zh) | 神经网络压缩方法、数据处理方法、装置及计算机设备 | |
CN109416757B (zh) | 用于处理数值数据的方法、设备和计算机可读存储介质 | |
EP4318315A1 (en) | A computer implemented method for transforming a pre-trained neural network and a device therefor | |
US12093696B1 (en) | Bus for transporting output values of a neural network layer to cores specified by configuration data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200901 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200901 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210720 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210916 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211012 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211025 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6977864 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |