JP6773568B2 - 演算システムおよびニューラルネットワークの演算方法 - Google Patents
演算システムおよびニューラルネットワークの演算方法 Download PDFInfo
- Publication number
- JP6773568B2 JP6773568B2 JP2017006740A JP2017006740A JP6773568B2 JP 6773568 B2 JP6773568 B2 JP 6773568B2 JP 2017006740 A JP2017006740 A JP 2017006740A JP 2017006740 A JP2017006740 A JP 2017006740A JP 6773568 B2 JP6773568 B2 JP 6773568B2
- Authority
- JP
- Japan
- Prior art keywords
- weight parameter
- arithmetic
- data
- memory
- weight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/14—Error detection or correction of the data by redundancy in operation
- G06F11/1479—Generic software techniques for error detection or fault masking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Neurology (AREA)
- Complex Calculations (AREA)
Description
Claims (12)
- 入力データと重みパラメータを用いて演算するニューラルネットワークが、演算回路と内部メモリを内蔵する演算デバイスと、外部メモリに実装される構成において、
前記重みパラメータを、第1重みパラメータと第2重みパラメータに2分割し、
前記第1重みパラメータは、絶対値が所定のしきい値以下である前記重みパラメータのうち、所定の下位桁の集合であり、
前記第2重みパラメータは、前記重みパラメータのうち、前記第1重みパラメータ以外の部分の集合であり、
前記第1重みパラメータを前記演算デバイスの内部メモリに格納し、
前記第2重みパラメータを前記外部メモリに格納する演算システム。 - 前記演算回路は、FPGA(Field−Programmable Gate Array)であり、
前記内部メモリは、SRAM(Static Random Access Memory)であり、
前記外部メモリは、前記SRAMよりソフトエラー耐性に優れるメモリである、
請求項1に記載の演算システム。 - 前記演算回路は、FPGA(Field−Programmable Gate Array)であり、
前記内部メモリは、前記演算回路の設定を行うためのコンフィグレーションデータが格納されるメモリ、および、前記演算回路で実行される演算の途中結果が格納されるメモリの少なくとも1つである、
請求項1に記載の演算システム。 - 前記ニューラルネットワークは、積和演算を行う畳込み層および全結合層の少なくとも1つを含み、
前記重みパラメータは、前記入力データに対して前記積和演算を行うためのデータである、
請求項1に記載の演算システム。 - データを受け付ける入力手段と、
前記データに対して処理を行うニューラルネットワークを構成する演算回路と、
前記演算回路の設定を行うためのコンフィグレーションデータが格納される記憶領域と、
前記処理の結果を出力する出力手段と、を備え、
前記ニューラルネットワークは、内積の計算を含む処理を行う中間層を含み、
前記内積の計算のための重みパラメータの一部分を、前記記憶領域に格納し、
前記記憶領域に格納される前記重みパラメータの一部分は、
パラメータ値の絶対値が所定のしきい値以下である前記重みパラメータのうち、所定の下位ビットの集合である、
演算システム。 - 前記演算回路は、FPGA(Field−Programmable Gate Array)で構成され、
前記記憶領域は、SRAM(Static Random Access Memory)で構成され、
前記演算回路と前記記憶領域は1チップの半導体装置に内蔵される、
請求項5に記載の演算システム。 - 前記1チップの半導体装置は、
前記演算回路で実行される演算の途中結果が格納される一時記憶領域を備え、
前記内積の計算のための重みパラメータの一部分を、さらに、前記一時記憶領域に格納する、
請求項6に記載の演算システム。 - 前記中間層は、畳込み層もしくは全結合層である、
請求項5記載の演算システム。 - 演算回路と内部メモリを内蔵する演算デバイス、外部メモリ、および前記演算デバイスと前記外部メモリを接続するバスで構成される演算システムに、ニューラルネットワークを実装し、
前記ニューラルネットワークによって、入力データと重みパラメータを用いて演算するニューラルネットワークの演算方法であって、
前記重みパラメータの一部である第1重みパラメータを前記内部メモリに格納し、
前記重みパラメータの一部である第2重みパラメータを前記外部メモリに格納し、
前記第1重みパラメータは、絶対値が所定のしきい値以下の前記重みパラメータの少なくとも一部の集合であり、
前記第2重みパラメータは、前記重みパラメータのうち、前記第1重みパラメータ以外の部分の集合であり、
前記演算を行う場合には、前記第1重みパラメータを前記内部メモリから読み出すとともに、前記第2重みパラメータを前記外部メモリから読み出して、前記演算に必要な前記重みパラメータを前記演算デバイスに準備し、演算を行うことを特徴とする、
ニューラルネットワークの演算方法。 - 前記第1重みパラメータは、絶対値が所定のしきい値以下の前記重みパラメータの所定の下位ビット部分の集合である、
請求項9に記載のニューラルネットワークの演算方法。 - 前記外部メモリには、前記第1重みパラメータおよび前記第2重みパラメータの両方を含む重みパラメータ全体を格納し、そのうちの前記第1重みパラメータに相当する部分を、前記内部メモリに転送する、
請求項9記載のニューラルネットワークの演算方法。 - 前記演算回路は、FPGA(Field−Programmable Gate Array)で構成され、
前記内部メモリは、SRAM(Static Random Access Memory)で構成され、
前記外部メモリは、前記SRAMよりソフトエラー耐性に優れる半導体メモリである、
請求項9に記載のニューラルネットワークの演算方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017006740A JP6773568B2 (ja) | 2017-01-18 | 2017-01-18 | 演算システムおよびニューラルネットワークの演算方法 |
EP17206922.1A EP3352113A1 (en) | 2017-01-18 | 2017-12-13 | Calculation system and calculation method of neural network |
US15/846,987 US20180204118A1 (en) | 2017-01-18 | 2017-12-19 | Calculation System and Calculation Method of Neural Network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017006740A JP6773568B2 (ja) | 2017-01-18 | 2017-01-18 | 演算システムおよびニューラルネットワークの演算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018116469A JP2018116469A (ja) | 2018-07-26 |
JP6773568B2 true JP6773568B2 (ja) | 2020-10-21 |
Family
ID=60915166
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017006740A Active JP6773568B2 (ja) | 2017-01-18 | 2017-01-18 | 演算システムおよびニューラルネットワークの演算方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20180204118A1 (ja) |
EP (1) | EP3352113A1 (ja) |
JP (1) | JP6773568B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11436442B2 (en) | 2019-11-21 | 2022-09-06 | Samsung Electronics Co., Ltd. | Electronic apparatus and control method thereof |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7240657B2 (ja) * | 2018-05-15 | 2023-03-16 | Tokyo Artisan Intelligence株式会社 | ニューラルネットワーク回路装置、ニューラルネットワーク、ニューラルネットワーク処理方法およびニューラルネットワークの実行プログラム |
CN109214504B (zh) * | 2018-08-24 | 2020-09-04 | 北京邮电大学深圳研究院 | 一种基于fpga的yolo网络前向推理加速器设计方法 |
WO2020044527A1 (ja) * | 2018-08-31 | 2020-03-05 | 株式会社アラヤ | 情報処理装置 |
WO2020063940A1 (zh) * | 2018-09-29 | 2020-04-02 | 上海寒武纪信息科技有限公司 | 计算装置及相关产品 |
US11443185B2 (en) | 2018-10-11 | 2022-09-13 | Powerchip Semiconductor Manufacturing Corporation | Memory chip capable of performing artificial intelligence operation and method thereof |
CN109754070B (zh) * | 2018-12-28 | 2022-10-21 | 东莞钜威软件科技有限公司 | 基于神经网络的绝缘阻值计算方法及电子设备 |
CN110175670B (zh) * | 2019-04-09 | 2020-12-08 | 华中科技大学 | 一种基于FPGA实现YOLOv2检测网络的方法及系统 |
JP7027371B2 (ja) * | 2019-06-03 | 2022-03-01 | 株式会社東芝 | ニューラルネットワークの演算装置、ニューラルネットワーク、ニューラルネットワークの制御方法 |
JP7391553B2 (ja) * | 2019-06-28 | 2023-12-05 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP7253468B2 (ja) * | 2019-07-26 | 2023-04-06 | 株式会社メガチップス | ニューラルネットワーク用プロセッサ、ニューラルネットワーク用処理方法、および、プログラム |
KR102491202B1 (ko) * | 2019-09-10 | 2023-01-25 | 주식회사 모빌린트 | 인공 신경망 연산을 수행하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
DE102020202632A1 (de) | 2020-03-02 | 2021-09-02 | Robert Bosch Gesellschaft mit beschränkter Haftung | Inferenzberechnung für neuronale Netzwerke mit Schutz gegen Speicherfehler |
JP2022142201A (ja) * | 2021-03-16 | 2022-09-30 | Necプラットフォームズ株式会社 | 情報処理装置、情報処理システム、情報処理方法およびプログラム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5772442B2 (ja) | 2011-09-22 | 2015-09-02 | 富士ゼロックス株式会社 | 画像処理装置及び画像処理プログラム |
-
2017
- 2017-01-18 JP JP2017006740A patent/JP6773568B2/ja active Active
- 2017-12-13 EP EP17206922.1A patent/EP3352113A1/en not_active Withdrawn
- 2017-12-19 US US15/846,987 patent/US20180204118A1/en not_active Abandoned
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11436442B2 (en) | 2019-11-21 | 2022-09-06 | Samsung Electronics Co., Ltd. | Electronic apparatus and control method thereof |
Also Published As
Publication number | Publication date |
---|---|
JP2018116469A (ja) | 2018-07-26 |
US20180204118A1 (en) | 2018-07-19 |
EP3352113A1 (en) | 2018-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6773568B2 (ja) | 演算システムおよびニューラルネットワークの演算方法 | |
US11868426B2 (en) | Hardware implementation of convolutional layer of deep neural network | |
JP6823495B2 (ja) | 情報処理装置および画像認識装置 | |
US20190087713A1 (en) | Compression of sparse deep convolutional network weights | |
US20190042251A1 (en) | Compute-in-memory systems and methods | |
JP2020521195A (ja) | ニューラルネットワーク処理のスケジューリング | |
WO2019046835A1 (en) | COMPUTER ACCELERATOR OF ARTIFICIAL INTELLIGENCE NEUROMORPHIC TO ULTRA-LOW CONSUMPTION | |
KR20190104406A (ko) | 처리방법 및 장치 | |
US11593002B2 (en) | Artificial neural networks in memory | |
Miyashita et al. | Time-domain neural network: A 48.5 TSOp/s/W neuromorphic chip optimized for deep learning and CMOS technology | |
Ryu et al. | Bitblade: Energy-efficient variable bit-precision hardware accelerator for quantized neural networks | |
CN108804973B (zh) | 基于深度学习的目标检测算法的硬件架构及其执行方法 | |
Dutta et al. | Hdnn-pim: Efficient in memory design of hyperdimensional computing with feature extraction | |
GB2602524A (en) | Neural network comprising matrix multiplication | |
CN113065632A (zh) | 验证用于图像识别的神经网络的训练的方法和设备 | |
Geng et al. | CQNN: a CGRA-based QNN framework | |
CN115204355A (zh) | 能够重新使用数据的神经处理单元及其方法 | |
Ouyang et al. | A fast and power-efficient hardware architecture for visual feature detection in affine-sift | |
WO2022031446A1 (en) | Optimized sensor fusion in deep learning accelerator with integrated random access memory | |
US11966344B2 (en) | Accelerator and electronic device including the same | |
Liu et al. | Era-bs: Boosting the efficiency of reram-based pim accelerator with fine-grained bit-level sparsity | |
US10997497B2 (en) | Calculation device for and calculation method of performing convolution | |
Han et al. | A high-throughput scalable BNN accelerator with fully pipelined architecture | |
Yang et al. | Value-driven synthesis for neural network ASICs | |
US20230237368A1 (en) | Binary machine learning network with operations quantized to one bit |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190620 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200529 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200825 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200908 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201001 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6773568 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |