JP2020009048A - ニューラルネットワークの学習装置および学習方法 - Google Patents
ニューラルネットワークの学習装置および学習方法 Download PDFInfo
- Publication number
- JP2020009048A JP2020009048A JP2018128241A JP2018128241A JP2020009048A JP 2020009048 A JP2020009048 A JP 2020009048A JP 2018128241 A JP2018128241 A JP 2018128241A JP 2018128241 A JP2018128241 A JP 2018128241A JP 2020009048 A JP2020009048 A JP 2020009048A
- Authority
- JP
- Japan
- Prior art keywords
- quantization
- learning
- neural network
- network model
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/002—Image coding using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/008—Vector quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/94—Vector quantisation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Neurology (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
y = w*x
y:出力特徴マップ
(次の層の入力特徴マップとなる。最終層目の場合はニューラルネットワークからの出力。)
w:重み係数
*:畳み込演算
x:入力特徴マップ
(前の層の出力特徴マップである。1層目の場合はニューラルネットワークへの入力。)
である。よって、再学習により重み係数が変化すると、出力特徴マップ(すなわち次の層の入力特徴マップ)も変化する。
Claims (15)
- 低ビット化部と、学習部と、メモリを具備し、
前記低ビット化部は、ニューラルネットワークモデルの演算対象となる数値に対して、第1の量子化領域を適用した第1の量子化を実行し、
前記学習部は、前記第1の量子化が実行されたニューラルネットワークモデルに対し、学習を実行し、
前記低ビット化部は、前記学習部において学習が実行されたニューラルネットワークモデルの演算対象となる数値に対して、第2の量子化領域を適用した第2の量子化を実行し、
前記メモリは、前記第2の量子化が実行されたニューラルネットワークモデルを格納する、
ニューラルネットワークの学習装置。 - 前記第1の量子化領域と前記第2の量子化領域は、範囲が異なる、
請求項1記載のニューラルネットワークの学習装置。 - 前記低ビット化部は、第1の制御回路を備え、
前記第1の制御回路は、前記学習により前記演算対象となる数値の分布に変化が生じた場合に、前記第2の量子化を実行させる、
請求項1記載のニューラルネットワークの学習装置。 - 前記低ビット化部は、第1の制御回路を備え、
前記第1の制御回路は、前記学習により前記演算対象となる数値が前記第1の量子化領域からオーバーフローした場合に、前記第2の量子化を実行させる、
請求項1記載のニューラルネットワークの学習装置。 - 前記低ビット化部は、サンプリング領域再設定回路と量子化回路を備え、
前記サンプリング領域再設定回路は、前記第2の量子化で、前記演算対象となる数値の最小値と最大値の間で、前記第2の量子化領域を設定し、
前記量子化回路は、前記演算対象となる数値を前記第2の量子化領域で等間隔に標本化する、
請求項1記載のニューラルネットワークの学習装置。 - はずれ値除外部をさらに備え、
前記はずれ値除外部は、前記演算対象となる数値の所定範囲外の値を除外し、
前記低ビット化部は、サンプリング領域再設定回路と量子化回路を備え、
前記サンプリング領域再設定回路は、前記第2の量子化で、前記演算対象となる数値の前記所定範囲内における最小値と最大値の間で、前記第2の量子化領域を設定し、
前記量子化回路は、演算対象となる数値を前記第2の量子化領域で等間隔に標本化する、
請求項1記載のニューラルネットワークの学習装置。 - 前記ニューラルネットワークモデルの演算対象となる数値は、
ニューラルネットワークの重み係数および特徴マップの少なくとも一つである、
請求項1記載のニューラルネットワークの学習装置。 - 低ビット化部と、学習部と、メモリを具備する情報処理装置により、ニューラルネットワークの重み係数を学習するニューラルネットワークの学習方法であって、
前記低ビット化部が、入力された任意のニューラルネットワークモデルの重み係数に対して、第1の量子化領域を適用した第1の量子化を実行する第1のステップ、
前記学習部が、前記第1の量子化が実行されたニューラルネットワークモデルに対し、学習を実行する第2のステップ、
前記低ビット化部が、前記学習部において学習が実行されたニューラルネットワークモデルの重み係数に対して、第2の量子化領域を適用した第2の量子化を実行する第3のステップ、
前記メモリが、前記第2の量子化が実行されたニューラルネットワークモデルを格納する第4のステップ、を備える
ニューラルネットワークの学習方法。 - 前記第1の量子化領域と前記第2の量子化領域は、範囲が異なる、
請求項8記載のニューラルネットワークの学習方法。 - 前記第3のステップにおいて、
前記学習により重み係数の分布に変化が生じた場合に、前記第2の量子化を実行させる、
請求項8記載のニューラルネットワークの学習方法。 - 前記第3のステップにおいて、
前記学習により重み係数が前記第1の量子化領域からオーバーフローした場合に、前記第2の量子化を実行させる、
請求項8記載のニューラルネットワークの学習方法。 - 前記第3のステップにおいて、
前記第2の量子化では、前記ニューラルネットワークモデルの重み係数の最小値と最大値の間で、前記第2の量子化領域を設定し、前記重み係数を前記第2の量子化領域で等間隔に標本化する、
請求項8記載のニューラルネットワークの学習方法。 - 前記第3のステップにおいて、
前記ニューラルネットワークモデルの重み係数の所定範囲外の値を除外し、
前記第2の量子化では、前記ニューラルネットワークモデルの重み係数の前記所定範囲内における最小値と最大値の間で、前記第2の量子化領域を設定し、前記重み係数を前記第2の量子化領域で等間隔に標本化する、
請求項8記載のニューラルネットワークの学習方法。 - 前記第4のステップにおいて、
前記第2の量子化が実行されたニューラルネットワークモデルの学習損失が任意閾値以上かどうかを判定し、
学習損失が任意閾値以下の場合は、前記第2の量子化が実行されたニューラルネットワークモデルを前記メモリに格納して、処理を終了し、
学習損失が任意閾値以上の場合は、前記第2の量子化が実行されたニューラルネットワークモデルに対し、前記学習部による再学習を実行する、
請求項8記載のニューラルネットワークの学習方法。 - 前記メモリに格納されたニューラルネットワークモデルを用いて、半導体装置にニューラルネットワークを構成する、
請求項14記載のニューラルネットワークの学習方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018128241A JP7045947B2 (ja) | 2018-07-05 | 2018-07-05 | ニューラルネットワークの学習装置および学習方法 |
US16/460,382 US20200012926A1 (en) | 2018-07-05 | 2019-07-02 | Neural network learning device and neural network learning method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018128241A JP7045947B2 (ja) | 2018-07-05 | 2018-07-05 | ニューラルネットワークの学習装置および学習方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020009048A true JP2020009048A (ja) | 2020-01-16 |
JP7045947B2 JP7045947B2 (ja) | 2022-04-01 |
Family
ID=69102207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018128241A Active JP7045947B2 (ja) | 2018-07-05 | 2018-07-05 | ニューラルネットワークの学習装置および学習方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20200012926A1 (ja) |
JP (1) | JP7045947B2 (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210094751A (ko) * | 2020-01-22 | 2021-07-30 | 고려대학교 세종산학협력단 | Yolo 기반 경량 경계 상자 검출과 영상 처리를 통한 정확한 동물 탐지 방법 및 장치 |
JP2021135314A (ja) * | 2020-02-21 | 2021-09-13 | 日本電信電話株式会社 | 学習装置、音声認識装置、学習方法、および、学習プログラム |
WO2021230470A1 (ko) * | 2020-05-15 | 2021-11-18 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
EP4009244A1 (en) | 2020-12-02 | 2022-06-08 | Fujitsu Limited | Quantization program, quantization method, and quantization apparatus |
WO2022201352A1 (ja) * | 2021-03-24 | 2022-09-29 | 三菱電機株式会社 | 推論装置、推論方法、及び、推論プログラム |
EP4141745A1 (en) | 2021-08-25 | 2023-03-01 | Fujitsu Limited | Threshold determination program, threshold determination method, and information processing apparatus |
WO2023128024A1 (ko) * | 2021-12-30 | 2023-07-06 | 한국전자기술연구원 | 딥러닝 네트워크 양자화 처리 방법 및 시스템 |
US11734577B2 (en) | 2019-06-05 | 2023-08-22 | Samsung Electronics Co., Ltd | Electronic apparatus and method of performing operations thereof |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019106529A1 (de) | 2019-03-14 | 2020-09-17 | Infineon Technologies Ag | Fmcw radar mit störsignalunterdrückung mittels künstlichem neuronalen netz |
US11907829B2 (en) * | 2019-03-14 | 2024-02-20 | Infineon Technologies Ag | FMCW radar with interference signal suppression using artificial neural network |
CN113112008B (zh) * | 2020-01-13 | 2024-05-10 | 中科寒武纪科技股份有限公司 | 用于神经网络数据量化的方法、装置和计算机可读存储介质 |
CN113408715B (zh) * | 2020-03-17 | 2024-05-28 | 杭州海康威视数字技术股份有限公司 | 一种神经网络的定点化方法、装置 |
CN115280335A (zh) * | 2020-03-24 | 2022-11-01 | Oppo广东移动通信有限公司 | 一种机器学习模型训练方法、电子设备及存储介质 |
CN113762500B (zh) * | 2020-06-04 | 2024-04-02 | 合肥君正科技有限公司 | 一种卷积神经网络在量化时提高模型精度的训练方法 |
WO2022027242A1 (zh) * | 2020-08-04 | 2022-02-10 | 深圳市大疆创新科技有限公司 | 神经网络的数据处理方法、装置、可移动平台及计算机可读存储介质 |
CN111983569B (zh) * | 2020-08-17 | 2024-01-19 | 西安电子科技大学 | 基于神经网络的雷达干扰抑制方法 |
CN112149797B (zh) * | 2020-08-18 | 2023-01-03 | Oppo(重庆)智能科技有限公司 | 神经网络结构优化方法和装置、电子设备 |
US11716469B2 (en) | 2020-12-10 | 2023-08-01 | Lemon Inc. | Model selection in neural network-based in-loop filter for video coding |
CN112801281A (zh) * | 2021-03-22 | 2021-05-14 | 东南大学 | 基于量子化生成模型和神经网络的对抗生成网络构建方法 |
CN113255901B (zh) * | 2021-07-06 | 2021-10-08 | 上海齐感电子信息科技有限公司 | 实时量化方法及实时量化系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07302292A (ja) * | 1994-05-09 | 1995-11-14 | Nippon Telegr & Teleph Corp <Ntt> | ニューラルネットワーク回路の制御装置 |
US5845051A (en) * | 1995-09-15 | 1998-12-01 | Electronics And Telecommunications Research Institute | Learning method for multilayer perceptron neural network with N-bit data representation |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10417525B2 (en) * | 2014-09-22 | 2019-09-17 | Samsung Electronics Co., Ltd. | Object recognition with reduced neural network weight precision |
KR102526650B1 (ko) * | 2017-05-25 | 2023-04-27 | 삼성전자주식회사 | 뉴럴 네트워크에서 데이터를 양자화하는 방법 및 장치 |
US20190050710A1 (en) * | 2017-08-14 | 2019-02-14 | Midea Group Co., Ltd. | Adaptive bit-width reduction for neural networks |
US20200380357A1 (en) * | 2017-09-13 | 2020-12-03 | Intel Corporation | Incremental network quantization |
JP6540770B2 (ja) * | 2017-10-17 | 2019-07-10 | 富士通株式会社 | 演算処理回路、演算処理回路を含む演算処理装置、演算処理装置を含む情報処理装置、および方法 |
CN110533175A (zh) * | 2018-05-23 | 2019-12-03 | 富士通株式会社 | 深度学习加速的方法和设备及深度神经网络 |
-
2018
- 2018-07-05 JP JP2018128241A patent/JP7045947B2/ja active Active
-
2019
- 2019-07-02 US US16/460,382 patent/US20200012926A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07302292A (ja) * | 1994-05-09 | 1995-11-14 | Nippon Telegr & Teleph Corp <Ntt> | ニューラルネットワーク回路の制御装置 |
US5845051A (en) * | 1995-09-15 | 1998-12-01 | Electronics And Telecommunications Research Institute | Learning method for multilayer perceptron neural network with N-bit data representation |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11734577B2 (en) | 2019-06-05 | 2023-08-22 | Samsung Electronics Co., Ltd | Electronic apparatus and method of performing operations thereof |
KR20210094751A (ko) * | 2020-01-22 | 2021-07-30 | 고려대학교 세종산학협력단 | Yolo 기반 경량 경계 상자 검출과 영상 처리를 통한 정확한 동물 탐지 방법 및 장치 |
KR102338995B1 (ko) | 2020-01-22 | 2021-12-14 | 고려대학교 세종산학협력단 | Yolo 기반 경량 경계 상자 검출과 영상 처리를 통한 정확한 동물 탐지 방법 및 장치 |
JP2021135314A (ja) * | 2020-02-21 | 2021-09-13 | 日本電信電話株式会社 | 学習装置、音声認識装置、学習方法、および、学習プログラム |
JP7359028B2 (ja) | 2020-02-21 | 2023-10-11 | 日本電信電話株式会社 | 学習装置、学習方法、および、学習プログラム |
WO2021230470A1 (ko) * | 2020-05-15 | 2021-11-18 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
EP4009244A1 (en) | 2020-12-02 | 2022-06-08 | Fujitsu Limited | Quantization program, quantization method, and quantization apparatus |
WO2022201352A1 (ja) * | 2021-03-24 | 2022-09-29 | 三菱電機株式会社 | 推論装置、推論方法、及び、推論プログラム |
JPWO2022201352A1 (ja) * | 2021-03-24 | 2022-09-29 | ||
JP7350214B2 (ja) | 2021-03-24 | 2023-09-25 | 三菱電機株式会社 | 推論装置、推論方法、及び、推論プログラム |
EP4141745A1 (en) | 2021-08-25 | 2023-03-01 | Fujitsu Limited | Threshold determination program, threshold determination method, and information processing apparatus |
WO2023128024A1 (ko) * | 2021-12-30 | 2023-07-06 | 한국전자기술연구원 | 딥러닝 네트워크 양자화 처리 방법 및 시스템 |
Also Published As
Publication number | Publication date |
---|---|
US20200012926A1 (en) | 2020-01-09 |
JP7045947B2 (ja) | 2022-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020009048A (ja) | ニューラルネットワークの学習装置および学習方法 | |
US11373087B2 (en) | Method and apparatus for generating fixed-point type neural network | |
US20240104378A1 (en) | Dynamic quantization of neural networks | |
CN112085193A (zh) | 一种神经网络的量化参数确定方法及相关产品 | |
JP7240657B2 (ja) | ニューラルネットワーク回路装置、ニューラルネットワーク、ニューラルネットワーク処理方法およびニューラルネットワークの実行プログラム | |
CN113112013A (zh) | 针对分辨率降低的神经网络的优化量化 | |
JP7104183B2 (ja) | ニューラルネットワークの縮約装置 | |
US20220405561A1 (en) | Electronic device and controlling method of electronic device | |
CN112561050A (zh) | 一种神经网络模型训练方法及装置 | |
CN112232477A (zh) | 图像数据处理方法、装置、设备及介质 | |
JP2020027604A (ja) | 情報処理方法、及び情報処理システム | |
US11699077B2 (en) | Multi-layer neural network system and method | |
TWI732467B (zh) | 訓練稀疏連接神經網路的方法 | |
CN111767204B (zh) | 溢出风险检测方法、装置及设备 | |
KR20220010419A (ko) | 동적 예측 신뢰도 임계값 선택에 기반한 저복잡도 인공지능 모델 학습을 위한 전자 장치 및 학습 방법 | |
CN113051854A (zh) | 基于硬件结构感知的自适应学习式功率建模方法与系统 | |
JP6942204B2 (ja) | データ処理システムおよびデータ処理方法 | |
EP4345692A1 (en) | Methods and systems for online selection of number formats for network parameters of a neural network | |
JP7000586B2 (ja) | データ処理システムおよびデータ処理方法 | |
CN117951605B (zh) | 扩散模型的量化方法、装置、计算机设备及存储介质 | |
US20230008014A1 (en) | Data processing device, data-processing method and recording media | |
WO2023104158A1 (en) | Method for neural network training with multiple supervisors | |
JP6992864B1 (ja) | ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム | |
CN117539500B (zh) | 基于误差校准的存内计算系统优化部署框架及其工作方法 | |
US20210319299A1 (en) | Inference device and inference method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220322 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7045947 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |