JP2019028746A - ネットワーク係数圧縮装置、ネットワーク係数圧縮方法およびプログラム - Google Patents
ネットワーク係数圧縮装置、ネットワーク係数圧縮方法およびプログラム Download PDFInfo
- Publication number
- JP2019028746A JP2019028746A JP2017147769A JP2017147769A JP2019028746A JP 2019028746 A JP2019028746 A JP 2019028746A JP 2017147769 A JP2017147769 A JP 2017147769A JP 2017147769 A JP2017147769 A JP 2017147769A JP 2019028746 A JP2019028746 A JP 2019028746A
- Authority
- JP
- Japan
- Prior art keywords
- network
- coefficient
- compression
- unit
- network coefficient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Abstract
Description
第1の実施形態にかかるネットワーク係数圧縮装置は、学習済みのニューラルネットワークの推論結果を教師データとして用いて、学習中にネットワーク係数(重み係数、バイアスなど)を圧縮する。これにより、認識等のタスクの性能低下を抑えつつ、高圧縮率を実現可能となる。
第2の実施形態では、ネットワーク係数の圧縮および更新をさらに具体化した例を説明する。第2の実施形態にかかるネットワーク係数圧縮装置の全体の構成は第1の実施形態と同様である。第2の実施形態では、学習部110−2の構成が第1の実施形態の学習部110と異なる。以下では、学習部110−2の構成および機能について主に説明する。
学習部110−2(圧縮部111)による圧縮方法は上記に限られるものではない。圧縮部111は、例えば、学習済みネットワーク係数を複数のグループに分割し、同じグループに属するネットワーク係数については共通の値となるように圧縮してもよい。この場合、更新部113は、同じグループに属するネットワーク係数については同じ更新幅を用いて更新してもよい。このような圧縮方法であっても、仮の入力データと、この入力データに対する出力値の組を教師データとしてネットワーク係数の圧縮を含む学習が可能である。
第3の実施形態では、上記実施形態のネットワーク係数圧縮装置により圧縮されるニューラルネットワークを用いたタスクを実行する装置について説明する。以下では、第1の実施形態のネットワーク係数圧縮装置100を含み、ニューラルネットワークを用いた認識処理を実行する認識装置500の例を説明する。第1の実施形態のネットワーク係数圧縮装置100の代わりに第2の実施形態のネットワーク係数圧縮装置を含むように構成してもよい。また、適用可能なタスクは認識処理に限られず、回帰分析などのニューラルネットワークを用いた任意のタスクに適用できる。
101 推論部
110、110−2 学習部
111 圧縮部
112 伸張部
113 更新部
114 生成部
200 記憶部
300 認識部
500 認識装置
Claims (9)
- 学習されたニューラルネットワークの入力層に入力された入力データに対する、前記ニューラルネットワークの隠れ層または出力層の出力値を出力する推論ステップと、
前記ニューラルネットワークのネットワーク係数の非可逆圧縮を行いながら、前記入力データと前記出力値を教師データとして前記ネットワーク係数を学習し、圧縮されたネットワーク係数を生成する学習ステップと、
を含むネットワーク係数圧縮方法。 - 学習されたニューラルネットワークの入力層に入力された入力データに対する、前記ニューラルネットワークの隠れ層または出力層の出力値を出力する推論部と、
前記ニューラルネットワークのネットワーク係数の非可逆圧縮を行いながら、前記入力データと前記出力値を教師データとして前記ネットワーク係数を学習し、圧縮されたネットワーク係数を生成する学習部と、
を備えるネットワーク係数圧縮装置。 - 前記学習部は、
前記非可逆圧縮を実行する圧縮部と、
前記圧縮されたネットワーク係数を伸張する伸張部と、
前記伸張されたネットワーク係数を、前記教師データを用いて更新する更新部と、を備える、
請求項2に記載のネットワーク係数圧縮装置。 - 前記ネットワーク係数は、重み係数、および、バイアスの少なくとも一方である、
請求項2に記載のネットワーク係数圧縮装置。 - 前記非可逆圧縮は、量子化処理である、
請求項2に記載のネットワーク係数圧縮装置。 - 前記学習部は、エポックおよびバッチを含む予め定められた単位で前記非可逆圧縮を実行する、
請求項2に記載のネットワーク係数圧縮装置。 - 前記出力値は、前記出力層の尤度である、
請求項2に記載のネットワーク係数圧縮装置。 - 前記入力データは、ランダム信号である、
請求項2に記載のネットワーク係数圧縮装置。 - コンピュータを、
学習されたニューラルネットワークの入力層に入力された入力データに対する、前記ニューラルネットワークの隠れ層または出力層の出力値を出力する推論部と、
前記ニューラルネットワークのネットワーク係数の非可逆圧縮を行いながら、前記入力データと前記出力値を教師データとして前記ネットワーク係数を学習し、圧縮されたネットワーク係数を生成する学習部、
として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017147769A JP6789894B2 (ja) | 2017-07-31 | 2017-07-31 | ネットワーク係数圧縮装置、ネットワーク係数圧縮方法およびプログラム |
US15/887,321 US20190034781A1 (en) | 2017-07-31 | 2018-02-02 | Network coefficient compression device, network coefficient compression method, and computer program product |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017147769A JP6789894B2 (ja) | 2017-07-31 | 2017-07-31 | ネットワーク係数圧縮装置、ネットワーク係数圧縮方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019028746A true JP2019028746A (ja) | 2019-02-21 |
JP6789894B2 JP6789894B2 (ja) | 2020-11-25 |
Family
ID=65137940
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017147769A Active JP6789894B2 (ja) | 2017-07-31 | 2017-07-31 | ネットワーク係数圧縮装置、ネットワーク係数圧縮方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20190034781A1 (ja) |
JP (1) | JP6789894B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022269960A1 (ja) * | 2021-06-23 | 2022-12-29 | ソニーグループ株式会社 | 粒子解析システム、情報処理装置、及び分取装置 |
US11604999B2 (en) | 2019-07-31 | 2023-03-14 | Kabushiki Kaisha Toshiba | Learning device, learning method, and computer program product |
WO2023175722A1 (ja) * | 2022-03-15 | 2023-09-21 | Tdk株式会社 | 学習プログラム及び学習器 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020231049A1 (en) * | 2019-05-16 | 2020-11-19 | Samsung Electronics Co., Ltd. | Neural network model apparatus and compressing method of neural network model |
CN110263917B (zh) * | 2019-06-06 | 2023-09-22 | 深圳前海微众银行股份有限公司 | 一种神经网络压缩方法及装置 |
CN110659732B (zh) * | 2019-09-20 | 2023-07-04 | 上海新储集成电路有限公司 | 一种智能调节神经网络模型的方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160078339A1 (en) * | 2014-09-12 | 2016-03-17 | Microsoft Technology Licensing, Llc | Learning Student DNN Via Output Distribution |
-
2017
- 2017-07-31 JP JP2017147769A patent/JP6789894B2/ja active Active
-
2018
- 2018-02-02 US US15/887,321 patent/US20190034781A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160078339A1 (en) * | 2014-09-12 | 2016-03-17 | Microsoft Technology Licensing, Llc | Learning Student DNN Via Output Distribution |
JP2017531255A (ja) * | 2014-09-12 | 2017-10-19 | マイクロソフト コーポレーションMicrosoft Corporation | 出力分布による生徒dnnの学習 |
Non-Patent Citations (1)
Title |
---|
HAN, SONG, ET AL.: "DEEP COMPRESSION: COMPRESSING DEEP NEURAL NETWORKS WITH PRUNING, TRAINED QUATIZATION AND HUFFMAN COD", ARXIV, JPN6020027006, 15 February 2016 (2016-02-15), pages 1 - 14, ISSN: 0004313478 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11604999B2 (en) | 2019-07-31 | 2023-03-14 | Kabushiki Kaisha Toshiba | Learning device, learning method, and computer program product |
WO2022269960A1 (ja) * | 2021-06-23 | 2022-12-29 | ソニーグループ株式会社 | 粒子解析システム、情報処理装置、及び分取装置 |
WO2023175722A1 (ja) * | 2022-03-15 | 2023-09-21 | Tdk株式会社 | 学習プログラム及び学習器 |
Also Published As
Publication number | Publication date |
---|---|
JP6789894B2 (ja) | 2020-11-25 |
US20190034781A1 (en) | 2019-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6789894B2 (ja) | ネットワーク係数圧縮装置、ネットワーク係数圧縮方法およびプログラム | |
US11403528B2 (en) | Self-tuning incremental model compression solution in deep neural network with guaranteed accuracy performance | |
JP6998968B2 (ja) | ディープニューラルネットワークの実行方法、実行装置、学習方法、学習装置及びプログラム | |
CN112289342A (zh) | 使用神经网络生成音频 | |
CN113011581B (zh) | 神经网络模型压缩方法、装置、电子设备及可读存储介质 | |
WO2019155064A1 (en) | Data compression using jointly trained encoder, decoder, and prior neural networks | |
JP7091521B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
CN110753225A (zh) | 一种视频压缩方法、装置及终端设备 | |
US20220114454A1 (en) | Electronic apparatus for decompressing a compressed artificial intelligence model and control method therefor | |
JP2020149156A (ja) | データ圧縮装置、データ処理装置、データ圧縮方法、プログラム、及び学習済みモデル | |
KR20220058628A (ko) | 신경망 모델 압축 | |
KR20200089588A (ko) | 전자 장치 및 이의 제어 방법 | |
CN113747163A (zh) | 基于上下文重组建模的图像编码、解码方法及压缩方法 | |
JP2009217583A (ja) | パターン認識装置及びその方法 | |
CN116309135A (zh) | 扩散模型处理方法及装置、图片处理方法及装置 | |
US20230186927A1 (en) | Compressing audio waveforms using neural networks and vector quantizers | |
JP6960784B2 (ja) | ニューラルネットワーク、符号化装置、復号装置、学習方法、制御方法、およびプログラム | |
US11790926B2 (en) | Method and apparatus for processing audio signal | |
KR20210092302A (ko) | 로시 복원을 통한 로시 중요성 압축 | |
US20240048703A1 (en) | Encoding device, decoding device, encoding method, decoding method, and program | |
WO2023104158A1 (en) | Method for neural network training with multiple supervisors | |
US20240078411A1 (en) | Information processing system, encoding device, decoding device, model learning device, information processing method, encoding method, decoding method, model learning method, and program storage medium | |
Jiang et al. | An affinity propagation based method for vector quantization codebook design | |
JP4883455B2 (ja) | 符号化装置、符号化方法および符号化プログラム | |
US11516515B2 (en) | Image processing apparatus, image processing method and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190816 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200710 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200728 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200825 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201006 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201104 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6789894 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |