JP6787444B1 - ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム - Google Patents
ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム Download PDFInfo
- Publication number
- JP6787444B1 JP6787444B1 JP2019096907A JP2019096907A JP6787444B1 JP 6787444 B1 JP6787444 B1 JP 6787444B1 JP 2019096907 A JP2019096907 A JP 2019096907A JP 2019096907 A JP2019096907 A JP 2019096907A JP 6787444 B1 JP6787444 B1 JP 6787444B1
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- weight
- channel
- layer
- weight reduction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/544—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
- G06F7/5443—Sum of products
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2207/00—Indexing scheme relating to methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F2207/38—Indexing scheme relating to groups G06F7/38 - G06F7/575
- G06F2207/48—Indexing scheme relating to groups G06F7/48 - G06F7/575
- G06F2207/4802—Special implementations
- G06F2207/4818—Threshold devices
- G06F2207/4824—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Image Analysis (AREA)
- Complex Calculations (AREA)
Abstract
Description
まず、本発明の実施形態の概要を説明する。近年、物体検知などの各種の分野においてニューラルネットワークが用いられている。しかし、ニューラルネットワークの高性能化を進めていくほど、ニューラルネットワークを構成するパラメータの数が大きくなってしまう傾向があり、パラメータの数が膨大となってしまと、ニューラルネットワークを用いた学習時および推論時に、メモリおよび演算装置に与える負荷が大きくなってしまう。そのため、ニューラルネットワークを軽量化する技術が研究されている。
続いて、本発明の第1の実施形態の詳細について説明する。
図3は、本発明の第1の実施形態に係るニューラルネットワーク軽量化装置の機能構成例を示す図である。図3に示されるように、本発明の第1の実施形態に係るニューラルネットワーク軽量化装置10は、入力部100、生成部101、学習部102、修正部103、再学習部104および出力部105を備える。
上記したように、入力部100によって、軽量化対象モデルが取得される。具体的に、軽量化対象モデルは、複数段の処理層それぞれに設定されるパラメータ(重みパラメータおよびバイアス)と複数段の処理層の構造情報とを含んで構成される。重みパラメータは、任意の訓練データを用いてあらかじめ最適化されている。また、構造情報は、ニューラルネットワークの構造を示す情報(例えば、全結合ニューラルネットワークを示す情報、畳み込みニューラルネットワークを示す情報など)である。
修正部103は、訓練済みモデルに含まれる付加層の重みパラメータWijに基づいて算出される特徴量と所定の閾値εとが所定の関係を満たすチャネルを冗長チャネルとして選択し、訓練済みモデルから削除する。例えば、特徴量は、付加層の重みパラメータの大きさの和を、付加層の出力チャネル単位で演算した値であってよい。より具体的に、修正部103は、付加層の重み行列Wの中に、例えば、L1ノルムによる指標cj=||wj||1が所定の閾値εを下回る列ベクトルwjが存在する場合、L層重みフィルタにおいて列ベクトルwjに関係する重みフィルタを訓練済みモデルから削除する。
重みフィルタの統合処理は、畳み込み演算の性質を利用して、付加層を直前に接続された畳み込み層に統合することによって、重みフィルタ削減後の訓練済みモデルから付加層を削除する処理である。具体的に、修正部103は、付加層の重みパラメータWの少なくとも一部と重みフィルタ削減後の畳み込み層の重みパラメータの少なくとも一部との積和演算に基づいて、重みフィルタ削減後の畳み込み層の重みパラメータを修正する。まず、L層の入出力関係は、以下の式(3)および(4)のように表現され得る。
本発明の第1の実施形態によれば、生成部101によって軽量化対象モデルに付加層が接続された上で、学習部102によって訓練が行われるため、従来の軽量化技術では削除されてしまうチャネルデータに含まれる情報が、他のチャネルの重みフィルタに流れ込んで訓練される。これによって、軽量化対象モデルから重みフィルタの削減が行われたとしても、重みフィルタ削減後のモデルの性能劣化を小さく抑えることが可能となる。
続いて、本発明の第2の実施形態の詳細について説明する。
本発明の第2の実施形態に係るニューラルネットワーク軽量化装置20は、本発明の第1の実施形態に係るニューラルネットワーク軽量化装置10と比較して、修正部103の代わりに修正部203を有する。したがって、以下では、入力部200、生成部201、学習部202、再学習部204および出力部205の動作の説明は省略し、修正部203の動作について説明する。
重みフィルタの削減処理(S200)によって、付加層の重み行列Wの次元がm×mからm×n(n≦m)に変化したとする(図6に示された例において、h1’〜hm’がh1’〜hn’に変化したとする)。このとき、修正部203は、重み行列Wに対して特異値分解を適用することによって、L層重みフィルタにおける演算回数を少なくすることができる。
本発明の第1の実施形態とは異なり、修正部203は、低ランク近似の結果に基づいて、重みフィルタの統合処理S101における重み付き和の計算(数式(5)および(6))において、重み行列Wの代わりに行列U’S’を用いる。これによって、L層出力チャネルデータの数をm個からk個に減らすことができる(L層重みフィルタ数をk個に削減できる)。しかし、重みフィルタWの次元をL+1層入力チャネルデータの数(n個)に合わせる必要があるため(元に戻す必要があるため)、修正部203は、付加層の重み行列Wを削除せずに、重み行列Wを行列V’に置換する。
本発明の第2の実施形態によれば、重みフィルタ削減処理(S200)によってL層重みフィルタの数を削減するだけでなく、低ランク近似(S201)の結果に基づく重みフィルタ統合処理(S202)によって、L層重みフィルタの数をさらに削減することができる。したがって、本発明の第2の実施形態によれば、L層重みフィルタによる畳み込み処理の演算負荷を低減することが可能になるという効果が享受される。
続いて、本発明の第1の実施形態に係るニューラルネットワーク軽量化装置10のハードウェア構成例について説明する。ただし、本発明の第2の実施形態に係るニューラルネットワーク軽量化装置20のハードウェア構成例も同様に実現され得る。
以上に説明したように、本発明の実施形態によれば、入力部と、生成部と、学習部と、修正部と、再学習部と、出力部と、を備える、ニューラルネットワーク軽量化装置が提供される。入力部は、少なくとも1つの畳み込み層を含んだ複数の処理層を有する第1のニューラルネットワークを取得する。生成部は、前記第1のニューラルネットワークに含まれる前記畳み込み層の後段に対して少なくとも1つの第2のニューラルネットワークが付加層として接続された第3のニューラルネットワークを生成する。学習部は、前記第3のニューラルネットワークの訓練を行う。
100 入力部
101 生成部
102 学習部
103 修正部
104 再学習部
105 出力部
20 ニューラルネットワーク軽量化装置
200 入力部
201 生成部
202 学習部
203 修正部
204 再学習部
205 出力部
Claims (12)
- 少なくとも1つの畳み込み層を含んだ複数の処理層を有する第1のニューラルネットワークを取得する入力部と、
前記第1のニューラルネットワークに含まれる前記畳み込み層の後段に対して少なくとも1つの第2のニューラルネットワークが付加層として接続された第3のニューラルネットワークを生成する生成部と、
前記第3のニューラルネットワークの訓練を行う学習部と、
前記第2のニューラルネットワークの重みパラメータに基づいて算出される特徴量と所定の閾値とが所定の関係を満たすチャネルを冗長チャネルとして選択し、前記畳み込み層から前記冗長チャネルを削除するとともに、前記第2のニューラルネットワークの重みパラメータの少なくとも一部に基づいて前記冗長チャネルの削除後の畳み込み層の重みパラメータを修正する修正部と、
前記冗長チャネルの削除後の前記畳み込み層の重みパラメータの修正に基づく前記第3のニューラルネットワークの再訓練を行う再学習部と、
再訓練後の前記第3のニューラルネットワークを出力する出力部と、
を備え、
前記第2のニューラルネットワークは、前記畳み込み層にチャネルデータの単位で接続された全結合ニューラルネットワークである、
ニューラルネットワーク軽量化装置。 - 前記修正部は、前記第2のニューラルネットワークの少なくとも一部の重みパラメータに特異値分解を適用することに基づいて、前記冗長チャネルの削除後の畳み込み層のチャネル数を削減する、
請求項1に記載のニューラルネットワーク軽量化装置。 - 前記修正部は、前記冗長チャネルの削除後の畳み込み層の重みパラメータを修正するとともに、前記第3のニューラルネットワークから前記第2のニューラルネットワークを削除する、
請求項1または2に記載のニューラルネットワーク軽量化装置。 - 前記修正部は、前記第2のニューラルネットワークの重みパラメータの少なくとも一部と前記冗長チャネルの削除後の畳み込み層の重みパラメータの少なくとも一部との積和演算に基づいて、前記冗長チャネルの削除後の畳み込み層の重みパラメータを修正する、
請求項2または3に記載のニューラルネットワーク軽量化装置。 - 前記生成部は、前記第1のニューラルネットワークに複数の畳み込み層が含まれる場合、前記複数の畳み込み層それぞれの後段に前記第2のニューラルネットワークが接続された前記第3のニューラルネットワークを生成する、
請求項1〜4のいずれか一項に記載のニューラルネットワーク軽量化装置。 - 前記修正部は、前記複数の畳み込み層それぞれの重みパラメータの修正を、積和演算に基づいて行うか、特異値分解を適用することに基づいて行うかを、前記複数の畳み込み層ごとに判断する、
請求項5に記載のニューラルネットワーク軽量化装置。 - 前記学習部は、前記第2のニューラルネットワークの重みパラメータが疎になるような少なくとも1つの制約が課された上で学習する、
請求項1〜6のいずれか一項に記載のニューラルネットワーク軽量化装置。 - 前記学習部は、前記制約の強さを表現するパラメータをエポック単位またはイテレーション単位で大きくする、
請求項7に記載のニューラルネットワーク軽量化装置。 - 前記修正部は、前記特徴量が前記所定の閾値を下回るチャネルを前記冗長チャネルとして選択する、
請求項1〜8に記載のニューラルネットワーク軽量化装置。 - 前記特徴量は、前記第2のニューラルネットワークの重みパラメータの大きさの和を、前記第2のニューラルネットワークの出力チャネル単位で演算した値である、
請求項1〜9のいずれか一項に記載のニューラルネットワーク軽量化装置。 - ニューラルネットワーク軽量化装置が、少なくとも1つの畳み込み層を含んだ複数の処理層を有する第1のニューラルネットワークを取得することと、
前記ニューラルネットワーク軽量化装置が、前記第1のニューラルネットワークに含まれる前記畳み込み層の後段に対して少なくとも1つの第2のニューラルネットワークが付加層として接続された第3のニューラルネットワークを生成することと、
前記ニューラルネットワーク軽量化装置が、前記第3のニューラルネットワークの訓練を行うことと、
前記ニューラルネットワーク軽量化装置が、前記第2のニューラルネットワークの重みパラメータに基づいて算出される特徴量と所定の閾値とが所定の関係を満たすチャネルを冗長チャネルとして選択し、前記畳み込み層から前記冗長チャネルを削除するとともに、前記第2のニューラルネットワークの重みパラメータの少なくとも一部に基づいて前記冗長チャネルの削除後の畳み込み層の重みパラメータを修正することと、
前記ニューラルネットワーク軽量化装置が、前記重みパラメータの修正後の前記第3のニューラルネットワークの再訓練を行うことと、
前記ニューラルネットワーク軽量化装置が、再訓練後の前記第3のニューラルネットワークを出力することと、
を含み、
前記第2のニューラルネットワークは、前記畳み込み層にチャネルデータの単位で接続された全結合ニューラルネットワークである、
ニューラルネットワーク軽量化方法。 - コンピュータを、
少なくとも1つの畳み込み層を含んだ複数の処理層を有する第1のニューラルネットワークを取得する入力部と、
前記第1のニューラルネットワークに含まれる前記畳み込み層の後段に対して少なくとも1つの第2のニューラルネットワークが付加層として接続された第3のニューラルネットワークを生成する生成部と、
前記第3のニューラルネットワークの訓練を行う学習部と、
前記第2のニューラルネットワークの重みパラメータに基づいて算出される特徴量と所定の閾値とが所定の関係を満たすチャネルを冗長チャネルとして選択し、前記畳み込み層から前記冗長チャネルを削除するとともに、前記第2のニューラルネットワークの重みパラメータの少なくとも一部に基づいて前記冗長チャネルの削除後の畳み込み層の重みパラメータを修正する修正部と、
前記重みパラメータの修正後の前記第3のニューラルネットワークの再訓練を行う再学習部と、
再訓練後の前記第3のニューラルネットワークを出力する出力部と、
を備え、
前記第2のニューラルネットワークは、前記畳み込み層にチャネルデータの単位で接続された全結合ニューラルネットワークである、
ニューラルネットワーク軽量化装置として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019096907A JP6787444B1 (ja) | 2019-05-23 | 2019-05-23 | ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム |
US16/878,327 US11449734B2 (en) | 2019-05-23 | 2020-05-19 | Neural network reduction device, neural network reduction method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019096907A JP6787444B1 (ja) | 2019-05-23 | 2019-05-23 | ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6787444B1 true JP6787444B1 (ja) | 2020-11-18 |
JP2020190996A JP2020190996A (ja) | 2020-11-26 |
Family
ID=73220005
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019096907A Active JP6787444B1 (ja) | 2019-05-23 | 2019-05-23 | ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11449734B2 (ja) |
JP (1) | JP6787444B1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11037330B2 (en) * | 2017-04-08 | 2021-06-15 | Intel Corporation | Low rank matrix compression |
TWI723823B (zh) * | 2020-03-30 | 2021-04-01 | 聚晶半導體股份有限公司 | 基於神經網路的物件偵測裝置和物件偵測方法 |
WO2022113347A1 (ja) * | 2020-11-30 | 2022-06-02 | 日本電信電話株式会社 | 統合装置、統合方法、及び統合プログラム |
WO2022224330A1 (ja) * | 2021-04-20 | 2022-10-27 | 日本電気株式会社 | ニューラルネットワーク構造探索装置およびニューラルネットワーク構造探索方法 |
WO2023248454A1 (ja) * | 2022-06-24 | 2023-12-28 | 日立Astemo株式会社 | 演算装置及び演算方法 |
CN118332393B (zh) * | 2024-03-15 | 2024-10-15 | 沈阳隆基智能技术研究有限公司 | 基于xrf的矿石元素品位随机权神经网络软测量方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017182319A (ja) * | 2016-03-29 | 2017-10-05 | 株式会社メガチップス | 機械学習装置 |
EP3340129B1 (en) | 2016-12-21 | 2019-01-30 | Axis AB | Artificial neural network class-based pruning |
JP6844263B2 (ja) * | 2017-01-05 | 2021-03-17 | 東京エレクトロン株式会社 | 基板処理装置 |
JP7043742B2 (ja) * | 2017-05-22 | 2022-03-30 | コニカミノルタ株式会社 | 学習モデル作成装置 |
WO2019102984A1 (ja) * | 2017-11-22 | 2019-05-31 | Necソリューションイノベータ株式会社 | 学習装置及び学習方法、識別装置及び識別方法、プログラム並びに記録媒体 |
JP7047612B2 (ja) * | 2018-06-08 | 2022-04-05 | 沖電気工業株式会社 | ニューラルネットワーク軽量化装置、情報処理装置、ニューラルネットワーク軽量化方法およびプログラム |
CN114580605A (zh) * | 2020-11-30 | 2022-06-03 | 富泰华工业(深圳)有限公司 | 卷积神经网络、运算优化方法、装置、电子设备及介质 |
-
2019
- 2019-05-23 JP JP2019096907A patent/JP6787444B1/ja active Active
-
2020
- 2020-05-19 US US16/878,327 patent/US11449734B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11449734B2 (en) | 2022-09-20 |
JP2020190996A (ja) | 2020-11-26 |
US20200372325A1 (en) | 2020-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6787444B1 (ja) | ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム | |
JP7047612B2 (ja) | ニューラルネットワーク軽量化装置、情報処理装置、ニューラルネットワーク軽量化方法およびプログラム | |
CN108171323B (zh) | 一种人工神经网络计算装置和方法 | |
WO2018131259A1 (ja) | 文章評価装置、及び文章評価方法 | |
CN112288086B (zh) | 一种神经网络的训练方法、装置以及计算机设备 | |
CN113905391B (zh) | 集成学习网络流量预测方法、系统、设备、终端、介质 | |
JPWO2019004350A1 (ja) | 訓練方法、訓練装置、プログラム及び非一時的コンピュータ可読媒体 | |
JP6856112B1 (ja) | ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム | |
JP6908302B2 (ja) | 学習装置、識別装置及びプログラム | |
WO2021042857A1 (zh) | 图像分割模型的处理方法和处理装置 | |
WO2020241356A1 (ja) | スパイキングニューラルネットワークシステム、学習処理装置、学習処理方法および記録媒体 | |
JP7287388B2 (ja) | 情報処理装置および情報処理方法 | |
KR20200143450A (ko) | 화상 처리 방법, 장치, 전자 장치 및 저장 매체 | |
JP6568175B2 (ja) | 学習装置、生成装置、分類装置、学習方法、学習プログラム、および動作プログラム | |
CN113936143A (zh) | 基于注意力机制和生成对抗网络的图像识别泛化方法 | |
JP2019040574A (ja) | 対話応答システム、モデル学習装置および対話装置 | |
WO2020105341A1 (ja) | 情報処理装置および情報処理方法 | |
JP2907486B2 (ja) | ニューラルネットワーク装置 | |
CN110222222A (zh) | 基于深层主题自编码模型的多模态检索方法 | |
JP5417967B2 (ja) | 遺伝的処理装置、遺伝的処理方法およびプログラム | |
Duggal et al. | High performance squeezenext for cifar-10 | |
JP7438544B2 (ja) | ニューラルネットワーク処理装置、コンピュータプログラム、ニューラルネットワーク製造方法、ニューラルネットワークデータの製造方法、ニューラルネットワーク利用装置、及びニューラルネットワーク小規模化方法 | |
JP6992864B1 (ja) | ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム | |
JP2021135683A (ja) | 学習装置、推論装置、学習方法及び推論方法 | |
JP6801751B1 (ja) | 情報処理装置、情報処理方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190523 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A132 Effective date: 20200728 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200914 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200929 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201012 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6787444 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |