JP7189865B2 - モデル圧縮装置及びプログラム - Google Patents
モデル圧縮装置及びプログラム Download PDFInfo
- Publication number
- JP7189865B2 JP7189865B2 JP2019239463A JP2019239463A JP7189865B2 JP 7189865 B2 JP7189865 B2 JP 7189865B2 JP 2019239463 A JP2019239463 A JP 2019239463A JP 2019239463 A JP2019239463 A JP 2019239463A JP 7189865 B2 JP7189865 B2 JP 7189865B2
- Authority
- JP
- Japan
- Prior art keywords
- channel
- filter
- model
- compression
- pruning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
準備部1は、学習モデルを用いて、圧縮対象となるモデルを圧縮するために考慮する係数としてのスケーリング係数を各チャネル/フィルタについて算出して枝刈部2へと出力する。
(問題P1)…式(2)のコスト関数Lにおいて各チャネルに共通の重みλを用いている。
(問題P2)…式(2)のコスト関数Lにおいて認識精度は考慮されているものの、計算量の減少度合いの寄与は考慮されていない。
準備部1では、既存算出手法にて全スケーリング層γ∈Γ(ここで、スケーリング層で乗算する係数ベクトルγ表記でスケーリング層を指定している)の全チャネルで共通の重みλを用いた式(2)の右辺の第2項(係数ベクトルγの絶対値が大きくなることを抑制する、ペナルティ項としての正則化項)を、以下の式(3)に示されるように、各スケーリング層γ∈Γの各チャネルi毎のコスト関数重みλi(ここで、表記の煩雑化を避けるために、チャネルi依存の重みλiとしているが、実際には当該チャネルiに対応するスケーリング層γ(当該チャネルiを含むテンソルのネットワーク内での位置)にも依存するコスト関数重みλi(γ)となる)を用いる項に置き換えてコスト関数Lを算出する。(なお、式(3)の層γ及びチャネルiを、後述する式(9)では層k及びチャネルjという変数で記載している。)
[非特許文献8]Molchanov, Pavlo, et al. "Importance Estimation for Neural Network Pruning." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2019.
準備部1では、計算量減少度合いも考慮して、コスト関数のチャネル毎の重みλiを計算する。具体的に、以下の式(5-1),(5-2)で計算すればよい。
(1) フィルタを掛ける特徴マップのピクセル数FMS
(2) 特徴マップの数NFM
(3) フィルタサイズFS
以上のように、従来手法に改良を施すことにより準備部1では以下の手順(0),(1),(2),(3)のようにして、コスト関数のチャネル毎の重みλiを計算することで式(3)の改良を伴う式(2)のコスト関数Lを定めたうえで、このコスト関数Lを用いた学習を行った結果としてパラメータW及びチャネルスケーリング係数γを計算するものである。(なお、学習に関しては、以下の手順(1),(3)において2回行うこととなるが、手順(1)では必ずしも最終的なパラメータを求める完全な学習まで行わなくともよい。)
(0) 圧縮対象となっているモデルに図2で説明した通りのスケーリング層SCALE(i)を追加して、以下の学習計算の対象とする。
(1) 学習データと圧縮対象モデルを用いて順伝播計算及び逆伝播計算を行い、得られる勾配gradientmにより、式(4)の認識精度悪化に関するロスIm(問題P1への対処となるもの)を計算する。
(2) 枝刈り候補としての各チャネルi/フィルタmについて、式(5-1)の計算量減少度合いbudgeti(問題P2への対処となるもの)を計算する。
(3) 上記手順(1),(2)の計算結果より式(5-2)で定まるコスト関数のチャネルi毎の重みλiを用いて式(2)の左辺第2項を式(3)の通りに改良したコスト関数Lを定め、当該改良されたコスト関数Lを用いて学習を行った結果として、枝刈り候補としての各チャネルi/フィルタmについて、パラメータWと各スケーリング層におけるチャネルスケーリング係数γ(式(1))を得る。
枝刈部2は、準備部1で得たチャネルスケーリング係数γ(特に、チャネルi毎の重みλi(従来では考慮されていなかった計算量削減効果も考慮した重みλi)が少なくとも反映されたコスト関数を用いた学習結果の係数γ)を基準として少なくとも利用して、且つ、以下に説明するように従来技術では考慮されていなかったその他の基準(既に準備部1で用いた、コスト関数のチャネルi毎の重みλiも含む)も考慮して、入力モデル内の各フィルタ/チャネルが枝刈り対象となるか否かを判定し、枝刈り対象と判定されたフィルタ/チャネルを枝刈り(削除)したモデル(枝刈後のモデル)を再訓練部へと出力する。(枝刈りの際、削除対象となったチャネルの後段にある、スケーリング層での対応要素(スケーリング係数)も削除される。)すなわち、枠組みとしては非特許文献2等と同様であるが、枝刈部2では以下のように改良された枝刈り対象決定を行うことができる。なお、枝刈部2での枝刈りの判断の対象となるネットワークは、準備部1での手順(3)における最終的な学習結果として得られるネットワークである。
この第2基準により、フィルタが似ている場合、冗長であるため、1つのフィルタのみが残るように枝刈りすることが可能となる。枝刈り部2では具体的に、類似度を逆数的に表現するものとしての平均距離を層毎に算出する。第k層でJ個のフィルタがあるとする。第jのフィルタの類似度Sk jを算出する際に、第jのフィルタと他のフィルタの距離dk j(i)を式(7)で算出する。
畳込ネットワークにおいては、前の層で一つのチャネルを削除すると、後段側の全ての層のチャネル数が減る。よって、同じく1つのチャネルを削除しても所属する層により計算量の削減が異なる。このように、所属する層により計算量の削減度合いが異なることを、異なる層の敏感度として数値化する。
枝刈部2では、以上の3つの基準を用いて以下の式(9)により、第k層の第jチャネルに対するコストck jを算出する。
(1) 各層kの各チャネル/フィルタjについて、式(9)で算出されるコストck jの最小値min(ck j)を、最小値を与えるような重みの組(w1k j,w2k j,w3k j)を遺伝アルゴリズムで算出することによって、当該最小値を与える重みにおける式(9)の値として算出する。この際、各重みは正数範囲とし、総和が1となるよう規格化したものとして求めればよい。
(2) 各層kの各チャネル/フィルタjの中から、上記算出された最小コストmin(ck j)が小さい側の上位所定数又は閾値判定でこの値が小さいとされるものを削除対象とする。
再訓練部3では、学習データを用いて、枝刈部2より得られる枝刈後のモデルを学習することにより、圧縮後モデルを得る。再訓練部3における学習手法は既存手法と同様でよい。また、再訓練部3において次のような学習を行ってもよい。式(3)で改良された式(2)のコスト関数Lを用いて、元のモデルのパラメータWに加えてスケーリング係数γも学習するようにしてもよい。
Claims (7)
- 畳込ニューラルネットワークモデルである圧縮対象モデル内の各チャネル及び対応するフィルタ(以下、チャネル/フィルタとする。)について、当該モデルにスケーリング層を追加したうえで、学習データを用いて、チャネル/フィルタ毎の削除した際の影響度が考慮されたコスト関数による学習を行うことにより、当該スケーリング層におけるチャネル毎の定数倍処理の係数をスケーリング係数(γ)として求める準備部と、
前記圧縮対象モデル内の各チャネル/フィルタについて、少なくとも前記スケーリング係数に基づいて、削除するか否かを判定し、削除すると判定されたものを前記圧縮対象モデルから削除することで枝刈後モデルを得る枝刈部と、
学習データを用いて前記枝刈後モデルを再訓練することにより、前記圧縮対象モデルを圧縮した圧縮後モデルを得る再訓練部と、を備え、
前記準備部では、前記チャネル/フィルタを削除したとする場合の影響度として、前記学習データを用いて評価される認識精度悪化の度合い(Im)と、前記圧縮対象モデル内における当該チャネル/フィルタを削除することによる計算量削減の度合い(budgeti)と、を考慮したコスト関数と前記学習データとを用いて学習することにより、前記スケーリング係数を求めることを特徴とするモデル圧縮装置。 - 前記コスト関数は、前記認識精度悪化の度合い(Im)と、前記計算量削減の度合い(budgeti)と、が反映された重み係数(λi)を有する、当該チャネル/フィルタに対応するスケーリング層のスケーリング係数の正則化項を含むことを特徴とする請求項1に記載のモデル圧縮装置。
- 前記準備部で学習に用いるコスト関数は、前記認識精度悪化の度合い(Im)と前記計算量削減の度合い(budgeti)と、をチャネル/フィルタごとの重み(λ)として評価するものであり、
前記枝刈部では、前記圧縮対象モデル内の各チャネル/フィルタについてさらに、前記チャネル/フィルタごとの重み(λ)に基づいて削除するか否かを判定することを特徴とする請求項1または2に記載のモデル圧縮装置。 - 前記枝刈部では、前記圧縮対象モデル内の各チャネル/フィルタについてさらに、同一の層内における当該フィルタの、別のフィルタとの類似度に基づいて削除するか否かを判定することを特徴とする請求項1ないし3のいずれかに記載のモデル圧縮装置。
- 前記準備部で学習に用いるコスト関数は、前記認識精度悪化の度合い(Im)と前記計算量削減の度合い(budgeti)と、をチャネル/フィルタごとの重み(λ)付け和として評価するものであり、
前記枝刈部では、前記圧縮対象モデル内の各チャネル/フィルタについてさらに、前記チャネル/フィルタごとの重み(λ)に基づいて削除するか否かを判定し、
前記枝刈部では、前記圧縮対象モデル内の各チャネル/フィルタについてさらに、同一の層内における当該フィルタの、別のフィルタとの類似度に基づいて削除するか否かを判定し、
前記枝刈部では、前記圧縮対象モデル内の各チャネル/フィルタについて、前記スケーリング係数と、前記チャネル/フィルタごとの重み(λ)と、前記類似度と、の重みづけ和の最小値を求め、当該最小値に基づいて、前記削除するか否かを判定することを特徴とする請求項1に記載のモデル圧縮装置。 - 前記枝刈部では、遺伝アルゴリズムを用いて前記最小値を求めることを特徴とする請求項5に記載のモデル圧縮装置。
- コンピュータを請求項1ないし6のいずれかに記載のモデル圧縮装置として機能させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019239463A JP7189865B2 (ja) | 2019-12-27 | 2019-12-27 | モデル圧縮装置及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019239463A JP7189865B2 (ja) | 2019-12-27 | 2019-12-27 | モデル圧縮装置及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021108039A JP2021108039A (ja) | 2021-07-29 |
JP7189865B2 true JP7189865B2 (ja) | 2022-12-14 |
Family
ID=76967947
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019239463A Active JP7189865B2 (ja) | 2019-12-27 | 2019-12-27 | モデル圧縮装置及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7189865B2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113837381B (zh) * | 2021-09-18 | 2024-01-05 | 杭州海康威视数字技术股份有限公司 | 深度神经网络模型的网络剪枝方法、装置、设备及介质 |
CN114037858A (zh) * | 2021-10-24 | 2022-02-11 | 西北工业大学 | 一种基于泰勒展开的图像分类网络层剪枝方法 |
CN114154589B (zh) * | 2021-12-13 | 2023-09-29 | 成都索贝数码科技股份有限公司 | 一种基于相似性的模块减枝方法 |
CN114154626B (zh) * | 2021-12-14 | 2022-08-16 | 中国人民解放军国防科技大学 | 一种用于图像分类任务的滤波器剪枝方法 |
WO2023233621A1 (ja) * | 2022-06-02 | 2023-12-07 | 三菱電機株式会社 | 学習処理装置、プログラム及び学習処理方法 |
JP2024065787A (ja) * | 2022-10-31 | 2024-05-15 | LeapMind株式会社 | 画像処理装置、学習方法及び推論方法 |
WO2024111476A1 (ja) * | 2022-11-25 | 2024-05-30 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理方法、ニューラルネットワーク、情報処理装置、情報処理システム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190251441A1 (en) | 2018-02-13 | 2019-08-15 | Adobe Systems Incorporated | Reducing architectural complexity of convolutional neural networks via channel pruning |
US20190294929A1 (en) | 2018-03-20 | 2019-09-26 | The Regents Of The University Of Michigan | Automatic Filter Pruning Technique For Convolutional Neural Networks |
JP2019185275A (ja) | 2018-04-05 | 2019-10-24 | 日本電信電話株式会社 | 学習装置、学習方法および学習プログラム |
JP2019212206A (ja) | 2018-06-08 | 2019-12-12 | 沖電気工業株式会社 | ニューラルネットワーク軽量化装置、情報処理装置、ニューラルネットワーク軽量化方法およびプログラム |
-
2019
- 2019-12-27 JP JP2019239463A patent/JP7189865B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190251441A1 (en) | 2018-02-13 | 2019-08-15 | Adobe Systems Incorporated | Reducing architectural complexity of convolutional neural networks via channel pruning |
US20190294929A1 (en) | 2018-03-20 | 2019-09-26 | The Regents Of The University Of Michigan | Automatic Filter Pruning Technique For Convolutional Neural Networks |
JP2019185275A (ja) | 2018-04-05 | 2019-10-24 | 日本電信電話株式会社 | 学習装置、学習方法および学習プログラム |
JP2019212206A (ja) | 2018-06-08 | 2019-12-12 | 沖電気工業株式会社 | ニューラルネットワーク軽量化装置、情報処理装置、ニューラルネットワーク軽量化方法およびプログラム |
Non-Patent Citations (1)
Title |
---|
山本 康平 ほか,ディープラーニングのモデル軽量化技術,OKIテクニカルレビュー 233,Vol.86, No.1,日本,沖電気工業株式会社,2019年05月20日,pp.24~27 |
Also Published As
Publication number | Publication date |
---|---|
JP2021108039A (ja) | 2021-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7189865B2 (ja) | モデル圧縮装置及びプログラム | |
CN111091045B (zh) | 一种基于时空注意力机制的手语识别方法 | |
CN109002889B (zh) | 自适应迭代式卷积神经网络模型压缩方法 | |
CN110135580B (zh) | 一种卷积网络全整型量化方法及其应用方法 | |
US11669711B2 (en) | System reinforcement learning method and apparatus, and computer storage medium | |
CN112200297A (zh) | 神经网络优化方法、装置及处理器 | |
Al-allaf | Cascade-forward vs. function fitting neural network for improving image quality and learning time in image compression system | |
CN112215353B (zh) | 一种基于变分结构优化网络的通道剪枝方法 | |
JP2021022050A (ja) | ニューラルネットワークの圧縮方法、ニューラルネットワーク圧縮装置、コンピュータプログラム、及び圧縮されたニューラルネットワークデータの製造方法 | |
CN114239798B (zh) | 基于奇偶性对数量化的无乘法深度神经网络模型压缩方法 | |
CN112906853A (zh) | 模型自动优化的方法及装置、设备、存储介质 | |
US10410140B1 (en) | Categorical to numeric conversion of features for machine learning models | |
WO2020054819A1 (ja) | データ解析装置、データ解析方法及びプログラム | |
WO2020223850A1 (en) | System and method for quantum circuit simulation | |
CN108805844B (zh) | 一种基于先验滤波的轻量化回归网络构建方法 | |
CN109886317A (zh) | 基于注意力机制的通用图像美学评估方法、系统及设备 | |
CN108230253B (zh) | 图像恢复方法、装置、电子设备和计算机存储介质 | |
WO2024060839A9 (zh) | 对象操作方法、装置、计算机设备以及计算机存储介质 | |
US20200372363A1 (en) | Method of Training Artificial Neural Network Using Sparse Connectivity Learning | |
US20230026322A1 (en) | Data Processing Method and Apparatus | |
Lavaei et al. | Dynamic analysis of structures using neural networks | |
KR102548407B1 (ko) | 뉴럴 네트워크가 포함된 상미분 방정식을 이용하는 점진적 이미지 해상도 향상 방법 및 장치와 이를 이용하는 이미지 초해상도 방법 | |
WO2021179117A1 (zh) | 神经网络通道数搜索方法和装置 | |
CN114743000A (zh) | 基于Unet的多任务气胸医学图像语义分割模型系统及其方法 | |
CN110472653B (zh) | 一种基于最大化区域互信息的语义分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220914 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7189865 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |