JP7242590B2 - 機械学習モデル圧縮システム、プルーニング方法及びプログラム - Google Patents
機械学習モデル圧縮システム、プルーニング方法及びプログラム Download PDFInfo
- Publication number
- JP7242590B2 JP7242590B2 JP2020017920A JP2020017920A JP7242590B2 JP 7242590 B2 JP7242590 B2 JP 7242590B2 JP 2020017920 A JP2020017920 A JP 2020017920A JP 2020017920 A JP2020017920 A JP 2020017920A JP 7242590 B2 JP7242590 B2 JP 7242590B2
- Authority
- JP
- Japan
- Prior art keywords
- machine learning
- evaluation
- model
- unit
- learning model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000006835 compression Effects 0.000 title claims description 95
- 238000007906 compression Methods 0.000 title claims description 95
- 238000010801 machine learning Methods 0.000 title claims description 73
- 238000013138 pruning Methods 0.000 title claims description 32
- 238000000034 method Methods 0.000 title claims description 29
- 238000011156 evaluation Methods 0.000 claims description 79
- 238000000605 extraction Methods 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 20
- 238000012217 deletion Methods 0.000 claims description 16
- 230000037430 deletion Effects 0.000 claims description 16
- 230000001174 ascending effect Effects 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 4
- 238000012854 evaluation process Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 13
- 239000000284 extract Substances 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 244000141353 Prunus domestica Species 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0495—Quantised networks; Sparse networks; Compressed networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Complex Calculations (AREA)
- Image Analysis (AREA)
Description
はじめに、第1実施形態の機械学習モデル圧縮システムの機能構成の例について説明する。
図1は第1実施形態の機械学習モデル圧縮システム10の機能構成の例を示す図である。第1実施形態の機械学習モデル圧縮システム10は、プルーニング部1及び学習部2を備える。
図3は第1実施形態のプルーニング処理の例を示すフローチャートである。図4は第1実施形態のプルーニング処理を説明するための図である。図4において、iはレイヤー番号、cはチャネル数、wとhはそれぞれ特徴マップの幅と高さを表す。iの値が小さいほど入力レイヤーに近く、iの値が大きいほど出力レイヤーに近いことを表す。Kernel matrixの列数nは入力チャネル数に、行数mは出力チャネル数に対応する。以下に、i+1番目のレイヤーからフィルタをプルーニングする手順を説明する。この処理は、出力レイヤーから入力レイヤーの順に行われる。
次に第2実施形態の機械学習モデル圧縮システムについて説明する。第2実施形態の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。第2実施形態では、生成すべき圧縮モデル203の探索処理を実行する場合について説明する。
図6は第1実施形態の機械学習モデル圧縮システム10-2の機能構成の例を示す図である。第2実施形態の機械学習モデル圧縮システム10-2は、選択部21、抽出制御部22、生成部23、第2の評価部24、及び、判定部25を備える。
図8は第2実施形態の機械学習モデル圧縮方法の例を示すフローチャートである。はじめに、選択部21は、探索範囲211に含まれる圧縮モデル203の構造を決定するパラメータとして、チャネル数(又はノード数)の情報を含むハイパーパラメータ212を選択する(ステップS201)。
次に第3実施形態の機械学習モデル圧縮システムについて説明する。第3実施形態の説明では、第2実施形態と同様の説明については省略する。第3実施形態は、学習済み機械学習モデル202の重みを、圧縮モデル203の重みの初期値として利用するかどうかをレイヤーごとに選択できる部分が第2実施形態と異なる。
図9は第3実施形態の機械学習モデル圧縮システム10-3の機能構成の例を示す図である。第3実施形態の機械学習モデル圧縮システム10-3は、選択部21、抽出制御部22、生成部23、第2の評価部24、及び、判定部25を備える。
図10は第3実施形態の機械学習モデル圧縮方法の例を示すフローチャートである。ステップS301の説明は、第2実施形態のステップS201と同じなので省略する。
図11は第1乃至第3実施形態の機械学習モデル圧縮システム10~10-3に使用されるコンピュータのハードウェア構成の例を示す図である。
図12は第1乃至第3実施形態の機械学習モデル圧縮システム10~10-3の装置構成の例を示す図である。図10の例では、機械学習モデル圧縮システム10~10-3は、複数のクライアント装置100a~100z、ネットワーク200及びサーバ装置300を備える。
2 学習部
10 機械学習モデル圧縮システム
11 第1の評価部
12 ソート部
13 削除部
14 抽出部
21 選択部
22 抽出制御部
23 生成部
24 第2の評価部
25 判定部
100 クライアント装置
200 ネットワーク
300 サーバ装置
501 制御装置
502 主記憶装置
503 補助記憶装置
504 表示装置
505 入力装置
506 通信装置
510 バス
Claims (7)
- 学習済み機械学習モデルのレイヤーを出力側から入力側の順に選択し、選択されたレイヤーに含まれる複数の重みを評価する第1の評価値を、入力チャネル単位で算出する第1の評価部と、
前記入力チャネル単位で算出された前記第1の評価値を昇順または降順にソートするソート部と、
前記第1の評価値が小さい順に所定の数だけ前記第1の評価値を選択し、選択された前記第1の評価値の算出に使用された前記入力チャネルを削除する削除部と、
を備える機械学習モデル圧縮システム。 - 前記第1の評価値は、前記複数の重みのL1ノルムである、
請求項1に記載の機械学習モデル圧縮システム。 - 所定の探索範囲に含まれる圧縮モデルの構造を決定するパラメータの選択処理を実行する選択部と、
前記削除部によって削除された前記入力チャネルに対応する重みを削除することによって、前記学習済み機械学習モデルから前記圧縮モデルの重みを抽出する重み抽出処理を実行する抽出部と、
前記パラメータを使用して前記圧縮モデルを生成し、前記抽出された重みを前記圧縮モデルの少なくとも1つのレイヤーの重みの初期値として設定する圧縮モデル生成処理を実行する生成部と、
前記圧縮モデルを所定の期間学習し、前記圧縮モデルの認識性能を示す第2の評価値を算出する性能評価処理を実行する第2の評価部と、
所定の終了条件に基づいて、前記パラメータの選択処理と、前記重み抽出処理と、前記圧縮モデル生成処理と、前記性能評価処理とを繰り返すか否かを判定する判定部と、
を更に備える請求項1又は2に記載の機械学習モデル圧縮システム。 - 前記生成部は、前記抽出された重みを前記圧縮モデルの重みの初期値として設定するレイヤーを指定する入力を受け付け、前記抽出された重みを、指定されたレイヤーの重みの初期値として設定する、
請求項3に記載の機械学習モデル圧縮システム。 - 前記所定の終了条件は、前記第2の評価値が評価閾値を超えた場合、前記第2の評価値の評価回数が回数閾値を超えた場合、又は、前記圧縮モデルの探索時間が時間閾値を超えた場合である、
請求項3又は4に記載の機械学習モデル圧縮システム。 - 機械学習モデル圧縮システムが、学習済み機械学習モデルのレイヤーを出力側から入力側の順に選択し、選択されたレイヤーに含まれる複数の重みを評価する第1の評価値を、入力チャネル単位で算出するステップと、
前記機械学習モデル圧縮システムが、前記入力チャネル単位で算出された前記第1の評価値を昇順または降順にソートするステップと、
前記機械学習モデル圧縮システムが、前記第1の評価値が小さい順に所定の数だけ前記第1の評価値を選択し、選択された前記第1の評価値の算出に使用された前記入力チャネルを削除するステップと、
を含むプルーニング方法。 - コンピュータを、
学習済み機械学習モデルのレイヤーを出力側から入力側の順に選択し、選択されたレイヤーに含まれる複数の重みを評価する第1の評価値を、入力チャネル単位で算出する第1の評価部と、
前記入力チャネル単位で算出された前記第1の評価値を昇順または降順にソートするソート部と、
前記第1の評価値が小さい順に所定の数だけ前記第1の評価値を選択し、選択された前記第1の評価値の算出に使用された前記入力チャネルを削除する削除部、
として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020017920A JP7242590B2 (ja) | 2020-02-05 | 2020-02-05 | 機械学習モデル圧縮システム、プルーニング方法及びプログラム |
US17/002,820 US20210241172A1 (en) | 2020-02-05 | 2020-08-26 | Machine learning model compression system, pruning method, and computer program product |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020017920A JP7242590B2 (ja) | 2020-02-05 | 2020-02-05 | 機械学習モデル圧縮システム、プルーニング方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021124949A JP2021124949A (ja) | 2021-08-30 |
JP7242590B2 true JP7242590B2 (ja) | 2023-03-20 |
Family
ID=77062041
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020017920A Active JP7242590B2 (ja) | 2020-02-05 | 2020-02-05 | 機械学習モデル圧縮システム、プルーニング方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20210241172A1 (ja) |
JP (1) | JP7242590B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023077818A (ja) | 2021-11-25 | 2023-06-06 | 富士通株式会社 | 機械学習プログラム、機械学習方法、及び、情報処理装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170337472A1 (en) | 2016-05-19 | 2017-11-23 | Nec Laboratories America, Inc. | Passive pruning of filters in a convolutional neural network |
US20190258932A1 (en) | 2018-02-20 | 2019-08-22 | Samsung Electronics Co., Ltd. | Method of performing learning of deep neural network and apparatus thereof |
JP2019212206A (ja) | 2018-06-08 | 2019-12-12 | 沖電気工業株式会社 | ニューラルネットワーク軽量化装置、情報処理装置、ニューラルネットワーク軽量化方法およびプログラム |
JP2020008993A (ja) | 2018-07-04 | 2020-01-16 | 株式会社東芝 | 学習方法、学習装置および画像認識システム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7657494B2 (en) * | 2006-09-20 | 2010-02-02 | Chevron U.S.A. Inc. | Method for forecasting the production of a petroleum reservoir utilizing genetic programming |
-
2020
- 2020-02-05 JP JP2020017920A patent/JP7242590B2/ja active Active
- 2020-08-26 US US17/002,820 patent/US20210241172A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170337472A1 (en) | 2016-05-19 | 2017-11-23 | Nec Laboratories America, Inc. | Passive pruning of filters in a convolutional neural network |
US20190258932A1 (en) | 2018-02-20 | 2019-08-22 | Samsung Electronics Co., Ltd. | Method of performing learning of deep neural network and apparatus thereof |
JP2019212206A (ja) | 2018-06-08 | 2019-12-12 | 沖電気工業株式会社 | ニューラルネットワーク軽量化装置、情報処理装置、ニューラルネットワーク軽量化方法およびプログラム |
JP2020008993A (ja) | 2018-07-04 | 2020-01-16 | 株式会社東芝 | 学習方法、学習装置および画像認識システム |
Non-Patent Citations (4)
Title |
---|
Hao Li et al.,Pruning Filters for Efficient ConvNets,arXiv,arXiv: 1608.08710v3,2017年03月10日,https://arxiv.org/abs/1608.08710v3,先行技術文献 |
佐々木 健太,ニューラルネットワークの全結合層におけるパラメータ削減手法の比較,DEIM Forum 2017 論文集,日本,電子情報通信学会データ工学研究専門委員会、日本データベース学会、情報処理学会データベースシステム研究会,2017年03月,DEIM 2017 B3-3 |
山本 康平,ディープラーニングのモデル軽量化技術,OKIテクニカルレビュー,日本,沖電気工業株式会社,2019年05月20日,第233号, Vol. 86, No. 1,pp. 24-27 |
谷口 敦司,重み係数のスパース化による深層ニューラルネットワークのコンパクト化技術,東芝レビュー[online],2019年07月,Vlo. 74, No. 4,pp. 42-45,ISSN 2432-1168 |
Also Published As
Publication number | Publication date |
---|---|
JP2021124949A (ja) | 2021-08-30 |
US20210241172A1 (en) | 2021-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11334795B2 (en) | Automated and adaptive design and training of neural networks | |
US11282208B2 (en) | Identifying target objects using scale-diverse segmentation neural networks | |
US9519868B2 (en) | Semi-supervised random decision forests for machine learning using mahalanobis distance to identify geodesic paths | |
JP6937330B2 (ja) | 機械学習モデル圧縮システム、機械学習モデル圧縮方法及びプログラム | |
JP5521881B2 (ja) | 画像識別情報付与プログラム及び画像識別情報付与装置 | |
US11301509B2 (en) | Image search system, image search method, and program | |
CN112418292B (zh) | 一种图像质量评价的方法、装置、计算机设备及存储介质 | |
US20200133998A1 (en) | Estimation method, estimation apparatus, and computer-readable recording medium | |
US11562294B2 (en) | Apparatus and method for analyzing time-series data based on machine learning | |
CN112488999B (zh) | 一种图像中小目标检测方法、系统、存储介质及终端 | |
CN114580263A (zh) | 基于知识图谱的信息系统故障预测方法及相关设备 | |
CN112446888A (zh) | 图像分割模型的处理方法和处理装置 | |
CN103177177A (zh) | 信息处理设备、估计器生成方法和程序 | |
JP7242590B2 (ja) | 機械学習モデル圧縮システム、プルーニング方法及びプログラム | |
WO2022036520A1 (en) | Method and apparatus for enhancing performance of machine learning classification task | |
CN113869332A (zh) | 一种特征选择方法、装置、存储介质和设备 | |
US20200257999A1 (en) | Storage medium, model output method, and model output device | |
CN114118411A (zh) | 图像识别网络的训练方法、图像识别方法及装置 | |
US11295229B1 (en) | Scalable generation of multidimensional features for machine learning | |
US11676050B2 (en) | Systems and methods for neighbor frequency aggregation of parametric probability distributions with decision trees using leaf nodes | |
US20200372280A1 (en) | Apparatus and method for image processing for machine learning | |
JP6217164B2 (ja) | データ管理装置及びデータ分析装置 | |
CN114283350B (zh) | 视觉模型训练和视频处理方法、装置、设备及存储介质 | |
US11551436B2 (en) | Method and processing unit for computer-implemented analysis of a classification model | |
KR102317205B1 (ko) | 압축된 데이터를 복원하는 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220228 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230308 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7242590 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |