JP7112802B1 - 学習モデルの軽量化 - Google Patents
学習モデルの軽量化 Download PDFInfo
- Publication number
- JP7112802B1 JP7112802B1 JP2022073380A JP2022073380A JP7112802B1 JP 7112802 B1 JP7112802 B1 JP 7112802B1 JP 2022073380 A JP2022073380 A JP 2022073380A JP 2022073380 A JP2022073380 A JP 2022073380A JP 7112802 B1 JP7112802 B1 JP 7112802B1
- Authority
- JP
- Japan
- Prior art keywords
- learning
- model
- weight
- data
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 claims abstract description 79
- 239000013585 weight reducing agent Substances 0.000 claims abstract description 55
- 238000000034 method Methods 0.000 claims abstract description 44
- 238000010801 machine learning Methods 0.000 claims abstract description 16
- 238000013528 artificial neural network Methods 0.000 claims abstract description 13
- 238000003672 processing method Methods 0.000 claims abstract description 11
- 238000012545 processing Methods 0.000 claims description 18
- 230000015654 memory Effects 0.000 claims description 4
- 238000012549 training Methods 0.000 abstract description 8
- 230000006835 compression Effects 0.000 description 19
- 238000007906 compression Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 11
- 238000004821 distillation Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 8
- 238000013138 pruning Methods 0.000 description 8
- 238000013139 quantization Methods 0.000 description 8
- 230000007786 learning performance Effects 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
Description
<システム構成>
図1は、実施形態に係るシステム構成の一例を示す図である。図1に示す例では、サーバ10と、各情報処理装置20A、20B、20C、20Dとが、ネットワークを介してデータ送受信可能なように接続される。情報処理装置を個別に区別しない場合は情報処理装置20とも表記する。
図2は、実施形態に係る情報処理装置10の物理的構成の一例を示す図である。情報処理装置10は、演算部に相当する1又は複数のCPU(Central Processing Unit)10aと、記憶部に相当するRAM(Random Access Memory)10bと、記憶部に相当するROM(Read only Memory)10cと、通信部10dと、入力部10eと、表示部10fと、を有する。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。
図3は、実施形態に係る情報処理装置10の処理ブロックの一例を示す図である。情報処理装置10は、取得部101、第1学習部102、変更部103、第2学習部104、予測部105、判定部106、設定部107、関連付け部108、特定部109、表示制御部110、出力部111、及び記憶部112を備える。例えば、図3に示す第1学習部102、変更部103、第2学習部104、予測部105、判定部106、設定部107、関連付け部108、特定部109、表示制御部110は、例えばCPU10aなどにより実行されて実現され、取得部101及び出力部111は、例えば通信部10dなどにより実現され、記憶部112は、RAM10b及び/又はROM10cなどにより実現され得る。
M1(x)=w1m1(x)+w2m2(x)+w3m3(x) …式(1)
wn:重み(各重みの集合(セット)をWとも表記する)
mn(x):第nモデル
x:学習データ
<データ例>
図7は、実施形態に係る関係情報の一例を示す図である。図7に示す例では、関係情報は、各第1変数(例、P11)及び各第2変数(例、P21)に対応する各重み(例、W1)を含む。第1変数P1nは、例えば学習精度であり、第2変数P2nは例えばモデルサイズの圧縮率であり、変数としてはいずれかの変数だけでもよい。各重みW(P1n,P2m)は、第第1変数P1n及び第2変数P2nの場合の重みである。
図8は、実施形態に係る関係情報の表示例を示す図である。図8に示す例では、関係情報に含まれる第1変数と第2変数とをスライドバーを用いて変更可能にする。ユーザが第1変数又は第2変数に対してスライドバーを用いて移動させることで、例えば、移動後の第1変数(P1n)又は第2変数(P2m)に対応する各重みWのセットW(P1n,P2m)が、対応する点に関連付けて表示される。
図9は、実施形態に係る予測モデルの生成に関する処理の一例を示すフローチャートである。図9に示す処理は、情報処理装置10により実行される。
Claims (9)
- 情報処理装置に含まれる1又は複数のプロセッサが、
所定の学習データを取得すること、
ニューラルネットワークを用いる所定の学習モデルに対して、蒸留処理された第1学習モデル、枝刈り処理された第2学習モデル、及び量子化処理された第3学習モデルの少なくとも2つのモデルを含む各モデルがそれぞれ重み付けされた重み学習モデルに、所定のデータを入力して機械学習を行うこと、
前記各モデルそれぞれの重みが変更された重み学習モデルごとに、前記所定の学習データを入力して前記機械学習が行われた場合の学習結果を取得すること、
変更された各重みが重み付けされた各重み学習モデルと、前記各重み学習モデルで学習されたときの各学習結果とを含む学習データを用いて、教師あり学習を行うこと、
前記教師あり学習により、任意の学習データを入力する場合に、各重みの集合ごとに学習結果を予測する予測モデルを生成すること、
を実行する、情報処理方法。 - 前記1又は複数のプロセッサは、
任意の学習データを前記予測モデルに入力し、前記各重みの集合ごとに、前記重み学習モデルを実行した場合の学習結果を予測することを実行する、請求項1に記載の情報処理方法。 - 前記1又は複数のプロセッサが、
前記任意の学習データを前記所定の学習モデルに入力した場合の学習結果と、前記予測モデルにより予測された学習結果とが、軽量化に関する所定条件を満たすか否かを判定すること、
前記所定条件の判定結果に基づいて、前記各重みの有効性を判定すること、
をさらに実行する請求項2に記載の情報処理方法。 - 前記1又は複数のプロセッサが、
前記軽量化に関する所定条件に関するユーザ操作を受け付けること、
前記ユーザ操作に基づいて、前記軽量化に関する所定条件を設定すること、
をさらに実行する請求項3に記載の情報処理方法。 - 前記プロセッサは、
前記学習結果に含まれる学習精度を第1変数、前記学習結果に含まれるモデルサイズに関する値を第2変数とし、前記第1変数及び前記第2変数と、前記各重みとを対応付ける関係情報を生成すること、
を実行する請求項1に記載の情報処理方法。 - 前記プロセッサは、
前記第1変数の第1値及び前記第2変数の第2値を取得すること、
前記関係情報に基づいて、前記第1値及び前記第2値に対応する各重みを特定すること、
を実行する請求項5に記載の情報処理方法。 - 前記重み学習モデルは、前記第1学習モデル、前記第2学習モデル、及び前記第3学習モデルそれぞれに重みが付与されて線形結合されたモデルを含む、請求項1に記載の情報処理方法。
- メモリと、1又は複数のプロセッサとを備える情報処理装置であって、
前記メモリは、
ニューラルネットワークを用いる所定の学習モデルと、
前記所定の学習モデルに対して、蒸留処理された第1学習モデル、枝刈り処理された第2学習モデル、及び量子化処理された第3学習モデルの少なくとも2つのモデルを含む各モデルがそれぞれ重み付けされた重み学習モデルと、を記憶し、
前記1又は複数のプロセッサは、
所定の学習データを取得すること、
前記重み学習モデルに、前記所定の学習データを入力して機械学習を行うこと、
前記各モデルそれぞれの重みが変更された重み学習モデルごとに、前記所定の学習データを入力して前記機械学習が行われた場合の学習結果を取得すること、
変更された各重みが重み付けされた各重み学習モデルと、前記各重み学習モデルで学習されたときの各学習結果とを含む学習データを用いて、教師あり学習を行うこと、
前記教師あり学習により、任意の学習データを入力する場合に、各重みの集合ごとに学習結果を予測する予測モデルを生成すること、
を実行する、情報処理装置。 - 情報処理装置に含まれる1又は複数のプロセッサに、
所定の学習データを取得すること、
ニューラルネットワークを用いる所定の学習モデルに対して、蒸留処理された第1学習モデル、枝刈り処理された第2学習モデル、及び量子化処理された第3学習モデルの少なくとも2つのモデルを含む各モデルがそれぞれ重み付けされた重み学習モデルに、所定の学習データを入力して機械学習を行うこと、
前記各モデルそれぞれの重みが変更された重み学習モデルごとに、前記所定の学習データを入力して前記機械学習が行われた場合の学習結果を取得すること、
変更された各重みが重み付けされた各重み学習モデルと、前記各重み学習モデルで学習されたときの各学習結果とを含む学習データを用いて、教師あり学習を行うこと、
前記教師あり学習により、任意の学習データを入力する場合に、各重みの集合ごとに学習結果を予測する予測モデルを生成すること、
を実行させる、プログラムを記録したコンピュータ読み取り可能な非一時的な記憶媒体。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022073380A JP7112802B1 (ja) | 2022-04-27 | 2022-04-27 | 学習モデルの軽量化 |
JP2022113601A JP2023163102A (ja) | 2022-04-27 | 2022-07-15 | 学習モデルの軽量化 |
PCT/JP2023/016014 WO2023210546A1 (ja) | 2022-04-27 | 2023-04-21 | 学習モデルの軽量化 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022073380A JP7112802B1 (ja) | 2022-04-27 | 2022-04-27 | 学習モデルの軽量化 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022113601A Division JP2023163102A (ja) | 2022-04-27 | 2022-07-15 | 学習モデルの軽量化 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7112802B1 true JP7112802B1 (ja) | 2022-08-04 |
JP2023162766A JP2023162766A (ja) | 2023-11-09 |
Family
ID=82702006
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022073380A Active JP7112802B1 (ja) | 2022-04-27 | 2022-04-27 | 学習モデルの軽量化 |
JP2022113601A Pending JP2023163102A (ja) | 2022-04-27 | 2022-07-15 | 学習モデルの軽量化 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022113601A Pending JP2023163102A (ja) | 2022-04-27 | 2022-07-15 | 学習モデルの軽量化 |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP7112802B1 (ja) |
WO (1) | WO2023210546A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200125956A1 (en) | 2017-05-20 | 2020-04-23 | Google Llc | Application Development Platform and Software Development Kits that Provide Comprehensive Machine Learning Services |
US20200311552A1 (en) | 2019-03-25 | 2020-10-01 | Samsung Electronics Co., Ltd. | Device and method for compressing machine learning model |
WO2022023022A1 (en) | 2020-07-28 | 2022-02-03 | Siemens Aktiengesellschaft | Method for automated determination of a model compression technique for compression of an artificial intelligence-based model |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112106081A (zh) * | 2018-05-07 | 2020-12-18 | 谷歌有限责任公司 | 提供综合机器学习服务的应用开发平台和软件开发套件 |
-
2022
- 2022-04-27 JP JP2022073380A patent/JP7112802B1/ja active Active
- 2022-07-15 JP JP2022113601A patent/JP2023163102A/ja active Pending
-
2023
- 2023-04-21 WO PCT/JP2023/016014 patent/WO2023210546A1/ja unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200125956A1 (en) | 2017-05-20 | 2020-04-23 | Google Llc | Application Development Platform and Software Development Kits that Provide Comprehensive Machine Learning Services |
US20200311552A1 (en) | 2019-03-25 | 2020-10-01 | Samsung Electronics Co., Ltd. | Device and method for compressing machine learning model |
WO2022023022A1 (en) | 2020-07-28 | 2022-02-03 | Siemens Aktiengesellschaft | Method for automated determination of a model compression technique for compression of an artificial intelligence-based model |
Also Published As
Publication number | Publication date |
---|---|
JP2023162766A (ja) | 2023-11-09 |
JP2023163102A (ja) | 2023-11-09 |
WO2023210546A1 (ja) | 2023-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7507287B2 (ja) | サンプル一致度評価による能動学習 | |
CN110766142A (zh) | 模型生成方法和装置 | |
US20240273394A1 (en) | Method of determining fusion parameter, method of recommending information, and method of training model | |
CN108921300A (zh) | 执行自动机器学习的方法和装置 | |
CA2436352A1 (en) | Process and system for developing a predictive model | |
CN108369664A (zh) | 调整神经网络的大小 | |
US11694165B2 (en) | Key-value memory network for predicting time-series metrics of target entities | |
JP2022033695A (ja) | モデルを生成するための方法、装置、電子機器、記憶媒体、及びコンピュータプログラム製品 | |
JP6942900B1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
EP3968648A1 (en) | Bitrate decision model training method and electronic device | |
WO2018220700A1 (ja) | 新規学習データセット生成方法、新規学習データセット生成装置および生成された学習データセットを用いた学習方法 | |
JP6955811B1 (ja) | 試験評価システム、プログラムおよび試験評価方法 | |
US20220253680A1 (en) | Sparse and differentiable mixture of experts neural networks | |
KR20240010581A (ko) | 머신 러닝 하이퍼파라미터 튜닝 | |
WO2023210665A1 (ja) | 計算グラフの改善 | |
US20240152809A1 (en) | Efficient machine learning model architecture selection | |
JP7437763B2 (ja) | 解析装置、解析方法及び解析プログラム | |
JP7112802B1 (ja) | 学習モデルの軽量化 | |
WO2022072890A1 (en) | Neural architecture and hardware accelerator search | |
JP2010204974A (ja) | 時系列データ予測装置 | |
JP7199115B1 (ja) | 機械学習における分散学習 | |
WO2021079966A1 (ja) | 分析装置、制御方法、及びプログラム | |
JP7078307B1 (ja) | 学習モデルの個別化 | |
US20230137995A1 (en) | Information processing method, storage medium, and information processing apparatus | |
US20240152554A1 (en) | System and methods for generating contextual graphs and integrated uses thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220427 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220629 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220715 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7112802 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |