JP7042210B2 - 学習モデル生成装置、学習モデル生成方法、及びプログラム - Google Patents
学習モデル生成装置、学習モデル生成方法、及びプログラム Download PDFInfo
- Publication number
- JP7042210B2 JP7042210B2 JP2018244688A JP2018244688A JP7042210B2 JP 7042210 B2 JP7042210 B2 JP 7042210B2 JP 2018244688 A JP2018244688 A JP 2018244688A JP 2018244688 A JP2018244688 A JP 2018244688A JP 7042210 B2 JP7042210 B2 JP 7042210B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- learning model
- layer
- unit
- replaced
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
実施の形態に係る学習モデル生成装置は、ニューラルネットワークのうち、特に画像認識処理に用いられることが多い畳込みニューラルネットワーク(Convolutional Neural Network;CNN)の学習モデルを主な処理対象とする。そこで、実施の形態に係る学習モデル生成装置の前提技術として、まず畳込みニューラルネットワークについて簡単に説明する。
実施の形態に係る学習モデル生成装置は、大きく分けて以下の4つのステップから構成される処理を実行する。まず、実施の形態に係る学習モデル生成装置は、複数の層から構成されるニューラルネットワークを用いて学習データを学習することにより、学習が終了した学習モデルである学習済みモデルを取得する(第1ステップ)。続いて、実施の形態に係る学習モデル生成装置は、取得した学習済みモデルを構成する層のうち、特に畳込み層又は全結合層の中から1以上の層を選択する(第2ステップ)。
図2は、実施の形態に係る学習モデル生成装置1の機能構成を模式的に示す図である。学習モデル生成装置1は、1以上の畳込み層を含むニューラルネットワークの学習モデルを生成する装置であり、記憶部2と制御部3とを備える。
学習モデル選択部35が学習モデルMを選択する際に、学習モデルMの認識性能は重要なパラメータとなる。そこで、学習モデル選択部35は、再学習部34が生成した複数の異なる学習モデルの中から、認識性能が最良となる学習モデルを選択する。この選択規範は、いわば認識性能重視の規範である。学習モデルMを実行する装置の計算リソースに余裕がある場合には、学習モデルMの認識性能を重視しつつ、できる限りモデルサイズを小さくすることが望まれる場合、学習モデル選択部35は認識性能が最良となる学習モデルを選択すればよい。
一方、学習モデルMの認識性能は重要であるものの、ある一定の認識性能が担保されていればよいという場合もありえる。この場合は、学習モデル選択部35は、一定の認識性能を持つことを条件に、モデルサイズの小さい学習モデルMを選択することで、学習モデルMの認識処理時の計算コストを下げ、認識速度を向上させることが期待できる。
さらに別の例として、例えばIoTデバイス等の計算リソースに余裕がない装置で学習モデルMを実行させることが要求される場合、学習モデルMのモデルサイズが装置によって定まる上限値を超えないことが求められる。そこで、条件取得部36は、学習モデルMのモデルサイズの上限値を取得する。学習モデル選択部35は、再学習部34が生成した複数の異なる学習モデルMの中から、条件取得部36が取得したモデルサイズの上限値を下回ることを条件として認識性能が最良となる学習モデルMを選択する。これにより、学習モデル選択部35は、認識性能とモデルサイズとのバランスの取れた学習モデルMを選択することができる。
続いて、畳込み層選択部31による畳込み層の選択パターンを説明する。
畳込み層選択部31による畳込み層の選択の仕方は基本的には任意である。ここで、畳込み層選択部31によってある畳込み層の構造が置換された場合、その層よりも後段側(出力層Lo側)に存在する層のモデルパラメータは、再学習部34による再学習によって変更される。そのため、再学習によってモデルパラメータが変更されてしまうのであれば、最も前段側(入力層Li側)に位置する構造が置換された畳込み層よりも後段側に存在する畳み込み層はすべて構造を置換するようにすることも一案として考えられる。
続いて、畳込み演算の計算量が少なくなる構造について説明する。実施の形態に係る層構造置換部32は、一般的な畳込み層を既知のセパラブルコンボリューション(Separable Convolution)の構造に置換する。セパラブルコンボリューションは既知の手法のため詳細な説明は省略するが、通常の3次元(2次元の空間方向と1次元のチャネル方向との合計)の畳み込みを、2次元の空間方向の畳込みと1次元のチャネル方向の畳込みとに分解して近似する手法である。
図7は、実施の形態に係る学習モデル生成装置1が実行する学習モデル生成処理の流れを説明するためのフローチャートである。本フローチャートにおける処理は、例えば学習モデル生成装置1が起動したときに開始する。
以上説明したように、実施の形態に係る学習モデル生成装置1によれば、ニューラルネットワークの学習モデルMの認識精度と、認識処理に要求される計算リソースとのバランスを取ることができる。
上記では、層構造置換部32は、畳込み層選択部31が選択した畳込み層の構造をセパラブルコンボリューションの構造に置換する場合について説明した。これに替えて、あるいはこれに加えて、層構造置換部32は、ニューラルネットワークを構成する全結合層を、既知のグローバルアベレージプーリング(Global Average Pooling;GAP)層に置換してもよい。これにより、学習モデル生成装置1は、ニューラルネットワークの学習モデルMの認識処理実行時の演算量とモデルサイズとを削減することができる。
2・・・記憶部
3・・・制御部
30・・・事前学習部
31・・・畳込み層選択部
32・・・層構造置換部
33・・・再学習用パラメータ設定部
34・・・再学習部
35・・・学習モデル選択部
36・・・条件取得部
Claims (10)
- 1以上の畳込み層を含むニューラルネットワークの学習モデルを生成する学習モデル生成装置であって、
学習用データを用いて学習することによって前記学習モデルのパラメータを初期化する事前学習部と、
前記ニューラルネットワークを構成する畳込み層の中から、複数の異なるパターンで前記畳込み層を選択する畳込み層選択部と、
前記畳込み層選択部が複数の異なるパターンで選択した畳込み層の構造を、畳込み演算の計算量が少なくなる構造にそれぞれ置換した複数の異なる置換済みニューラルネットワークを生成する層構造置換部と、
前記複数の異なる置換済みニューラルネットワークそれぞれについて、前記層構造置換部が置換した層以外の層に対応する前記学習モデルのパラメータが前記事前学習部によって初期化されたパラメータとなるように設定する再学習用パラメータ設定部と、
前記学習用データを用いて前記置換済みニューラルネットワークの学習モデルのパラメータを生成する再学習部と、
前記再学習部が生成した複数の異なる学習モデルの中から、各学習モデルの認識性能とモデルサイズとに少なくとも基づいて、一つの学習モデルを選択する学習モデル選択部と、
を備える学習モデル生成装置。 - 前記畳込み層選択部は、前記ニューラルネットワークを構成する畳込み層の中から複数の異なる畳込み層を選択するとともに、選択した各畳込み層それぞれについて当該畳込み層よりも前記ニューラルネットワークの出力層側に配置されている畳込み層をすべて選択することにより、複数の異なるパターンで前記畳込み層を選択する、
請求項1に記載の学習モデル生成装置。 - 前記学習モデル選択部は、前記再学習部が生成した複数の異なる学習モデルの中から、前記認識性能が最良となる学習モデルを選択する、
請求項1又は2に記載の学習モデル生成装置。 - 学習モデルの認識性能の下限値を取得する下限性能取得部をさらに備え、
前記学習モデル選択部は、前記再学習部が生成した複数の異なる学習モデルの中から、前記認識性能の下限値を上回ることを条件としてモデルサイズが最小となる学習モデルを選択する、
請求項1から3のいずれか1項に記載の学習モデル生成装置。 - 前記層構造置換部は、畳込み層選択部が選択した畳込み層における畳込みカーネルの構造を、畳込み層の空間方向とチャネル方向とに分離した構造に置換する、
請求項1から4のいずれか1項に記載の学習モデル生成装置。 - 前記層構造置換部は、前記ニューラルネットワークを構成する全結合層を、グローバルアベレージプーリング(Global Average Pooling;GAP)層に置換する、
請求項1から5のいずれか1項に記載の学習モデル生成装置。 - 1以上の畳込み層を含むニューラルネットワークの学習モデルを生成する学習モデル生成装置のプロセッサが、
学習用データを用いて学習することによって前記学習モデルのパラメータを初期化するステップと、
前記ニューラルネットワークを構成する畳込み層の中から、複数の異なるパターンで前記畳込み層を選択するステップと、
複数の異なるパターンで選択した前記畳込み層の構造を、畳込み演算の計算量が少なくなる構造にそれぞれ置換した複数の異なる置換済みニューラルネットワークを生成するステップと、
前記複数の異なる置換済みニューラルネットワークそれぞれについて、構造を置換した層以外の層に対応する前記学習モデルのパラメータが前記初期化したパラメータとなるように設定するステップと、
前記学習用データを用いて前記置換済みニューラルネットワークの学習モデルのパラメータを生成するステップと、
生成した複数の異なる学習モデルの中から、各学習モデルの認識性能とモデルサイズとに少なくとも基づいて、一つの学習モデルを選択するステップと、
を実行する学習モデル生成方法。 - 1以上の畳込み層を含むニューラルネットワークの学習モデルを生成するコンピュータに、
学習用データを用いて学習することによって前記学習モデルのパラメータを初期化する機能と、
前記ニューラルネットワークを構成する畳込み層の中から、複数の異なるパターンで前記畳込み層を選択する機能と、
複数の異なるパターンで選択した前記畳込み層の構造を、畳込み演算の計算量が少なくなる構造にそれぞれ置換した複数の異なる置換済みニューラルネットワークを生成する機能と、
前記複数の異なる置換済みニューラルネットワークそれぞれについて、構造を置換した層以外の層に対応する前記学習モデルのパラメータが前記初期化したパラメータとなるように設定する機能と、
前記学習用データを用いて前記置換済みニューラルネットワークの学習モデルのパラメータを生成する機能と、
生成した複数の異なる学習モデルの中から、各学習モデルの認識性能とモデルサイズとに少なくとも基づいて、一つの学習モデルを選択する機能と、
を実現させるプログラム。 - 1以上の畳込み層を含むニューラルネットワークの学習モデルを生成する学習モデル生成装置であって、
学習用データを用いて学習することによって前記学習モデルのパラメータを初期化する事前学習部と、
前記ニューラルネットワークを構成する畳込み層の中から、複数の異なるパターンで前記畳込み層を選択する畳込み層選択部と、
前記畳込み層選択部が複数の異なるパターンで選択した前記畳込み層を、それぞれ異なる構造の畳込み層で置換した複数の異なる置換済みニューラルネットワークを生成する層構造置換部と、
前記複数の異なる置換済みニューラルネットワークそれぞれについて、前記層構造置換部が置換した層以外の層に対応する前記学習モデルのパラメータが前記事前学習部によって初期化されたパラメータとなるように設定する再学習用パラメータ設定部と、
前記再学習用パラメータ設定部がパラメータを設定した前記複数の異なる置換済みニューラルネットワークそれぞれを、前記学習用データを用いて学習して複数の異なる学習モデルを生成する再学習部と、
前記再学習部が生成した複数の異なる学習モデルのうち、前記事前学習部が生成した学習モデルよりもモデルサイズが小さいことを条件として、認識性能が最良となる学習モデルを選択する学習モデル選択部と、
を備える学習モデル生成装置。 - 1以上の畳込み層を含むニューラルネットワークの学習モデルを生成する学習モデル生成装置であって、
学習用データを用いて学習することによって前記学習モデルのパラメータを初期化する事前学習部と、
前記ニューラルネットワークを構成する畳込み層の中から、複数の異なるパターンで前記畳込み層を選択する畳込み層選択部と、
前記畳込み層選択部が複数の異なるパターンで選択した前記畳込み層を、それぞれ異なる構造の畳込み層で置換した複数の異なる置換済みニューラルネットワークを生成する層構造置換部と、
前記複数の異なる置換済みニューラルネットワークそれぞれについて、前記層構造置換部が置換した層以外の層に対応する前記学習モデルのパラメータが前記事前学習部によって初期化されたパラメータとなるように設定する再学習用パラメータ設定部と、
前記再学習用パラメータ設定部がパラメータを設定した前記複数の異なる置換済みニューラルネットワークそれぞれを、前記学習用データを用いて学習して複数の異なる学習モデルを生成する再学習部と、
前記再学習部が生成した複数の異なる学習モデルの中から、各学習モデルの認識性能とモデルサイズとに少なくとも基づいて、一つの学習モデルを選択する学習モデル選択部と、
を備える学習モデル生成装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018244688A JP7042210B2 (ja) | 2018-12-27 | 2018-12-27 | 学習モデル生成装置、学習モデル生成方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018244688A JP7042210B2 (ja) | 2018-12-27 | 2018-12-27 | 学習モデル生成装置、学習モデル生成方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020107042A JP2020107042A (ja) | 2020-07-09 |
JP7042210B2 true JP7042210B2 (ja) | 2022-03-25 |
Family
ID=71450845
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018244688A Active JP7042210B2 (ja) | 2018-12-27 | 2018-12-27 | 学習モデル生成装置、学習モデル生成方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7042210B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010132721A2 (en) * | 2009-05-13 | 2010-11-18 | Midwest Industrial Supply, Inc. | Dust supression agent |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114912569A (zh) * | 2021-02-10 | 2022-08-16 | 华为技术有限公司 | 一种模型训练方法及装置 |
CN113313650B (zh) * | 2021-06-09 | 2023-10-13 | 北京百度网讯科技有限公司 | 图像画质增强方法、装置、设备和介质 |
JP7090817B1 (ja) | 2021-06-14 | 2022-06-24 | 三菱電機株式会社 | ニューラルネットワーク構築装置、ニューラルネットワーク構築方法、画像処理装置、及び画像処理方法 |
JP7551577B2 (ja) | 2021-08-18 | 2024-09-17 | 株式会社東芝 | 学習装置、方法及びプログラム |
CN114037058B (zh) * | 2021-11-05 | 2024-05-17 | 北京百度网讯科技有限公司 | 预训练模型的生成方法、装置、电子设备以及存储介质 |
CN114818600A (zh) * | 2022-04-29 | 2022-07-29 | 上海阵量智能科技有限公司 | 一种芯片验证方法、装置、电子设备以及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018506785A (ja) | 2015-01-22 | 2018-03-08 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | モデル圧縮および微調整 |
US20180137406A1 (en) | 2016-11-15 | 2018-05-17 | Google Inc. | Efficient Convolutional Neural Networks and Techniques to Reduce Associated Computational Costs |
JP2018092615A (ja) | 2016-12-01 | 2018-06-14 | 富士通株式会社 | 畳み込みニューラルネットワークモデルの決定装置及び決定方法 |
-
2018
- 2018-12-27 JP JP2018244688A patent/JP7042210B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018506785A (ja) | 2015-01-22 | 2018-03-08 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | モデル圧縮および微調整 |
US20180137406A1 (en) | 2016-11-15 | 2018-05-17 | Google Inc. | Efficient Convolutional Neural Networks and Techniques to Reduce Associated Computational Costs |
JP2018092615A (ja) | 2016-12-01 | 2018-06-14 | 富士通株式会社 | 畳み込みニューラルネットワークモデルの決定装置及び決定方法 |
Non-Patent Citations (2)
Title |
---|
LIN, M et al.,Network In Network,arXiv.org [online],2014年03月04日,pp. 1-10,[retrieved on 2021.11.24], Retrieved from the Internet: <URL: https://arxiv.org/abs/1312.4400v3> |
中山英樹,画像認識分野における深層学習の発展と最新動向(後編),画像ラボ,第27巻, 第5号,日本,日本工業出版株式会社,2016年05月10日,pp. 14-23,ISSN 0915-6755 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010132721A2 (en) * | 2009-05-13 | 2010-11-18 | Midwest Industrial Supply, Inc. | Dust supression agent |
Also Published As
Publication number | Publication date |
---|---|
JP2020107042A (ja) | 2020-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7042210B2 (ja) | 学習モデル生成装置、学習モデル生成方法、及びプログラム | |
JP7246392B2 (ja) | ニューラルネットワークの関数サブネットワークの同時トレーニング | |
JP6657137B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
Andonie et al. | Weighted random search for CNN hyperparameter optimization | |
KR102217761B1 (ko) | 신경 네트워크의 파라미터들을 적응시키기 위한 방법 및 장치 | |
JP7478145B2 (ja) | 機械学習モデルの自動生成 | |
Coates et al. | Deep learning with COTS HPC systems | |
US11481637B2 (en) | Configuring computational elements for performing a training operation for a generative adversarial network | |
JP7376731B2 (ja) | 画像認識モデル生成方法、装置、コンピュータ機器及び記憶媒体 | |
CN107292352B (zh) | 基于卷积神经网络的图像分类方法和装置 | |
US20200151573A1 (en) | Dynamic precision scaling at epoch granularity in neural networks | |
US20210272295A1 (en) | Analysing Objects in a Set of Frames | |
DE102019103319A1 (de) | Stochastisches runden von zahlenwerten | |
CN114968612B (zh) | 一种数据处理方法、系统及相关设备 | |
US12079734B1 (en) | Compilation time reduction for memory and compute bound neural networks | |
JP2022008236A (ja) | ニューロモルフィック装置及びニューラルネットワークを具現する方法 | |
Everett et al. | Protocaps: A fast and non-iterative capsule network routing method | |
JP7241009B2 (ja) | 学習装置、学習方法及びプログラム | |
Vojáček et al. | Growing neural gas–a parallel approach | |
Zhou et al. | Efficient image evidence analysis of cnn classification results | |
Raspa et al. | A framework with cloud integration for cnn acceleration on fpga devices | |
US12079717B2 (en) | Data processing apparatus, training apparatus, method of detecting an object, method of training, and medium | |
US20240144051A1 (en) | Hardware-aware generation of machine learning models | |
US20220121922A1 (en) | System and method for automated optimazation of a neural network model | |
KR20210047489A (ko) | 인공신경망을 이용한 진단 영상을 구분하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220314 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7042210 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |