JP2020107042A - 学習モデル生成装置、学習モデル生成方法、及びプログラム - Google Patents
学習モデル生成装置、学習モデル生成方法、及びプログラム Download PDFInfo
- Publication number
- JP2020107042A JP2020107042A JP2018244688A JP2018244688A JP2020107042A JP 2020107042 A JP2020107042 A JP 2020107042A JP 2018244688 A JP2018244688 A JP 2018244688A JP 2018244688 A JP2018244688 A JP 2018244688A JP 2020107042 A JP2020107042 A JP 2020107042A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- learning model
- layer
- unit
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
実施の形態に係る学習モデル生成装置は、ニューラルネットワークのうち、特に画像認識処理に用いられることが多い畳込みニューラルネットワーク(Convolutional Neural Network;CNN)の学習モデルを主な処理対象とする。そこで、実施の形態に係る学習モデル生成装置の前提技術として、まず畳込みニューラルネットワークについて簡単に説明する。
実施の形態に係る学習モデル生成装置は、大きく分けて以下の4つのステップから構成される処理を実行する。まず、実施の形態に係る学習モデル生成装置は、複数の層から構成されるニューラルネットワークを用いて学習データを学習することにより、学習が終了した学習モデルである学習済みモデルを取得する(第1ステップ)。続いて、実施の形態に係る学習モデル生成装置は、取得した学習済みモデルを構成する層のうち、特に畳込み層又は全結合層の中から1以上の層を選択する(第2ステップ)。
図2は、実施の形態に係る学習モデル生成装置1の機能構成を模式的に示す図である。学習モデル生成装置1は、1以上の畳込み層を含むニューラルネットワークの学習モデルを生成する装置であり、記憶部2と制御部3とを備える。
学習モデル選択部35が学習モデルMを選択する際に、学習モデルMの認識性能は重要なパラメータとなる。そこで、学習モデル選択部35は、再学習部34が生成した複数の異なる学習モデルの中から、認識性能が最良となる学習モデルを選択する。この選択規範は、いわば認識性能重視の規範である。学習モデルMを実行する装置の計算リソースに余裕がある場合には、学習モデルMの認識性能を重視しつつ、できる限りモデルサイズを小さくすることが望まれる場合、学習モデル選択部35は認識性能が最良となる学習モデルを選択すればよい。
一方、学習モデルMの認識性能は重要であるものの、ある一定の認識性能が担保されていればよいという場合もありえる。この場合は、学習モデル選択部35は、一定の認識性能を持つことを条件に、モデルサイズの小さい学習モデルMを選択することで、学習モデルMの認識処理時の計算コストを下げ、認識速度を向上させることが期待できる。
さらに別の例として、例えばIoTデバイス等の計算リソースに余裕がない装置で学習モデルMを実行させることが要求される場合、学習モデルMのモデルサイズが装置によって定まる上限値を超えないことが求められる。そこで、条件取得部36は、学習モデルMのモデルサイズの上限値を取得する。学習モデル選択部35は、再学習部34が生成した複数の異なる学習モデルMの中から、条件取得部36が取得したモデルサイズの上限値を下回ることを条件として認識性能が最良となる学習モデルMを選択する。これにより、学習モデル選択部35は、認識性能とモデルサイズとのバランスの取れた学習モデルMを選択することができる。
続いて、畳込み層選択部31による畳込み層の選択パターンを説明する。
畳込み層選択部31による畳込み層の選択の仕方は基本的には任意である。ここで、畳込み層選択部31によってある畳込み層の構造が置換された場合、その層よりも後段側(出力層Lo側)に存在する層のモデルパラメータは、再学習部34による再学習によって変更される。そのため、再学習によってモデルパラメータが変更されてしまうのであれば、最も前段側(入力層Li側)に位置する構造が置換された畳込み層よりも後段側に存在する畳み込み層はすべて構造を置換するようにすることも一案として考えられる。
続いて、畳込み演算の計算量が少なくなる構造について説明する。実施の形態に係る層構造置換部32は、一般的な畳込み層を既知のセパラブルコンボリューション(Separable Convolution)の構造に置換する。セパラブルコンボリューションは既知の手法のため詳細な説明は省略するが、通常の3次元(2次元の空間方向と1次元のチャネル方向との合計)の畳み込みを、2次元の空間方向の畳込みと1次元のチャネル方向の畳込みとに分解して近似する手法である。
図7は、実施の形態に係る学習モデル生成装置1が実行する学習モデル生成処理の流れを説明するためのフローチャートである。本フローチャートにおける処理は、例えば学習モデル生成装置1が起動したときに開始する。
以上説明したように、実施の形態に係る学習モデル生成装置1によれば、ニューラルネットワークの学習モデルMの認識精度と、認識処理に要求される計算リソースとのバランスを取ることができる。
上記では、層構造置換部32は、畳込み層選択部31が選択した畳込み層の構造をセパラブルコンボリューションの構造に置換する場合について説明した。これに替えて、あるいはこれに加えて、層構造置換部32は、ニューラルネットワークを構成する全結合層を、既知のグローバルアベレージプーリング(Global Average Pooling;GAP)層に置換してもよい。これにより、学習モデル生成装置1は、ニューラルネットワークの学習モデルMの認識処理実行時の演算量とモデルサイズとを削減することができる。
2・・・記憶部
3・・・制御部
30・・・事前学習部
31・・・畳込み層選択部
32・・・層構造置換部
33・・・再学習用パラメータ設定部
34・・・再学習部
35・・・学習モデル選択部
36・・・条件取得部
Claims (10)
- 1以上の畳込み層を含むニューラルネットワークの学習モデルを生成する学習モデル生成装置であって、
学習用データを用いて学習することによって前記学習モデルのパラメータを初期化する事前学習部と、
前記ニューラルネットワークを構成する畳込み層の中から、1以上の畳込み層を選択する畳込み層選択部と、
前記畳込み層選択部が選択した畳込み層の構造を、畳込み演算の計算量が少なくなる構造に置換した置換済みニューラルネットワークを生成する層構造置換部と、
前記層構造置換部が置換した層以外の層に対応する前記学習モデルのパラメータが前記事前学習部によって初期化されたパラメータとなるように設定する再学習用パラメータ設定部と、
前記学習用データを用いて前記置換済みニューラルネットワークの学習モデルのパラメータを生成する再学習部と、
を備える学習モデル生成装置。 - 前記畳込み層選択部は、前記ニューラルネットワークを構成する畳込み層の中から、複数の異なるパターンで前記畳込み層を選択し、
前記層構造置換部は、前記畳込み層選択部が複数の異なるパターンで選択した前記畳込み層をそれぞれ置換した複数の異なる置換済みニューラルネットワークを生成し、
前記再学習部は、前記複数の異なる置換済みニューラルネットワークそれぞれの学習モデルを生成し、
前記学習モデル生成装置は、
前記再学習部が生成した複数の異なる学習モデルの中から、各学習モデルの認識性能とモデルサイズとに少なくとも基づいて、一つの学習モデルを選択する学習モデル選択部をさらに備える、
請求項1に記載の学習モデル生成装置。 - 前記畳込み層選択部は、前記ニューラルネットワークを構成する畳込み層の中から複数の異なる畳込み層を選択するとともに、選択した各畳込み層それぞれについて当該畳込み層よりも前記ニューラルネットワークの出力層側に配置されている畳込み層をすべて選択することにより、複数の異なるパターンで前記畳込み層を選択する、
請求項2に記載の学習モデル生成装置。 - 前記学習モデル選択部は、前記再学習部が生成した複数の異なる学習モデルの中から、前記認識性能が最良となる学習モデルを選択する、
請求項2又は3に記載の学習モデル生成装置。 - 学習モデルの認識性能の下限値を取得する下限性能取得部をさらに備え、
前記学習モデル選択部は、前記再学習部が生成した複数の異なる学習モデルの中から、前記認識性能の下限値を上回ることを条件としてモデルサイズが最小となる学習モデルを選択する、
請求項2又は3に記載の学習モデル生成装置。 - 前記層構造置換部は、畳込み層選択部が選択した畳込み層における畳込みカーネルの構造を、畳込み層の空間方向とチャネル方向とに分離した構造に置換する、
請求項1から5のいずれか1項に記載の学習モデル生成装置。 - 前記層構造置換部は、前記ニューラルネットワークを構成する全結合層を、グローバルアベレージプーリング(Global Average Pooling;GAP)層に置換する、
請求項1から6のいずれか1項に記載の学習モデル生成装置。 - 1以上の畳込み層を含むニューラルネットワークの学習モデルを生成する学習モデル生成装置のプロセッサが、
学習用データを用いて学習することによって前記学習モデルのパラメータを初期化するステップと、
前記ニューラルネットワークを構成する畳込み層の中から、1以上の畳込み層を選択するステップと、
選択した前記畳込み層の構造を、畳込み演算の計算量が少なくなる構造に置換した置換済みニューラルネットワークを生成するステップと、
構造を置換した層以外の層に対応する前記学習モデルのパラメータが前記初期化したパラメータとなるように設定するステップと、
前記学習用データを用いて前記置換済みニューラルネットワークの学習モデルのパラメータを生成するステップと、
を実行する学習モデル生成方法。 - 1以上の畳込み層を含むニューラルネットワークの学習モデルを生成するコンピュータに、
学習用データを用いて学習することによって前記学習モデルのパラメータを初期化する機能と、
前記ニューラルネットワークを構成する畳込み層の中から、1以上の畳込み層を選択する機能と、
選択した前記畳込み層の構造を、畳込み演算の計算量が少なくなる構造に置換した置換済みニューラルネットワークを生成する機能と、
構造を置換した層以外の層に対応する前記学習モデルのパラメータが前記初期化したパラメータとなるように設定する機能と、
前記学習用データを用いて前記置換済みニューラルネットワークの学習モデルのパラメータを生成する機能と、
を実現させるプログラム。 - 1以上の畳込み層を含むニューラルネットワークの学習モデルを生成する学習モデル生成装置であって、
学習用データを用いて学習することによって前記学習モデルのパラメータを初期化する事前学習部と、
前記ニューラルネットワークを構成する畳込み層の中から、複数の異なるパターンで前記畳込み層を選択する畳込み層選択部と、
前記畳込み層選択部が複数の異なるパターンで選択した前記畳込み層を、それぞれ異なる構造の畳込み層で置換した複数の異なる置換済みニューラルネットワークを生成する層構造置換部と、
前記複数の異なる置換済みニューラルネットワークそれぞれについて、前記層構造置換部が置換した層以外の層に対応する前記学習モデルのパラメータが前記事前学習部によって初期化されたパラメータとなるように設定する再学習用パラメータ設定部と、
前記再学習用パラメータ設定部がパラメータを設定した前記複数の異なる置換済みニューラルネットワークそれぞれを、前記学習用データを用いて学習して複数の異なる学習モデルを生成する再学習部と、
前記再学習部が生成した複数の異なる学習モデルのうち、前記事前学習部が生成した学習モデルよりもモデルサイズが小さいことを条件として、認識性能が最良となる学習モデルを選択する学習モデル選択部と、
を備える学習モデル生成装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018244688A JP7042210B2 (ja) | 2018-12-27 | 2018-12-27 | 学習モデル生成装置、学習モデル生成方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018244688A JP7042210B2 (ja) | 2018-12-27 | 2018-12-27 | 学習モデル生成装置、学習モデル生成方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020107042A true JP2020107042A (ja) | 2020-07-09 |
JP7042210B2 JP7042210B2 (ja) | 2022-03-25 |
Family
ID=71450845
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018244688A Active JP7042210B2 (ja) | 2018-12-27 | 2018-12-27 | 学習モデル生成装置、学習モデル生成方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7042210B2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022088588A (ja) * | 2021-06-09 | 2022-06-14 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 画像画質補強方法、装置、機器および媒体 |
CN114818600A (zh) * | 2022-04-29 | 2022-07-29 | 上海阵量智能科技有限公司 | 一种芯片验证方法、装置、电子设备以及存储介质 |
WO2022171027A1 (zh) * | 2021-02-10 | 2022-08-18 | 华为技术有限公司 | 一种模型训练方法及装置 |
JP2023011883A (ja) * | 2021-11-05 | 2023-01-24 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 事前トレーニングモデルの生成方法、装置、電子機器、記憶媒体およびコンピュータプログラム |
DE112021007485T5 (de) | 2021-06-14 | 2024-02-01 | Mitsubishi Electric Corporation | Neuronales-netz-erstellungseinrichtung, neuronales-netz-erstellungsverfahren, bildverarbeitungseinrichtung und bildverarbeitungsverfahren |
JP7551577B2 (ja) | 2021-08-18 | 2024-09-17 | 株式会社東芝 | 学習装置、方法及びプログラム |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2761773A1 (en) * | 2009-05-13 | 2010-11-18 | Midwest Industrial Supply, Inc. | Dust suppression agent |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018506785A (ja) * | 2015-01-22 | 2018-03-08 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | モデル圧縮および微調整 |
US20180137406A1 (en) * | 2016-11-15 | 2018-05-17 | Google Inc. | Efficient Convolutional Neural Networks and Techniques to Reduce Associated Computational Costs |
JP2018092615A (ja) * | 2016-12-01 | 2018-06-14 | 富士通株式会社 | 畳み込みニューラルネットワークモデルの決定装置及び決定方法 |
-
2018
- 2018-12-27 JP JP2018244688A patent/JP7042210B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018506785A (ja) * | 2015-01-22 | 2018-03-08 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | モデル圧縮および微調整 |
US20180137406A1 (en) * | 2016-11-15 | 2018-05-17 | Google Inc. | Efficient Convolutional Neural Networks and Techniques to Reduce Associated Computational Costs |
JP2018092615A (ja) * | 2016-12-01 | 2018-06-14 | 富士通株式会社 | 畳み込みニューラルネットワークモデルの決定装置及び決定方法 |
Non-Patent Citations (2)
Title |
---|
LIN, M ET AL.: "Network In Network", ARXIV.ORG [ONLINE], JPN7021005280, 4 March 2014 (2014-03-04), pages 1 - 10, ISSN: 0004656323 * |
中山英樹: "画像認識分野における深層学習の発展と最新動向(後編)", 画像ラボ, vol. 第27巻, 第5号, JPN6020021481, 10 May 2016 (2016-05-10), JP, pages 14 - 23, ISSN: 0004656322 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022171027A1 (zh) * | 2021-02-10 | 2022-08-18 | 华为技术有限公司 | 一种模型训练方法及装置 |
JP2022088588A (ja) * | 2021-06-09 | 2022-06-14 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 画像画質補強方法、装置、機器および媒体 |
JP7389840B2 (ja) | 2021-06-09 | 2023-11-30 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 画像画質補強方法、装置、機器および媒体 |
DE112021007485T5 (de) | 2021-06-14 | 2024-02-01 | Mitsubishi Electric Corporation | Neuronales-netz-erstellungseinrichtung, neuronales-netz-erstellungsverfahren, bildverarbeitungseinrichtung und bildverarbeitungsverfahren |
JP7551577B2 (ja) | 2021-08-18 | 2024-09-17 | 株式会社東芝 | 学習装置、方法及びプログラム |
JP2023011883A (ja) * | 2021-11-05 | 2023-01-24 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 事前トレーニングモデルの生成方法、装置、電子機器、記憶媒体およびコンピュータプログラム |
CN114818600A (zh) * | 2022-04-29 | 2022-07-29 | 上海阵量智能科技有限公司 | 一种芯片验证方法、装置、电子设备以及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP7042210B2 (ja) | 2022-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020107042A (ja) | 学習モデル生成装置、学習モデル生成方法、及びプログラム | |
JP7246392B2 (ja) | ニューラルネットワークの関数サブネットワークの同時トレーニング | |
JP6726246B2 (ja) | 畳み込みニューラルネットワークにおいて演算を実行する方法および装置並びに非一時的な記憶媒体 | |
US20220383068A1 (en) | Systems and methods for improved neural network execution | |
JP6657137B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US11556778B2 (en) | Automated generation of machine learning models | |
JP7059318B2 (ja) | 地域的特徴を有する分類器学習のための学習データ生成方法およびそのシステム | |
Andonie et al. | Weighted random search for CNN hyperparameter optimization | |
US11481637B2 (en) | Configuring computational elements for performing a training operation for a generative adversarial network | |
US20200151573A1 (en) | Dynamic precision scaling at epoch granularity in neural networks | |
US9208278B2 (en) | Clustering using N-dimensional placement | |
US12073567B2 (en) | Analysing objects in a set of frames | |
US12079734B1 (en) | Compilation time reduction for memory and compute bound neural networks | |
Maljovec et al. | Adaptive sampling with topological scores | |
DE112020003105T5 (de) | Schicht für schicht-debugging von neuronalen netzwerken | |
JP6991960B2 (ja) | 画像認識装置、画像認識方法及びプログラム | |
CN111971692A (zh) | 卷积神经网络 | |
US10510177B2 (en) | Data processing device | |
CN116228850A (zh) | 物体姿态估计方法、装置、电子设备及可读存储介质 | |
Rios et al. | Back to meshes: Optimal simulation-ready mesh prototypes for autoencoder-based 3D car point clouds | |
US20240144051A1 (en) | Hardware-aware generation of machine learning models | |
CN116227585B (zh) | 集群任务的并行执行方法、装置、计算机设备和存储介质 | |
CN114331827B (zh) | 风格迁移方法、装置、设备和存储介质 | |
WO2020113459A1 (en) | Intermediate representation transformation by slice operation hoist | |
KR20240079692A (ko) | 특징 데이터의 의존성 학습을 위한 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220314 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7042210 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |