JP6831347B2 - 学習装置、学習方法および学習プログラム - Google Patents
学習装置、学習方法および学習プログラム Download PDFInfo
- Publication number
- JP6831347B2 JP6831347B2 JP2018073498A JP2018073498A JP6831347B2 JP 6831347 B2 JP6831347 B2 JP 6831347B2 JP 2018073498 A JP2018073498 A JP 2018073498A JP 2018073498 A JP2018073498 A JP 2018073498A JP 6831347 B2 JP6831347 B2 JP 6831347B2
- Authority
- JP
- Japan
- Prior art keywords
- layer
- learning
- deleted
- neural network
- contribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
Description
以下の実施の形態では、まず多層ニューラルネットの一種であるResidual Networkについて説明し、第一の実施の形態に係る学習装置の構成、学習装置における処理の流れを順に説明し、最後に第一の実施の形態による効果を説明する。
Residual Networkは、Residual Unitと呼ばれるユニットを積み重ねていくことで、多層構造を構築する多層ニューラルネットの一種である。Residual Unitは以下の(1)式で表される。
図1を用いて、学習装置10の構成を説明する。図1は、第一の実施の形態に係る学習装置の構成例を示すブロック図である。図1に示すように、この学習装置10は、入力部11、出力部12、制御部13および記憶部14を有する。以下に学習装置10が有する各部の処理を説明する。
次に、学習装置10による処理を実現する疑似コードについて説明する。図3は、第一の実施の形態に係る学習装置による処理を実現する疑似コードの一例を示す図である。また、主な記号を下表に示す。以下の各説明において、同一の記号を用いる。
次に、図4を用いて、第一の実施の形態に係る学習装置10の処理の流れを説明する。図4は、第一の実施の形態に係る学習装置による処理を説明するフローチャートである。
このように、第一の実施の形態に係る学習装置10は、多層ニューラルネットワークにおける各層について、該多層ニューラルネットワークの推定結果に対する寄与の度合いを示す寄与度をそれぞれ計算し、各層の寄与度に基づいて、削除対象の層を選択する。そして、学習装置10は、選択された削除対象の層を多層ニューラルネットワークから削除し、削除対象の層が削除された多層ニューラルネットワークの学習を行う。つまり、学習装置10では、各層の推定結果への寄与度に基づいて、寄与度の小さい層を削除しつつ、削除後のモデルで、再学習を行い精度の低下を防止する。このため、学習装置10では、精度の低下を防ぎつつ、多層ニューラルネットワークにおける層を削除することが可能である。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
図5は、学習プログラムを実行するコンピュータを示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
11 入力部
12 出力部
13 制御部
13a 計算部
13b 選択部
13c 削除部
13d 学習部
14 記憶部
Claims (5)
- 多層ニューラルネットワークにおける各層について、該多層ニューラルネットワークの推定結果に対する寄与の度合いを示す寄与度を、学習によって獲得される所定のスカラー値、または所定の非線形写像の中に含まれるパラメータのノルムに基づいて、それぞれ計算する計算部と、
前記計算部によって計算された各層の寄与度に基づいて、削除対象の層を選択する選択部と、
前記選択部によって選択された削除対象の層を前記多層ニューラルネットワークから削除する削除部と、
前記削除部によって削除対象の層が削除された多層ニューラルネットワークの学習を行う学習部と
を有することを特徴とする学習装置。 - 前記選択部は、前記計算部によって計算された各層の寄与度を比較し、前記寄与度が低い所定数の層を前記削除対象の層として選択することを特徴とする請求項1に記載の学習装置。
- 前記選択部は、任意に設定変更可能な所定数の層を、前記削除対象の層として選択することを特徴とする請求項1に記載の学習装置。
- 学習装置によって実行される学習方法であって、
多層ニューラルネットワークにおける各層について、該多層ニューラルネットワークの推定結果に対する寄与の度合いを示す寄与度を、学習によって獲得される所定のスカラー値、または所定の非線形写像の中に含まれるパラメータのノルムに基づいて、それぞれ計算する計算工程と、
前記計算工程によって計算された各層の寄与度に基づいて、削除対象の層を選択する選択工程と、
前記選択工程によって選択された削除対象の層を前記多層ニューラルネットワークから削除する削除工程と、
前記削除工程によって削除対象の層が削除された多層ニューラルネットワークの学習を行う学習工程と
を含んだことを特徴とする学習方法。 - 多層ニューラルネットワークにおける各層について、該多層ニューラルネットワークの推定結果に対する寄与の度合いを示す寄与度を、学習によって獲得される所定のスカラー値、または所定の非線形写像の中に含まれるパラメータのノルムに基づいて、それぞれ計算する計算ステップと、
前記計算ステップによって計算された各層の寄与度に基づいて、削除対象の層を選択する選択ステップと、
前記選択ステップによって選択された削除対象の層を前記多層ニューラルネットワークから削除する削除ステップと、
前記削除ステップによって削除対象の層が削除された多層ニューラルネットワークの学習を行う学習ステップと
をコンピュータに実行させるための学習プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018073498A JP6831347B2 (ja) | 2018-04-05 | 2018-04-05 | 学習装置、学習方法および学習プログラム |
US16/980,430 US20200410348A1 (en) | 2018-04-05 | 2019-04-04 | Learning device, learning method, and learning program |
PCT/JP2019/015040 WO2019194299A1 (ja) | 2018-04-05 | 2019-04-04 | 学習装置、学習方法および学習プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018073498A JP6831347B2 (ja) | 2018-04-05 | 2018-04-05 | 学習装置、学習方法および学習プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019185275A JP2019185275A (ja) | 2019-10-24 |
JP6831347B2 true JP6831347B2 (ja) | 2021-02-17 |
Family
ID=68100754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018073498A Active JP6831347B2 (ja) | 2018-04-05 | 2018-04-05 | 学習装置、学習方法および学習プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20200410348A1 (ja) |
JP (1) | JP6831347B2 (ja) |
WO (1) | WO2019194299A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020086738A (ja) * | 2018-11-21 | 2020-06-04 | 沖電気工業株式会社 | 情報処理装置および情報処理方法 |
US20220300818A1 (en) * | 2019-12-03 | 2022-09-22 | Nec Solution Innovators, Ltd. | Structure optimization apparatus, structure optimization method, and computer-readable recording medium |
JP7373387B2 (ja) | 2019-12-20 | 2023-11-02 | 株式会社デンソーテン | 情報処理装置 |
JP7189865B2 (ja) * | 2019-12-27 | 2022-12-14 | Kddi株式会社 | モデル圧縮装置及びプログラム |
WO2021156941A1 (ja) * | 2020-02-04 | 2021-08-12 | 三菱電機株式会社 | 構造変換装置、構造変換方法及び構造変換プログラム |
JP2021197108A (ja) | 2020-06-18 | 2021-12-27 | 富士通株式会社 | 学習プログラム、学習方法および情報処理装置 |
JP2022007168A (ja) | 2020-06-25 | 2022-01-13 | 富士通株式会社 | 学習プログラム、学習方法および情報処理装置 |
JP2023549198A (ja) * | 2020-11-13 | 2023-11-22 | 日本電気株式会社 | 情報処理装置、情報処理方法及びプログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0583217B1 (en) * | 1992-08-11 | 2000-05-10 | Hitachi Europe Limited | Optimisation of feedforward neural networks |
JP2000259598A (ja) * | 1999-03-12 | 2000-09-22 | Fuji Electric Co Ltd | ニューラルネットワークの最適化学習方法 |
AU2017230184B2 (en) * | 2016-03-11 | 2021-10-07 | Magic Leap, Inc. | Structure learning in convolutional neural networks |
JP2017182319A (ja) * | 2016-03-29 | 2017-10-05 | 株式会社メガチップス | 機械学習装置 |
US10832135B2 (en) * | 2017-02-10 | 2020-11-10 | Samsung Electronics Co., Ltd. | Automatic thresholds for neural network pruning and retraining |
US20180336468A1 (en) * | 2017-05-16 | 2018-11-22 | Nec Laboratories America, Inc. | Pruning filters for efficient convolutional neural networks for image recognition in surveillance applications |
-
2018
- 2018-04-05 JP JP2018073498A patent/JP6831347B2/ja active Active
-
2019
- 2019-04-04 WO PCT/JP2019/015040 patent/WO2019194299A1/ja active Application Filing
- 2019-04-04 US US16/980,430 patent/US20200410348A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2019185275A (ja) | 2019-10-24 |
WO2019194299A1 (ja) | 2019-10-10 |
US20200410348A1 (en) | 2020-12-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6831347B2 (ja) | 学習装置、学習方法および学習プログラム | |
US11922321B2 (en) | Methods and systems for selecting quantisation parameters for deep neural networks using back-propagation | |
US10552737B2 (en) | Artificial neural network class-based pruning | |
US11556778B2 (en) | Automated generation of machine learning models | |
WO2018192200A1 (en) | System and method for training neural network | |
US11741348B2 (en) | Neural network circuit device, neural network, neural network processing method, and neural network execution program | |
Lan et al. | Matrix recovery from quantized and corrupted measurements | |
WO2022105108A1 (zh) | 一种网络数据分类方法、装置、设备及可读存储介质 | |
WO2020003434A1 (ja) | 機械学習方法、機械学習装置、及び機械学習プログラム | |
US20190138929A1 (en) | System and method for automatic building of learning machines using learning machines | |
CN109145107B (zh) | 基于卷积神经网络的主题提取方法、装置、介质和设备 | |
Ying et al. | Performance limits of stochastic sub-gradient learning, Part I: Single agent case | |
JP2018195231A (ja) | 学習モデル作成装置、該方法および該プログラム | |
EP4343616A1 (en) | Image classification method, model training method, device, storage medium, and computer program | |
JP2014160456A (ja) | 疎変数最適化装置、疎変数最適化方法および疎変数最適化プログラム | |
WO2020107264A1 (zh) | 神经网络架构搜索的方法与装置 | |
US20220076121A1 (en) | Method and apparatus with neural architecture search based on hardware performance | |
CN116166967B (zh) | 基于元学习与残差网络的数据处理方法、设备和存储介质 | |
CN112699938B (zh) | 一种基于图卷积网络模型的分类方法及装置 | |
CN113066486B (zh) | 数据识别方法、装置、电子设备和计算机可读存储介质 | |
CN117114087B (zh) | 故障预测方法、计算机设备和可读存储介质 | |
WO2023082278A1 (en) | Apparatus and method for reinforcement learning based post-training sparsification | |
US20240143985A1 (en) | Identifying one or more quantisation parameters for quantising values to be processed by a neural network | |
TWI659324B (zh) | 電路規劃結果產生方法與系統 | |
WO2021250754A1 (ja) | 学習装置、学習方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200805 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200929 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210126 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210128 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6831347 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |