JP2019212206A - ニューラルネットワーク軽量化装置、情報処理装置、ニューラルネットワーク軽量化方法およびプログラム - Google Patents
ニューラルネットワーク軽量化装置、情報処理装置、ニューラルネットワーク軽量化方法およびプログラム Download PDFInfo
- Publication number
- JP2019212206A JP2019212206A JP2018110198A JP2018110198A JP2019212206A JP 2019212206 A JP2019212206 A JP 2019212206A JP 2018110198 A JP2018110198 A JP 2018110198A JP 2018110198 A JP2018110198 A JP 2018110198A JP 2019212206 A JP2019212206 A JP 2019212206A
- Authority
- JP
- Japan
- Prior art keywords
- channel
- neural network
- layer
- processing
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
Description
前記第1の学習器は、前記学習処理が行われている間に前記調整値を徐々に大きくする学習調整部を備えてもよい。
まず、本発明の実施形態の概要を説明する。近年、物体検知などの各種の分野においてニューラルネットワークが用いられている。しかし、ニューラルネットワークの高性能化を進めていくほど、ニューラルネットワークを構成するパラメータの数が大きくなってしまう傾向があり、パラメータの数が膨大となってしまと、ニューラルネットワークを用いた学習時および推論時に、メモリおよび演算装置に与える負荷が大きくなってしまう。そのため、ニューラルネットワークを軽量化する技術が研究されている。
続いて、本発明の実施形態の詳細について説明する。
続いて、本発明の実施形態に係るニューラルネットワーク軽量化装置10のハードウェア構成例について説明する。以下では、本発明の実施形態に係るニューラルネットワーク軽量化装置10のハードウェア構成例として、情報処理装置900のハードウェア構成例について説明する。なお、以下に説明する情報処理装置900のハードウェア構成例は、ニューラルネットワーク軽量化装置10のハードウェア構成の一例に過ぎない。したがって、ニューラルネットワーク軽量化装置10のハードウェア構成は、以下に説明する情報処理装置900のハードウェア構成から不要な構成が削除されてもよいし、新たな構成が追加されてもよい。
以上に説明したように、本発明の実施形態によれば、複数段の処理層それぞれが複数のチャネルによって接続されたニューラルネットワークの所定の処理層における少なくとも第1のチャネル数のチャネルそれぞれからの入力特徴量とパラメータとに基づいて、前記第1のチャネル数のチャネルそれぞれに対応する出力特徴量を算出するアテンション層と、前記入力特徴量に前記出力特徴量を乗算して得られた演算結果を、前記所定の処理層の次段の処理層に出力する演算部と、を有する、アテンションモジュールを備える、ニューラルネットワーク軽量化装置が提供される。
11 アテンション層
110 畳み込み層
112 活性化関数
114 畳み込み層
116 Softmax関数
118 乗算部
12 演算部
13 アテンションモジュール
14 チャネル選択部
15 削除部
16 第1の学習器
17 学習調整部
18 第2の学習器
20 ニューラルネットワーク
21 処理層
Claims (11)
- 複数段の処理層それぞれが複数のチャネルによって接続されたニューラルネットワークの所定の処理層における少なくとも第1のチャネル数のチャネルそれぞれからの入力特徴量とパラメータとに基づいて、前記第1のチャネル数のチャネルそれぞれに対応する出力特徴量を算出するアテンション層と、
前記入力特徴量に前記出力特徴量を乗算して得られた演算結果を、前記所定の処理層の次段の処理層に出力する演算部と、
を有する、アテンションモジュールと、
前記ニューラルネットワークに接続され、少なくとも前記所定の処理層及び次段の処理層の学習処理を停止させた状態で、誤差逆伝播法によって前記パラメータの学習処理を行う第1の学習器と、
前記学習処理が行われた後に前記アテンション層によって算出された前記出力特徴量と所定の閾値とが所定の関係を満たすチャネルを冗長チャネルとして選択するチャネル選択部と、
前記所定の処理層から前記冗長チャネルを削除することによって前記第1のチャネル数のチャネルを第2のチャネル数のチャネルに変更する削除部と、
前記ニューラルネットワークに接続され、前記冗長チャネルが削除された後に前記ニューラルネットワークの学習処理を行う第2の学習器と、
を備える、ニューラルネットワーク軽量化装置。 - 前記アテンション層は、前記入力特徴量と前記パラメータとに応じた特徴量と前記第1のチャネル数を所定の調整値で除した値との乗算結果を前記出力特徴量として算出し、
前記第1の学習器は、前記学習処理が行われている間に前記調整値を徐々に大きくする学習調整部を備える、
請求項1に記載のニューラルネットワーク軽量化装置。 - 前記学習調整部は、前記調整値をエポック単位またはイテレーション単位で大きくする、
請求項2に記載のニューラルネットワーク軽量化装置。 - 前記学習調整部は、前記第1のチャネル数が大きいほど前記調整値を大きくする、
請求項2に記載のニューラルネットワーク軽量化装置。 - 前記チャネル選択部は、前記出力特徴量が前記所定の閾値を下回るチャネルを前記冗長チャネルとして選択する、
請求項1に記載のニューラルネットワーク軽量化装置。 - 前記ニューラルネットワーク軽量化装置は、
前記複数の処理層それぞれに対応して、前記アテンションモジュール、前記チャネル選択部および前記削除部を有しており、
前記第2の学習器は、前記複数の処理層それぞれから前記冗長チャネルが削除された後に前記ニューラルネットワークの学習処理を行う、
請求項1に記載のニューラルネットワーク軽量化装置。 - 前記複数の処理層それぞれに対応する前記アテンションモジュールは、一部または全部が共通化されている、
請求項1に記載のニューラルネットワーク軽量化装置。 - 前記複数の処理層それぞれに対応する前記アテンションモジュールは、異なるモジュールである、
請求項1に記載のニューラルネットワーク軽量化装置。 - 複数段の処理層それぞれが複数のチャネルによって接続されたニューラルネットワークの所定の処理層における少なくとも第1のチャネル数のチャネルそれぞれからの入力特徴量とパラメータとに基づいて、前記第1のチャネル数のチャネルそれぞれに対応する出力特徴量を算出するアテンション層と、
前記入力特徴量に前記出力特徴量を乗算して得られた演算結果を、前記所定の処理層の次段の処理層に出力する演算部と、
を有する、アテンションモジュールと、
前記ニューラルネットワークに接続され、少なくとも前記所定の処理層及び次段の処理層の学習処理を停止させた状態で、誤差逆伝播法によって前記パラメータの学習処理を行う第1の学習器と、
前記学習処理が行われた後に前記アテンション層によって算出された前記出力特徴量と所定の閾値とが所定の関係を満たすチャネルを冗長チャネルとして選択するチャネル選択部と、
前記学習処理が行われた後に前記アテンション層によって算出された前記出力特徴量に応じた出力を行う出力部と、
を備える、情報処理装置。 - 複数段の処理層それぞれが複数のチャネルによって接続されたニューラルネットワークの所定の処理層における少なくとも第1のチャネル数のチャネルそれぞれからの入力特徴量とパラメータとに基づいて、前記第1のチャネル数のチャネルそれぞれに対応する出力特徴量を算出することと、
前記入力特徴量に前記出力特徴量を乗算して得られた演算結果を、前記所定の処理層の次段の処理層に出力することと、
前記ニューラルネットワークに接続され、少なくとも前記所定の処理層及び次段の処理層の学習処理を停止させた状態で、誤差逆伝播法によって前記パラメータの学習処理を行うことと、
前記学習処理が行われた後に算出された前記出力特徴量と所定の閾値とが所定の関係を満たすチャネルを冗長チャネルとして選択することと、
前記所定の処理層から前記冗長チャネルを削除することによって前記第1のチャネル数のチャネルを第2のチャネル数のチャネルに変更することと、
前記ニューラルネットワークに接続され、前記冗長チャネルが削除された後に前記ニューラルネットワークの学習処理を行うことと、
を含む、ニューラルネットワーク軽量化方法。 - コンピュータを、
複数段の処理層それぞれが複数のチャネルによって接続されたニューラルネットワークの所定の処理層における少なくとも第1のチャネル数のチャネルそれぞれからの入力特徴量とパラメータとに基づいて、前記第1のチャネル数のチャネルそれぞれに対応する出力特徴量を算出するアテンション層と、
前記入力特徴量に前記出力特徴量を乗算して得られた演算結果を、前記所定の処理層の次段の処理層に出力する演算部と、
を有する、アテンションモジュールと、
前記ニューラルネットワークに接続され、少なくとも前記所定の処理層及び次段の処理層の学習処理を停止させた状態で、誤差逆伝播法によって前記パラメータの学習処理を行う第1の学習器と、
前記学習処理が行われた後に前記アテンション層によって算出された前記出力特徴量と所定の閾値とが所定の関係を満たすチャネルを冗長チャネルとして選択するチャネル選択部と、
前記所定の処理層から前記冗長チャネルを削除することによって前記第1のチャネル数のチャネルを第2のチャネル数のチャネルに変更する削除部と、
前記ニューラルネットワークに接続され、前記冗長チャネルが削除された後に前記ニューラルネットワークの学習処理を行う第2の学習器と、
を備える、ニューラルネットワーク軽量化装置として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018110198A JP7047612B2 (ja) | 2018-06-08 | 2018-06-08 | ニューラルネットワーク軽量化装置、情報処理装置、ニューラルネットワーク軽量化方法およびプログラム |
US16/434,145 US11468331B2 (en) | 2018-06-08 | 2019-06-06 | Neural network load reduction device, information processing unit, and neural network load reduction method and computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018110198A JP7047612B2 (ja) | 2018-06-08 | 2018-06-08 | ニューラルネットワーク軽量化装置、情報処理装置、ニューラルネットワーク軽量化方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019212206A true JP2019212206A (ja) | 2019-12-12 |
JP7047612B2 JP7047612B2 (ja) | 2022-04-05 |
Family
ID=68765113
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018110198A Active JP7047612B2 (ja) | 2018-06-08 | 2018-06-08 | ニューラルネットワーク軽量化装置、情報処理装置、ニューラルネットワーク軽量化方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11468331B2 (ja) |
JP (1) | JP7047612B2 (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020144659A (ja) * | 2019-03-07 | 2020-09-10 | キヤノン株式会社 | データ処理装置及びその方法、プログラム |
JP2021103441A (ja) * | 2019-12-25 | 2021-07-15 | 沖電気工業株式会社 | ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム |
JP2021108039A (ja) * | 2019-12-27 | 2021-07-29 | Kddi株式会社 | モデル圧縮装置及びプログラム |
JP2021124949A (ja) * | 2020-02-05 | 2021-08-30 | 株式会社東芝 | 機械学習モデル圧縮システム、プルーニング方法及びプログラム |
EP3940601A1 (en) | 2020-07-14 | 2022-01-19 | Fujitsu Limited | Information processing apparatus, information processing method, and information program |
EP3996005A1 (en) | 2020-11-06 | 2022-05-11 | Fujitsu Limited | Calculation processing program, calculation processing method, and information processing device |
JP2022073696A (ja) * | 2020-11-02 | 2022-05-17 | 本田技研工業株式会社 | ノード枝刈り装置、ノード枝刈り方法、およびプログラム |
JP2022092592A (ja) * | 2020-12-10 | 2022-06-22 | 株式会社日立製作所 | 機器の故障及び残存耐用時間を予測する方法、装置及びプログラム |
US11449734B2 (en) | 2019-05-23 | 2022-09-20 | Oki Electric Industry Co., Ltd. | Neural network reduction device, neural network reduction method, and storage medium |
JP2023527489A (ja) * | 2020-03-17 | 2023-06-29 | 北京京東乾石科技有限公司 | モデル生成方法、オブジェクト検出方法、装置、機器、及び記憶媒体 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200053886A (ko) | 2018-11-09 | 2020-05-19 | 삼성전자주식회사 | 뉴럴 프로세싱 유닛, 뉴럴 프로세싱 시스템, 및 어플리케이션 시스템 |
US11444845B1 (en) * | 2019-03-05 | 2022-09-13 | Amazon Technologies, Inc. | Processing requests using compressed and complete machine learning models |
US11410016B2 (en) * | 2019-04-26 | 2022-08-09 | Alibaba Group Holding Limited | Selective performance of deterministic computations for neural networks |
CN112418405B (zh) * | 2020-12-03 | 2022-08-19 | 厦门市美亚柏科信息股份有限公司 | 模型压缩方法和装置 |
CN112733652B (zh) * | 2020-12-31 | 2024-04-19 | 深圳赛安特技术服务有限公司 | 图像目标识别方法、装置、计算机设备及可读存储介质 |
CN115867923A (zh) * | 2021-04-12 | 2023-03-28 | 深圳元戎启行科技有限公司 | 神经网络模型推理方法、装置、计算机设备和存储介质 |
-
2018
- 2018-06-08 JP JP2018110198A patent/JP7047612B2/ja active Active
-
2019
- 2019-06-06 US US16/434,145 patent/US11468331B2/en active Active
Non-Patent Citations (1)
Title |
---|
LUO, JIAN-HAO, WU, JIANXIN: "AutoPruner: An End-to-End Trainable Filter Pruning Method for Efficient Deep Model Inference", [ONLINE], JPN6022001470, 24 May 2018 (2018-05-24), ISSN: 0004710264 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11853864B2 (en) | 2019-03-07 | 2023-12-26 | Canon Kabushiki Kaisha | Data processing apparatus and data processing method for executing processing using neural network |
JP7353772B2 (ja) | 2019-03-07 | 2023-10-02 | キヤノン株式会社 | データ処理装置及びその方法、プログラム |
JP2020144659A (ja) * | 2019-03-07 | 2020-09-10 | キヤノン株式会社 | データ処理装置及びその方法、プログラム |
US11449734B2 (en) | 2019-05-23 | 2022-09-20 | Oki Electric Industry Co., Ltd. | Neural network reduction device, neural network reduction method, and storage medium |
JP2021103441A (ja) * | 2019-12-25 | 2021-07-15 | 沖電気工業株式会社 | ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム |
JP7189865B2 (ja) | 2019-12-27 | 2022-12-14 | Kddi株式会社 | モデル圧縮装置及びプログラム |
JP2021108039A (ja) * | 2019-12-27 | 2021-07-29 | Kddi株式会社 | モデル圧縮装置及びプログラム |
JP2021124949A (ja) * | 2020-02-05 | 2021-08-30 | 株式会社東芝 | 機械学習モデル圧縮システム、プルーニング方法及びプログラム |
JP7242590B2 (ja) | 2020-02-05 | 2023-03-20 | 株式会社東芝 | 機械学習モデル圧縮システム、プルーニング方法及びプログラム |
JP2023527489A (ja) * | 2020-03-17 | 2023-06-29 | 北京京東乾石科技有限公司 | モデル生成方法、オブジェクト検出方法、装置、機器、及び記憶媒体 |
EP3940601A1 (en) | 2020-07-14 | 2022-01-19 | Fujitsu Limited | Information processing apparatus, information processing method, and information program |
JP2022073696A (ja) * | 2020-11-02 | 2022-05-17 | 本田技研工業株式会社 | ノード枝刈り装置、ノード枝刈り方法、およびプログラム |
JP7427200B2 (ja) | 2020-11-02 | 2024-02-05 | 本田技研工業株式会社 | ノード枝刈り装置、ノード枝刈り方法、およびプログラム |
EP3996005A1 (en) | 2020-11-06 | 2022-05-11 | Fujitsu Limited | Calculation processing program, calculation processing method, and information processing device |
JP2022092592A (ja) * | 2020-12-10 | 2022-06-22 | 株式会社日立製作所 | 機器の故障及び残存耐用時間を予測する方法、装置及びプログラム |
JP7268123B2 (ja) | 2020-12-10 | 2023-05-02 | 株式会社日立製作所 | 機器の故障及び残存耐用時間を予測する方法、装置及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20190378014A1 (en) | 2019-12-12 |
JP7047612B2 (ja) | 2022-04-05 |
US11468331B2 (en) | 2022-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019212206A (ja) | ニューラルネットワーク軽量化装置、情報処理装置、ニューラルネットワーク軽量化方法およびプログラム | |
JP7166322B2 (ja) | モデルを訓練するための方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
EP3446260B1 (en) | Memory-efficient backpropagation through time | |
JP6889270B2 (ja) | ニューラルネットワークアーキテクチャの最適化 | |
US10460230B2 (en) | Reducing computations in a neural network | |
US11475099B2 (en) | Optimization apparatus and method for controlling thereof | |
CN110476172A (zh) | 用于卷积神经网络的神经架构搜索 | |
JP6787444B1 (ja) | ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム | |
CN106471525A (zh) | 增强神经网络以生成附加输出 | |
US11704570B2 (en) | Learning device, learning system, and learning method | |
US20230196202A1 (en) | System and method for automatic building of learning machines using learning machines | |
JP7007585B2 (ja) | 最適化装置、最適化装置の制御方法及び最適化装置の制御プログラム | |
JP6856112B1 (ja) | ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム | |
US10262680B2 (en) | Variable sound decomposition masks | |
US20110173145A1 (en) | Classification of a document according to a weighted search tree created by genetic algorithms | |
JP7068242B2 (ja) | 学習装置、学習方法およびプログラム | |
EP3973712A1 (en) | Small and fast video processing networks via neural architecture search | |
JP6528884B1 (ja) | 学習プログラム、学習方法、及び情報処理装置 | |
JP2022523207A (ja) | ピラミッドレイヤのアーキテクチャを生成するためのシステムおよび方法 | |
CN111694753B (zh) | 一种应用程序测试方法、装置及计算机存储介质 | |
JP7081708B1 (ja) | ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム | |
JP6992864B1 (ja) | ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム | |
US20240028902A1 (en) | Learning apparatus and method | |
JP7120288B2 (ja) | ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム | |
EP4198837A1 (en) | Method and system for global explainability of neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190327 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190328 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220307 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7047612 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |