JP2022020464A - ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、及びコンピュータプログラム - Google Patents
ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2022020464A JP2022020464A JP2020123973A JP2020123973A JP2022020464A JP 2022020464 A JP2022020464 A JP 2022020464A JP 2020123973 A JP2020123973 A JP 2020123973A JP 2020123973 A JP2020123973 A JP 2020123973A JP 2022020464 A JP2022020464 A JP 2022020464A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- layer
- neurons
- neuron
- identity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 156
- 238000012545 processing Methods 0.000 title claims abstract description 36
- 238000003672 processing method Methods 0.000 title claims description 12
- 238000004590 computer program Methods 0.000 title claims description 11
- 210000002569 neuron Anatomy 0.000 claims abstract description 104
- 238000013138 pruning Methods 0.000 claims abstract description 50
- 238000013507 mapping Methods 0.000 claims abstract description 41
- 230000000295 complement effect Effects 0.000 claims abstract description 34
- 238000000034 method Methods 0.000 claims description 76
- 230000008569 process Effects 0.000 claims description 66
- 230000006870 function Effects 0.000 claims description 22
- 230000004913 activation Effects 0.000 claims description 16
- 239000011159 matrix material Substances 0.000 description 54
- 239000013598 vector Substances 0.000 description 32
- 238000007906 compression Methods 0.000 description 17
- 238000002474 experimental method Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 5
- 230000000052 comparative effect Effects 0.000 description 4
- 230000006835 compression Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
【解決手段】恒等写像パスを有する第1ニューラルネットワークから、ニューロンのプルーニングが行われる第2ニューラルネットワークを生成するニューラルネットワーク処理装置であって、第1ニューラルネットワークは、それぞれがニューロンを有する複数の層と、各ニューロンに結合する重みとを備える。複数の層は、恒等写像パスの起点となる起点層と、恒等写像パスの終点となる終点層と、起点層と終点層との間に存在する中間層とを有する。生成処理は、補完ニューロンを中間層に追加するとともに、補完ニューロンに結合する重みを設定する第1処理と、恒等写像パスを削除する第2処理と、を有する。生成処理において、第2ニューラルネットワークは、補完ニューロンと補完ニューロンに結合する重みが、恒等写像パスの役割を担うように生成される。
【選択図】図1
Description
手順1.学習(5エポック,学習率1.25×10-4)
手順2.プルーニングを実行
手順3.学習(5エポック,学習率1.25×10-4)
20 :プロセッサ
21 :圧縮処理
22 :生成処理
23 :学習処理
24 :プルーニング処理
25 :再学習処理
30 :記憶装置
31 :コンピュータプログラム
100 :ニューラルネットワーク利用装置
200 :プロセッサ
300 :記憶装置
L1 :起点層
L2 :中間層
L3 :終点層
N1 :原ニューラルネットワーク
N2 :圧縮ニューラルネットワーク
N20 :圧縮ニューラルネットワークデータ
Claims (9)
- 恒等写像パスを有する第1ニューラルネットワークから、ニューロンのプルーニングが行われる第2ニューラルネットワークを生成するための生成処理を実行するよう構成されたニューラルネットワーク処理装置であって、
前記第1ニューラルネットワークは、
それぞれがニューロンを有する複数の層と、
各ニューロンに結合する重みと、
を備え、
前記複数の層は、
前記恒等写像パスの起点となる起点層と、
前記恒等写像パスの終点となる終点層と、
前記起点層と前記終点層との間に存在する中間層と、
を有し、
前記生成処理は、前記第2ニューラルネットワークを生成するために、
補完ニューロンを前記中間層に追加するとともに、前記補完ニューロンに結合する重みを設定する第1処理と、
前記恒等写像パスを削除する第2処理と、
を有し、
前記生成処理において、前記第2ニューラルネットワークは、前記補完ニューロンと前記補完ニューロンに結合する重みが、前記恒等写像パスの役割を担うように生成される
ニューラルネットワーク処理装置。 - 前記ニューロンは、活性化関数を有し、前記活性化関数はレルーである
請求項1に記載のニューラルネットワーク処理装置。 - 前記第2ニューラルネットワークにプルーニングをする処理と、
前記生成処理とプルーニングをする前記処理との間において行われる、前記第2ニューラルネットワークの学習処理と、
を更に実行するよう構成されている
請求項1又は請求項2に記載のニューラルネットワーク処理装置。 - 前記学習処理は、正則化を用いて第2ニューラルネットワークにおける重みを最適化することを含み、
前記正則化は、前記重みと、前記学習処理開始時における前記重みの初期値と、の差を用いて行われる
請求項3に記載のニューラルネットワーク処理装置。 - 恒等写像パスを有する第1ニューラルネットワークから、ニューロンのプルーニングが行われる第2ニューラルネットワークを生成することを有するニューラルネットワーク処理方法であって、
前記第1ニューラルネットワークは、
それぞれがニューロンを有する複数の層と、
各ニューロンに結合する重みと、
を備え、
前記複数の層は、
前記恒等写像パスの起点となる起点層と、
前記恒等写像パスの終点となる終点層と、
前記起点層と前記終点層との間に存在する中間層と、
を有し、
前記ニューラルネットワーク処理方法は、前記第2ニューラルネットワークを生成するために、
補完ニューロンを前記中間層に追加するとともに、前記補完ニューロンに結合する重みを設定すること、及び
前記恒等写像パスを削除すること、を有し、
前記第2ニューラルネットワークは、前記補完ニューロンと前記補完ニューロンに結合する重みが、前記恒等写像パスの役割を担うように生成される
ニューラルネットワーク処理方法。 - 前記ニューロンは、活性化関数を有し、前記活性化関数はレルーである
請求項5に記載のニューラルネットワーク処理方法。 - 前記第2ニューラルネットワークにプルーニングをすることと、
前記第2ニューラルネットワークを生成することと前記第2ニューラルネットワークにプルーニングをすることとの間において行われる、前記第2ニューラルネットワークの学習と、
を更に有する
請求項5又は請求項6に記載のニューラルネットワーク処理方法。 - 前記学習は、正則化を用いて第2ニューラルネットワークにおける重みを最適化することを含み、
前記正則化は、前記重みと、前記学習の開始時における前記重みの初期値と、の差を用いて行われる
請求項7に記載のニューラルネットワーク処理方法。 - 恒等写像パスを有する第1ニューラルネットワークから、ニューロンのプルーニングが行われる第2ニューラルネットワークを生成するための生成処理を有する処理をコンピュータと機能させるためのコンピュータプログラムであって、
前記第1ニューラルネットワークは、
それぞれがニューロンを有する複数の層と、
各ニューロンに結合する重みと、
を備え、
前記複数の層は、
前記恒等写像パスの起点となる起点層と、
前記恒等写像パスの終点となる終点層と、
前記起点層と前記終点層との間に存在する中間層と、
を有し、
前記生成処理は、前記第2ニューラルネットワークを生成するために、
補完ニューロンを前記中間層に追加するとともに、前記補完ニューロンに結合する重みを設定する第1処理と、
前記恒等写像パスを削除する第2処理と、
を有し、
前記生成処理において、前記第2ニューラルネットワークは、前記補完ニューロンと前記補完ニューロンに結合する重みが、前記恒等写像パスの役割を担うように生成される
コンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020123973A JP7533933B2 (ja) | 2020-07-20 | 2020-07-20 | ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、及びコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020123973A JP7533933B2 (ja) | 2020-07-20 | 2020-07-20 | ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、及びコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022020464A true JP2022020464A (ja) | 2022-02-01 |
JP7533933B2 JP7533933B2 (ja) | 2024-08-14 |
Family
ID=80216289
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020123973A Active JP7533933B2 (ja) | 2020-07-20 | 2020-07-20 | ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、及びコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7533933B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024043771A1 (ko) * | 2022-08-24 | 2024-02-29 | 동국대학교 산학협력단 | 사이버 공격에 강인한 인공 신경망 구조 재구성 장치 및 방법 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10366322B2 (en) | 2017-10-06 | 2019-07-30 | DeepCube LTD. | System and method for compact and efficient sparse neural networks |
JP6979203B2 (ja) | 2017-12-11 | 2021-12-08 | 国立研究開発法人情報通信研究機構 | 学習方法 |
US20190378017A1 (en) | 2018-06-12 | 2019-12-12 | Sun-Yuan Kung | System and method for implementing a neural network |
CN111382833A (zh) | 2018-12-29 | 2020-07-07 | 佳能株式会社 | 多层神经网络模型的训练和应用方法、装置及存储介质 |
-
2020
- 2020-07-20 JP JP2020123973A patent/JP7533933B2/ja active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024043771A1 (ko) * | 2022-08-24 | 2024-02-29 | 동국대학교 산학협력단 | 사이버 공격에 강인한 인공 신경망 구조 재구성 장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
JP7533933B2 (ja) | 2024-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20180260710A1 (en) | Calculating device and method for a sparsely connected artificial neural network | |
US11372929B2 (en) | Sorting an array consisting of a large number of elements | |
CN112597610B (zh) | 机械臂结构轻量化设计的优化方法、装置及设备 | |
CN111860771B (zh) | 一种应用于边缘计算的卷积神经网络计算方法 | |
Zhu et al. | Nasb: Neural architecture search for binary convolutional neural networks | |
CN111738435A (zh) | 一种基于移动设备的在线稀疏训练方法及系统 | |
JP2021022050A (ja) | ニューラルネットワークの圧縮方法、ニューラルネットワーク圧縮装置、コンピュータプログラム、及び圧縮されたニューラルネットワークデータの製造方法 | |
CN111860790A (zh) | 一种提高深度残差脉冲神经网络精度以优化图像分类的方法及其系统 | |
CN112835552A (zh) | 一种外积累加求解稀疏矩阵与稠密矩阵内积的方法 | |
CN117725966B (zh) | 草图序列重建模型的训练方法、几何模型重建方法及设备 | |
JP2022020464A (ja) | ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、及びコンピュータプログラム | |
CN109063834B (zh) | 一种基于卷积特征响应图的神经网络剪枝方法 | |
CN111291810A (zh) | 基于目标属性解耦的信息处理模型生成方法及相关设备 | |
Frezzatto et al. | H2 and H∞ fuzzy filters with memory for Takagi–Sugeno discrete-time systems | |
JP7438544B2 (ja) | ニューラルネットワーク処理装置、コンピュータプログラム、ニューラルネットワーク製造方法、ニューラルネットワークデータの製造方法、ニューラルネットワーク利用装置、及びニューラルネットワーク小規模化方法 | |
CN114972695A (zh) | 一种点云生成方法、装置、电子设备及存储介质 | |
Dey et al. | Interleaver design for deep neural networks | |
CN112837420B (zh) | 基于多尺度和折叠结构的兵马俑点云的形状补全方法及系统 | |
JP2019079225A (ja) | 計算機及び計算方法 | |
CN112348118A (zh) | 基于梯度维持的图像分类方法、存储介质及电子设备 | |
CN114118343A (zh) | 应用于Transformer神经网络的层归一化处理硬件加速器及方法 | |
Li et al. | Denoisingnet: An efficient convolutional neural network for image denoising | |
TWI789042B (zh) | 具有平均量化機制的神經網路建構方法及裝置 | |
US20240311669A1 (en) | Quantum circuit compression | |
Li et al. | A One-Shot Reparameterization Method for Reducing the Loss of Tile Pruning on DNNs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230407 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240308 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240625 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240725 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7533933 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |