JP6856112B1 - ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム - Google Patents
ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム Download PDFInfo
- Publication number
- JP6856112B1 JP6856112B1 JP2019234567A JP2019234567A JP6856112B1 JP 6856112 B1 JP6856112 B1 JP 6856112B1 JP 2019234567 A JP2019234567 A JP 2019234567A JP 2019234567 A JP2019234567 A JP 2019234567A JP 6856112 B1 JP6856112 B1 JP 6856112B1
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- layer
- function
- processing
- separation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
続いて、本発明の実施形態の詳細について説明する。
まず、本発明の実施形態に係るニューラルネットワーク軽量化装置の構成例について説明する。図1は、本発明の実施形態に係るニューラルネットワーク軽量化装置の機能構成例を示す図である。図1に示されるように、本発明の実施形態に係るニューラルネットワーク軽量化装置10は、入力部100、修正部101、学習部102および出力部103を備える。
入力部100は、軽量化対象のニューラルネットワーク(第1のニューラルネットワークおよび軽量化対象のニューラルネットワークの学習に使用されるデータ(学習用データセット)を取得する。例えば、入力部100は、軽量化対象のニューラルネットワークおよび学習用データセットを、図示しないメモリから読み出すことによって取得してもよい。例えば、軽量化対象のニューラルネットワークは、学習前のニューラルネットワークの構造(モデル構造)であってよい。
修正部101は、入力部100から入力された軽量化対象のニューラルネットワークに基づいて、軽量化対象のニューラルネットワークに含まれる畳み込み層および全結合層の少なくとも一つの処理層を修正対象層として特定する。ここでは、第1層から第(N−1)層に含まれる畳み込み層、および、第N層に含まれる全結合層の全部を、修正対象層として特定する場合を想定する。しかし、修正部101は、軽量化対象のニューラルネットワークに含まれる畳み込み層および全結合層の一部のみを修正対象層として特定してもよい。例えば、修正部101は、軽量化対象のニューラルネットワークに含まれる畳み込み層および全結合層のうち、あらかじめ定められた一部のみを修正対象層として特定してもよい。
学習部102は、修正部101から入力された学習用データセットに基づいて、修正部101から入力された修正後のニューラルネットワークの訓練を行う。例えば、学習部102は、誤差逆伝播法(バックプロパゲーション)などを用いて、修正後のニューラルネットワークの訓練を行う。これによって、修正後のニューラルネットワークに含まれる各処理層の重みパラメータが更新される。なお、重みパラメータの初期値には、乱数が使用されてよいが、軽量化対象のニューラルネットワークの訓練済みの重みパラメータがあれば、訓練済みの重みパラメータが初期値として利用されてもよい。訓練が終わった訓練済みのニューラルネットワークは、出力部103に出力される。
出力部103は、訓練済みのニューラルネットワークを出力する。出力部103による訓練済みのニューラルネットワークの出力はどのように行われてもよい。例えば、出力部103は、訓練済みのニューラルネットワークを記録媒体に出力することによって、記録媒体に訓練済みのニューラルネットワークを記録してもよい。あるいは、出力部103は、訓練済みのニューラルネットワークを通信装置に出力することによって、通信装置を介して訓練済みのニューラルネットワークを他の装置に送信してもよい。
続いて、本発明の実施形態に係るニューラルネットワーク軽量化装置10の動作例について説明する。上記したように、入力部100によって、軽量化対象のニューラルネットワーク(図2)および学習用データセットが取得される。ここでは一例として、学習用データとして2次元画像が使用される場合を想定する。このとき、軽量化対象のニューラルネットワークに含まれる第l(エル)層の畳み込み層によって行われる演算は、下記の数式(1)のように示される。
本発明の実施形態によれば、複数の処理層を含んだ軽量化対象のニューラルネットワークを取得する入力部100と、軽量化対象のニューラルネットワークに含まれる畳み込み層および全結合層の少なくとも一つの処理層を修正対象層として特定し、修正対象層の後段に対して分離結合処理を追加するとともに、修正対象層の重みパラメータに第1の量子化関数を導入し、修正対象層の直後の活性化関数または活性化関数の出力に対して第2の量子化関数を導入して、修正後のニューラルネットワークを生成する修正部101と、修正後のニューラルネットワークの訓練を行う学習部102と、訓練後かつ修正後のニューラルネットワークを出力する出力部103と、を備える、ニューラルネットワーク軽量化装置10が提供される。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
続いて、本発明の実施形態に係るニューラルネットワーク軽量化装置10のハードウェア構成例について説明する。以下では、本発明の実施形態に係るニューラルネットワーク軽量化装置10のハードウェア構成例として、情報処理装置900のハードウェア構成例について説明する。なお、以下に説明する情報処理装置900のハードウェア構成例は、ニューラルネットワーク軽量化装置10のハードウェア構成の一例に過ぎない。したがって、ニューラルネットワーク軽量化装置10のハードウェア構成は、以下に説明する情報処理装置900のハードウェア構成から不要な構成が削除されてもよいし、新たな構成が追加されてもよい。
100 入力部
101 修正部
102 学習部
103 出力部
Claims (12)
- 複数の処理層を含んだ第1のニューラルネットワークを取得する入力部と、
前記第1のニューラルネットワークに含まれる畳み込み層および全結合層の少なくとも一つの処理層を修正対象層として特定し、前記修正対象層の後段に対して分離結合処理を追加するとともに、前記修正対象層の重みパラメータに第1の量子化関数を導入し、前記修正対象層の直後の活性化関数または前記活性化関数の出力に対して第2の量子化関数を導入して、第2のニューラルネットワークを生成する修正部と、
前記第2のニューラルネットワークの訓練を行う学習部と、
訓練後の前記第2のニューラルネットワークを出力する出力部と、
を備える、ニューラルネットワーク軽量化装置。 - 前記分離結合処理は、前記修正対象層の出力に対して、チャネルデータ単位で二つ以上のグループに分割し、分割後の二つ以上のグループの一部または全部のグループの対応するチャネルデータ間において、加算、減算および乗算の少なくとも1つの演算を実行し、チャネルデータ単位で結合する処理を含む、
請求項1に記載のニューラルネットワーク軽量化装置。 - 前記分離結合処理は、前記修正対象層の出力に対して、チャネルデータ単位で2つのグループに分割し、分割後の2つのグループの対応するチャネルデータ間において、加算、減算および乗算の少なくとも1つの演算を実行し、チャネルデータ単位で結合する処理を含む、
請求項2に記載のニューラルネットワーク軽量化装置。 - 前記第1の量子化関数および前記第2の量子化関数それぞれは、符号関数である、
請求項1〜3のいずれか一項に記載のニューラルネットワーク軽量化装置。 - 前記修正部は、前記分離結合処理の結果に前記学習部によって訓練可能な第1の係数パラメータの乗算処理を適用する、
請求項1〜4のいずれか一項に記載のニューラルネットワーク軽量化装置。 - 前記修正部は、前記分離結合処理の結果に前記学習部によって訓練可能な第2の係数パラメータの加算処理を適用する、
請求項1〜5のいずれか一項に記載のニューラルネットワーク軽量化装置。 - 前記修正部は、前記活性化関数を前記第2の量子化関数に置換することによって、前記活性化関数に対して前記第2の量子化関数を導入する、
請求項1〜6のいずれか一項に記載のニューラルネットワーク軽量化装置。 - 前記修正部は、前記活性化関数の直後に前記第2の量子化関数を挿入することによって、前記活性化関数の出力に対して前記第2の量子化関数を導入する、
請求項1〜6のいずれか一項に記載のニューラルネットワーク軽量化装置。 - 前記修正部は、前記修正対象層の後段かつ前記第2の量子化関数の導入位置の前段に、前記分離結合処理を追加する、
請求項1〜8のいずれか一項に記載のニューラルネットワーク軽量化装置。 - 前記分離結合処理においては、前記二つ以上のグループのいずれのグループ間においてもチャネルデータ同士の重複がないように、または、少なくともいずれか2つのグループ間において少なくとも一部のチャネルデータ同士が重複するように分割される、
請求項2に記載のニューラルネットワーク軽量化装置。 - 複数の処理層を含んだ第1のニューラルネットワークを取得することと、
前記第1のニューラルネットワークに含まれる畳み込み層および全結合層の少なくとも一つの処理層を修正対象層として特定し、前記修正対象層の後段に対して分離結合処理を追加するとともに、前記修正対象層の重みパラメータに第1の量子化関数を導入し、前記修正対象層の直後の活性化関数または前記活性化関数の出力に対して第2の量子化関数を導入して、第2のニューラルネットワークを生成することと、
前記第2のニューラルネットワークの訓練を行うことと、
訓練後の前記第2のニューラルネットワークを出力することと、
を含む、ニューラルネットワーク軽量化方法。 - コンピュータを、
複数の処理層を含んだ第1のニューラルネットワークを取得する入力部と、
前記第1のニューラルネットワークに含まれる畳み込み層および全結合層の少なくとも一つの処理層を修正対象層として特定し、前記修正対象層の後段に対して分離結合処理を追加するとともに、前記修正対象層の重みパラメータに第1の量子化関数を導入し、前記修正対象層の直後の活性化関数または前記活性化関数の出力に対して第2の量子化関数を導入して、第2のニューラルネットワークを生成する修正部と、
前記第2のニューラルネットワークの訓練を行う学習部と、
訓練後の前記第2のニューラルネットワークを出力する出力部と、
を備えるニューラルネットワーク軽量化装置として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019234567A JP6856112B1 (ja) | 2019-12-25 | 2019-12-25 | ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019234567A JP6856112B1 (ja) | 2019-12-25 | 2019-12-25 | ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6856112B1 true JP6856112B1 (ja) | 2021-04-07 |
JP2021103441A JP2021103441A (ja) | 2021-07-15 |
Family
ID=75267946
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019234567A Active JP6856112B1 (ja) | 2019-12-25 | 2019-12-25 | ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6856112B1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113887706A (zh) * | 2021-09-30 | 2022-01-04 | 苏州浪潮智能科技有限公司 | 一种针对一阶段目标检测网络的低比特量化的方法和装置 |
WO2023029579A1 (zh) * | 2021-08-31 | 2023-03-09 | 上海商汤智能科技有限公司 | 神经网络推理量化的方法、装置、电子设备及存储介质 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230020856A (ko) * | 2021-08-04 | 2023-02-13 | 주식회사 사피온코리아 | 신경망 파라미터의 양자화 방법 및 장치 |
WO2023101276A1 (ko) * | 2021-11-30 | 2023-06-08 | 삼성전자 주식회사 | 영상 처리 장치 및 그 동작 방법 |
WO2024053018A1 (ja) * | 2022-09-07 | 2024-03-14 | 日本電信電話株式会社 | 畳み込みニューラルネットワーク高速化装置、畳み込みニューラルネットワーク高速化方法、および畳み込みニューラルネットワーク高速化プログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6690489B2 (ja) * | 2016-09-30 | 2020-04-28 | 沖電気工業株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP7047612B2 (ja) * | 2018-06-08 | 2022-04-05 | 沖電気工業株式会社 | ニューラルネットワーク軽量化装置、情報処理装置、ニューラルネットワーク軽量化方法およびプログラム |
-
2019
- 2019-12-25 JP JP2019234567A patent/JP6856112B1/ja active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023029579A1 (zh) * | 2021-08-31 | 2023-03-09 | 上海商汤智能科技有限公司 | 神经网络推理量化的方法、装置、电子设备及存储介质 |
CN113887706A (zh) * | 2021-09-30 | 2022-01-04 | 苏州浪潮智能科技有限公司 | 一种针对一阶段目标检测网络的低比特量化的方法和装置 |
CN113887706B (zh) * | 2021-09-30 | 2024-02-06 | 苏州浪潮智能科技有限公司 | 一种针对一阶段目标检测网络的低比特量化的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2021103441A (ja) | 2021-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6856112B1 (ja) | ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム | |
US11741362B2 (en) | Training neural networks using mixed precision computations | |
US11816577B2 (en) | Augmentation of audiographic images for improved machine learning | |
CN112074806B (zh) | 用于块浮点计算的系统、方法和计算机存储介质 | |
US11915128B2 (en) | Neural network circuit device, neural network processing method, and neural network execution program | |
JP6801529B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN101253493B (zh) | 在图形处理单元上训练卷积神经网络 | |
US11282502B2 (en) | Method for utterance generation, smart device, and computer readable storage medium | |
JP2019212206A (ja) | ニューラルネットワーク軽量化装置、情報処理装置、ニューラルネットワーク軽量化方法およびプログラム | |
JP6787444B1 (ja) | ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム | |
EP4283533A1 (en) | Quantum convolution operator | |
CN110825884A (zh) | 基于人工智能的嵌入表示处理方法、装置及电子设备 | |
Chervyakov et al. | Residue number system-based solution for reducing the hardware cost of a convolutional neural network | |
CN112446888B (zh) | 图像分割模型的处理方法和处理装置 | |
CN114821605B (zh) | 一种文本的处理方法、装置、设备和介质 | |
US20230394306A1 (en) | Multi-Modal Machine Learning Models with Improved Computational Efficiency Via Adaptive Tokenization and Fusion | |
Zhong et al. | LightMixer: A novel lightweight convolutional neural network for tomato disease detection | |
CN113490955B (zh) | 用于产生金字塔层的架构的系统和方法 | |
CN116324828A (zh) | 秘密决策树测试装置、秘密决策树测试系统、秘密决策树测试方法、及程序 | |
Vasicek et al. | Evolutionary functional approximation of circuits implemented into FPGAs | |
Gaihua et al. | Instance segmentation convolutional neural network based on multi-scale attention mechanism | |
CN114187598A (zh) | 手写数字识别方法、系统、设备及计算机可读存储介质 | |
CN118339771A (zh) | 用于数据掩码的硬件加速的系统和方法 | |
CN113158045B (zh) | 一种基于图神经网络推理的可解释推荐方法 | |
JP7374829B2 (ja) | ニューラルネット解析装置、ニューラルネット解析方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191225 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210216 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210301 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6856112 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |