JP2022020464A - ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、及びコンピュータプログラム - Google Patents

ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、及びコンピュータプログラム Download PDF

Info

Publication number
JP2022020464A
JP2022020464A JP2020123973A JP2020123973A JP2022020464A JP 2022020464 A JP2022020464 A JP 2022020464A JP 2020123973 A JP2020123973 A JP 2020123973A JP 2020123973 A JP2020123973 A JP 2020123973A JP 2022020464 A JP2022020464 A JP 2022020464A
Authority
JP
Japan
Prior art keywords
neural network
layer
neurons
neuron
identity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020123973A
Other languages
English (en)
Other versions
JP7533933B2 (ja
Inventor
俊和 和田
Toshikazu Wada
幸司 菅間
Koji Sugama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wakayama University
Original Assignee
Wakayama University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wakayama University filed Critical Wakayama University
Priority to JP2020123973A priority Critical patent/JP7533933B2/ja
Publication of JP2022020464A publication Critical patent/JP2022020464A/ja
Application granted granted Critical
Publication of JP7533933B2 publication Critical patent/JP7533933B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

Figure 2022020464000001
【課題】恒等写像パスを有するニューラルネットワークにおけるプルーニングの制約を低減する。
【解決手段】恒等写像パスを有する第1ニューラルネットワークから、ニューロンのプルーニングが行われる第2ニューラルネットワークを生成するニューラルネットワーク処理装置であって、第1ニューラルネットワークは、それぞれがニューロンを有する複数の層と、各ニューロンに結合する重みとを備える。複数の層は、恒等写像パスの起点となる起点層と、恒等写像パスの終点となる終点層と、起点層と終点層との間に存在する中間層とを有する。生成処理は、補完ニューロンを中間層に追加するとともに、補完ニューロンに結合する重みを設定する第1処理と、恒等写像パスを削除する第2処理と、を有する。生成処理において、第2ニューラルネットワークは、補完ニューロンと補完ニューロンに結合する重みが、恒等写像パスの役割を担うように生成される。
【選択図】図1

Description

本開示は、ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、及びコンピュータプログラムに関する。
ニューラルネットワークには、Residual Network(ResNet)のように恒等写像パスを有するニューラルネットワークがある。ResNetは、非特許文献1に記載されている。ResNetは、多くの恒等写像パスを有する。ResNetは、恒等写像パスを有することにより、画像認識などのタスクをうまく学習させることができ、より高精度なモデルを構築できる。
He, K., Zhang, X., Ren, S., Sun, J.: Deep residual learning for image recognition. pp. 770-778 (2016) Kamma, K., Wada, T.: Reconstruction error aware pruning for accelerating neural networks. In: Proc. International Symposium on Visual Computing (2019) Duan, K., Bai, S., Xie, L., Qi, H., Huang, Q., Tian, Q.: Centernet: Keypoint triplets for object detection. In: The IEEE International Conference on Computer Vision (ICCV) (October 2019) Lin, T.Y., Maire, M., Belongie, S.J., Bourdev, L.D., Girshick, R.B., Hays, J., Perona, P., Ramanan, D., Dollar, P., Zitnick, C.L.: Microsoft coco: Common objects in context. CoRR (2014)(2014)
恒等写像パスを有するニューラルネットワークアーキテクチャは、恒等写像パスによる分岐が多い構造を持つため、プルーニング(Pruning)によって学習済みニューラルネットワーク(学習済みモデル)を圧縮する場合に不利である。プルーニングは、学習済モデルから、冗長又は不要なニューロンを取り除くことである。適切なプルーニングによって、学習済モデルの性能を保ちつつ、モデルを圧縮することができる。モデルを圧縮することにより、計算機への演算負荷を小さくすることができる。
しかし、恒等写像パスを有するニューラルネットワークにおいてプルーニングをする際には、恒等写像パスが接続された層に含まれるニューロンを削減してはならないという制約が生じる。このため、恒等写像パスを有するニューラルネットワークにおいては、恒等写像パスが接続されていない層でのみニューロンをプルーニングにすることになる。このため、ResNetのように恒等写像パスを有するニューラルネットワークにおいては、プルーニングによるニューラルネットワークの圧縮効果は限定的である。
したがって、恒等写像パスを有するニューラルネットワークにおけるプルーニングの制約を低減することが望まれる。本開示において、かかる課題は、恒等写像パスによる枝分かれを解消し、ニューラルネットワークを直列化することによって解決される。直列化されたニューラルネットワークは恒等写像パスを同じ機能を内包する。更なる詳細は、後述の実施形態として説明される。
図1は、ニューラルネットワーク処理装置及びニューラルネットワーク利用装置の構成図である。 図2は、圧縮処理の手順を示すフローチャートである。 図3は、恒等写像パスを有しないDNNの概略構成図である。 図4は、ResNetの概略構成図である。 図5は、ResNetに対するプルーニングの模式図である。 図6は、SRNの概略構成図である。 図7は、第2ニューラルネットワーク生成処理の手順を示すフローチャートである。 図8は、SRNの例を示す概略図である。 図9は、図8のSRNに等価なResNetの概略図である。 図10は、正則化の説明図である。 図11は、実験における各実施例の削減率を示す表である。 図12は、実験における評価結果を示す表である。
<1.ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、及びコンピュータプログラムの概要>
(1)実施形態に係る装置は、恒等写像パスを有する第1ニューラルネットワークから、ニューロンのプルーニングが行われる第2ニューラルネットワークを生成するための生成処理を実行するよう構成されたニューラルネットワーク処理装置である。前記第1ニューラルネットワークは、それぞれがニューロンを有する複数の層と、各ニューロンに結合する重みと、を備える。前記複数の層は、前記恒等写像パスの起点となる起点層と、前記恒等写像パスの終点となる終点層と、前記起点層と前記終点層との間に存在する中間層と、を有する。
前記生成処理は、前記第2ニューラルネットワークを生成するために、補完ニューロンを前記中間層に追加するとともに、前記補完ニューロンに結合する重みを設定する第1処理と、前記恒等写像パスを削除する第2処理と、を有する。前記生成処理において、前記第2ニューラルネットワークは、前記補完ニューロンと前記補完ニューロンに結合する重みが、前記恒等写像パスの役割を担うように生成される。
第2ニューラルネットワークは、恒等写像パスを有しないため、恒等写像パスが接続された層に含まれるニューロンを削減してはならないという制約が解消されている。したがって、恒等写像パスを有するニューラルネットワークにおけるプルーニングの制約が低減される。
(2) 前記ニューロンは、活性化関数を有し、前記活性化関数はレルーであるのが好ましい。活性化関数がレルーであると、恒等写像パスを削除しても、恒等写像パスと等価な役割を担保するのが容易である。
(3)ニューラルネットワーク処理装置は、前記第2ニューラルネットワークにプルーニングをする処理と、前記生成処置とプルーニングをする前記処理との間において行われる、前記第2ニューラルネットワークの学習処理と、を更に実行するよう構成されているのが好ましい。プルーニングの前に学習処理を実行することで、プルーニングを実行しても、モデルの精度を高く保つことができる。
(4)前記学習処理は、正則化を用いて第2ニューラルネットワークにおける重みを最適化することを含み、前記正則化は、前記重みと、前記学習処理開始時における前記重みの初期値と、の差を用いて行われるのが好ましい。この場合、重みが最適解から離れることを抑制できる。
(5)実施形態に係る方法は、恒等写像パスを有する第1ニューラルネットワークから、ニューロンのプルーニングが行われる第2ニューラルネットワークを生成することを有するニューラルネットワーク処理方法である。前記第1ニューラルネットワークは、それぞれがニューロンを有する複数の層と、各ニューロンに結合する重みと、を備え、前記複数の層は、前記恒等写像パスの起点となる起点層と、前記恒等写像パスの終点となる終点層と、前記起点層と前記終点層との間に存在する中間層と、を有し、前記ニューラルネットワーク処理方法は、前記第2ニューラルネットワークを生成するために、補完ニューロンを前記中間層に追加するとともに、前記補完ニューロンに結合する重みを設定すること、及び前記恒等写像パスを削除すること、を有し、前記第2ニューラルネットワークは、前記補完ニューロンと前記補完ニューロンに結合する重みが、前記恒等写像パスの役割を担うように生成される。
(6)前記ニューロンは、活性化関数を有し、前記活性化関数はレルーであるのが好ましい。
(7) 前記第2ニューラルネットワークにプルーニングをすることと、前記第2ニューラルネットワークを生成することと前記第2ニューラルネットワークにプルーニングをすることとの間において行われる、前記第2ニューラルネットワークの学習と、を更に有するのが好ましい。
(8)前記学習は、正則化を用いて第2ニューラルネットワークにおける重みを最適化することを含み、前記正則化は、前記重みと、前記学習の開始時における前記重みの初期値と、の差を用いて行われるのが好ましい。
(9)実施形態に係るコンピュータプログラムは、恒等写像パスを有する第1ニューラルネットワークから、ニューロンのプルーニングが行われる第2ニューラルネットワークを生成するための生成処理を有する処理をコンピュータと機能させるためのコンピュータプログラムである。前記第1ニューラルネットワークは、それぞれがニューロンを有する複数の層と、各ニューロンに結合する重みと、を備え、前記複数の層は、前記恒等写像パスの起点となる起点層と、前記恒等写像パスの終点となる終点層と、前記起点層と前記終点層との間に存在する中間層と、を有し、前記生成処理は、前記第2ニューラルネットワークを生成するために、補完ニューロンを前記中間層に追加するとともに、前記補完ニューロンに結合する重みを設定する第1処理と、前記恒等写像パスを削除する第2処理と、を有し、前記生成処理において、前記第2ニューラルネットワークは、前記補完ニューロンと前記補完ニューロンに結合する重みが、前記恒等写像パスの役割を担うように生成される。
<2.ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、及びコンピュータプログラムの例>
図1は、実施形態に係るニューラルネットワーク処理装置10(以下、「処理装置10」という)とニューラルネットワーク利用装置100(以下、「利用装置100」という)とを示している。実施形態に係る処理装置10は、ニューラルネットワークN1を圧縮して小規模化するための圧縮処理21を実行する。すなわち、処理装置10は、ニューラルネットワークの圧縮装置でもある。
ニューラルネットワークは、複数の人工ニューロン(「ノード」ともいう)が結合した人工的な計算機構である。以下では、人工ニューロンを単に、ニューロンともいう。ニューラルネットワークは、例えば、ディープニューラルネットワーク(DNN)である。DNNは、例えば、全結合型ニューラルネットワーク(FCN)であってもよいし、畳み込み型ニューラルネットワーク(CNN)であってもよい。以下では、圧縮処理21の対象となるニューラルネットワークN1を、「第1ニューラルネットワーク」又は「原ニューラルネットワーク」といい、圧縮されたニューラルネットワークN2を「圧縮ニューラルネットワーク」という。なお、実施形態に係る処理装置10は、原ニューラルネットワークN1の機械学習(深層学習)のための処理も実行可能である。処理装置10は、学習済の原ニューラルネットワークN1を圧縮する。
処理装置10は、1又は複数のプロセッサ20及び記憶装置30を有するコンピュータによって構成されている。1又は複数のプロセッサ20は、例えば、グラフィックプロセッシングユニット(GPU)を含む。1又は複数のプロセッサ20は、さらにCPUを含んでもよい。GPUのような大規模並列計算機構は、大規模なニューラルネットワークに関する処理を実行するための大量の計算に適している。
記憶装置30は、プロセッサ20によって実行されるコンピュータプログラム31を記憶している。プロセッサ20は、コンピュータプログラム31を実行することで、圧縮処理21を行う。圧縮処理21は、プルーニングの前処理としての第2ニューラルネットワークの生成処理22と、プルーニング24(Pruning;枝刈り)と、学習処理23,25と、を有する。
記憶装置30は、圧縮処理21によって製造された圧縮ニューラルネットワークN2を表すデータ(圧縮ニューラルネットワークデータ)N20を記憶することができる。圧縮ニューラルネットワークデータN20は、圧縮ニューラルネットワークN2を表現する各種のパラメータ(重み、結合関係など)からなるデータである。処理装置10は、圧縮ニューラルネットワークデータN20を、ニューラルネットワークエンジン等へ、出力することができる。圧縮ニューラルネットワークデータN20は、ニューラルネットワークエンジンに読み込まれることで、そのニューラルネットワークエンジンを圧縮ニューラルネットワークN2として機能させる。
利用装置100は、圧縮ニューラルネットワークデータN20を読み込んで、圧縮ニューラルネットワークN2として機能するニューラルネットワークエンジンを有する。ニューラルネットワークエンジンは、例えば、プロセッサ200と記憶装置300とを備える。プロセッサ200は、例えば、組み込み系システムにおける低消費電力のCPUでよい。圧縮ニューラルネットワークデータN20は、原ニューラルネットワークN1のデータに比べて、サイズが小さいため、低消費電力のCPUによる処理が可能である。
組み込み系システムは、汎用的なコンピュータシステムではなく、特定の用途に向けられたコンピュータシステムであり、例えば、スマートフォン・家電などの家庭用機器、産業用ロボットなどの産業用機器、各種の医療用機器、自動車・ドローンなどのビークル、及びその他の機器におけるコンピュータシステムである。組み込み系システムでは、プロセッサとして、低消費電力のCPUが使われることが多いが、圧縮ニューラルネットワークデータN20は、データサイズが小さいため、実行が容易である。
圧縮ニューラルネットワークN2は、例えば、画像・音声の変換、セグメンテーション、識別などの用途に用いられる。より具体的には、例えば、店舗等の客数計測、男女・年齢層分析、車両計数、車種分析など、対象物の画像から必要な情報を抽出するために用いることができる。原ニューラルネットワークN1は大規模であり、計算コストが大きいため、組み込み系システムでの実行が困難であるが、圧縮ニューラルネットワークN2は、小規模化されているため、組み込み系システムでの実行が容易である。
以下、圧縮処理21について説明する。以下では、理解の容易のため、全結合型ニューラルネットワーク(FCN)を前提に、実施形態に係る圧縮処理21を説明するが、実施形態に係る同様の圧縮処理21は、畳み込み型ニューラルネットワーク(CNN)にも適用できる。
図2に示すように、圧縮処理21では、まず、プルーニング24の第1前処理として、第1ニューラルネットから第2ニューラルネットワークの生成処理22が行われる。第1ニューラルネットワークは、一例として、恒等写像パスを有する学習済ResNetであるものとする。生成処理22は、学習済みResNetを直列化する。ここでは、直列化されたResNetを、Serialized Residual Network(SRN)という。つまり、実施形態に係る生成処理22は、第2ニューラルネットワークとしてのSRNモデルの生成処理である。
ここでは、まず、ResNetのアーキテクチャとその問題点について説明する。図3は、恒等写像パスを有しない一般的なディープニューラルネットワーク(DNN)を示している。図3のDNNは、FCNである。図3に示すDNNは、複数の層L1,L2,L3を備え、各層は複数のニューロンを有する。図3において、ニューロンは丸印で示されている。ニューロンを示す丸印間を接続する直線は、ニューロン間の結合を示し、ニューロン間の結合は、重みを有する。図3に示すDNNは、恒等写像パスによる分岐を有さず直列なアーキテクチャを有する。
図3に示すニューラルネットワークに入力データを与えると、各ニューロンはスカラー値と出力する。したがって、各層に含まれる全てのニューロンの出力は、各層のニューロン数と同じ次元を持つベクトルとして表現できる。例えば、図3の層L1の出力ベクトルはxで表され、xの次元数は、層L1に含まれるニューロンの数D1に等しい。同様に、層L2の出力ベクトルはxで表され、xの次元数は、層L2に含まれるニューロンの数D2に等しい。また、層L3の出力ベクトルはxで表され、xの次元数は、層L3に含まれるニューロンの数D3に等しい。各出力ベクトルx,x,xは、次の層に入力される入力ベクトルになる。
各層においては、入力されるベクトルx,x,xに対して、重みを用いた線形写像及び活性化関数を用いた非線形写像が適用され、出力ベクトルが得られる。例えば、ニューロン数がD1である層L1に含まれる複数のニューロン全ての出力が出力ベクトルxで表される場合、ニューロン数がD2である次層L2にはxが入力ベクトルとして入力される。このとき、xに適用される線形写像のための重み行列をWとし、各ニューロンの活性化関数をfとすると、層L2における出力ベクトルxを求めるため、図3の式(1)の計算が行われる。なお、重み行列Wの行列サイズは、D2×D1である。
また、出力ベクトルxが、ニューロン数がD3である次層L3に、入力ベクトルとして入力される。このとき、xに適用される線形写像のための重み行列をWとし、各ニューロンの活性化関数をfとすると、層L3における出力ベクトルxを求めるため、図3の式(2)の計算が行われる。なお、重み行列Wの行列サイズは、D3×D2である。
図4は、ResNetを示している。図4に示すResNetは、図3に示すニューラルネットワークに、層L1と層L3とを接続する恒等写像パスを追加したものである。ResNetにおいて、各ニューロンは活性化関数fを有し、活性化関数fはレルー(ReLU)である。以下では、恒等写像パスの起点となる層L1を起点層L1といい、恒等写像パスの終点となる層L3を終点層L3という。起点層L1と終点層L3との間にある層L2を、中間層L2という。起点層L1と終点層L3との間には、1又は複数の中間層L2が存在する。なお、実際のResNetは、図4に示すアーキテクチャが直列に多数積み重なって形成される。すなわち、ResNetは、複数の恒等写像パスを有する。図4に示すアーキテクチャが直列に多数積み重なって形成される場合、ある恒等写像パスに接続された終点層は、別の恒等写像パスの起点層になることができる。
ResNetでは、出力ベクトルx及びxを求めるため、図4に示す式(3)及び式(4)の計算が行われる。ここで、式(1)と式(3)は同じである。一方、式(2)と式(4)とは異なる。式(2)と式(4)との違いは、ResNetの恒等写像パスにより生じたものである。ResNetにおける式(4)では、2度目の活性化関数fによる非線形写像の直前に、W+xの計算が行われている。式(4)における“+x”が恒等写像パスに相当する計算である。
式(4)において、“W”と“x”との和を計算する際、“W”の次元と“x”の次元とは一致している必要がある。しかし、図5のように、恒等写像パスに接続された起点層L1に含まれるニューロンをプルーニングにより削減すると、xの次元数が減少し、“W”の次元数と一致しなくなる。この結果、式(4)における“W+x”の計算が行えなくなる。同様に、終点層L3に含まれるニューロンをプルーニングにより削減すると、やはり、“W2x2”の次元と“x1”の次元とは一致しなくなる。
以上の理由から、ResNetでは、恒等写像パスに接続された層L1,L3においては、プルーニングを行うことができない。プルーニングによってResNetを圧縮する場合には、恒等写像パスに接続されていない中間層L2のみを対象にせざるを得ない。このため、ResNetモデルをそのままプルーニングをすると、ニューロンの削減数を多くした場合、学習済みモデルの性能が劣化しやすい。
プルーニングが可能である層が限られているという制約を解消するため、図2に示す生成処理22では、第1ニューラルネットワークである学習済みResNetを直列化して、学習済みResNetと等価なSRNモデル(第2ニューラルネットワーク)を生成する。SRNモデルは、一般的なDNNと同様に直列なアーキテクチャを持つが、ResNetの恒等写像パスを再現することができる。
図6は、図4に示すResNetを直列化したSRNモデルを示す。図6に示すSRNモデルは、恒等写像パスによる分岐を有しておらず、直列なアーキテクチャである。図6に示すSRNモデルにおいて、恒等写像パスに接続された起点層L1が有するニューロンの数(出力ベクトルxの次元数)は、図4に示すResNetと同様である。したがって、起点層L1の出力ベクトルxは、図4に示すResNetと同様である。図6のSRNモデルにおいては、出力ベクトルxに適用される重み行列をW’と表す。重み行列をW’については後述する。
SRNモデルの中間層L2には、前段である起点層L1のニューロンの数に応じた数D1の補完ニューロンが追加されている。例えば、図4の起点層L1及び中間層L2のニューロンの数がそれぞれ4である場合、図6に示すSRNモデルの中間層L2は、元々の4個のニューロンと、4個の補完ニューロンの計8個のニューロンを有する。これら4個の補完ニューロンと補間ニューロンに結合する重みとが、恒等写像パスの機能を代替する。なお、補完ニューロンの活性化関数もレルー(ReLU)である。
図6のSRNモデルにおいては、中間層L2の出力ベクトルをx’と表し、出力ベクトルx’に適用される重み行列をW’と表す。重み行列をW’については後述する。
図6に示すSRNモデルにおいて、恒等写像パスに接続された終点層L3が有するニューロンの数(出力ベクトルxの次元数)は、図4に示すResNetと同様である。図6のSRNモデルにおいては、終点層L3の出力ベクトルをx’と表す。
重み行列をW’は、図6の式(5A)に示すように、ResNetの重み行列Wと単位行列Iとの連結で表される。単位行列のサイズは、D1×D1である。重み行列をW’は、図6の式(6)に示すように、ResNetの重み行列Wと単位行列Iとの連結で表される。単位行列のサイズは、D1×D1である。
図6に示すSRNモデルにおいては、出力ベクトルx’を求めるため、図6に示す式(7)の計算が行われる。また、出力ベクトルx’を求めるため、図6に示す式(8)の計算が行われる。図6に示すように、出力ベクトルx’は、出力ベクトルxと出力ベクトルxの連結である。また、図6に示すように、出力ベクトルx’は、出力ベクトルxと等しい。よって、図6に示すSRNモデルは、図4に示すResNetと等価である。このように、恒等写像パスを有するResNetは、等価なSRNに置き換えることが可能である。
図7は、恒等写像パスを有する第1ニューラルネットワークから、SRNのように直列化された第2ニューラルネットワークを得るための生成処理22の詳細を示している。まず、ニューラルネットワーク処理装置10のプロセッサ20は、第1ニューラルネットワークの恒等写像パスに接続されている一対の層(起点層L1及び終点層L3)を識別する(ステップS101)。また、プロセッサ20は、起点層L1と終点層L3との間にある1又は複数の中間層L2を識別する。
続いて、プロセッサ20は、起点層L1の次元数D1に応じた数(D1個)の補完ニューロンを、中間層L2に追加する(ステップS102)。なお、起点層L1と終点層L3との間に中間層L2が複数ある場合には、複数の中間層L2それぞれに、D1個の補完ニューロンが追加される。
プロセッサ20は、補完ニューロンが追加された中間層L2に結合する重み行列W,Wを更新してW’,W’を得る(ステップS103)。中間層L2に結合する重み行列が、起点層L1から中間層L2への重み行列Wである場合、すなわち、起点層L1からの出力ベクトルxに適用される重み行列Wである場合、式(5A)に従って、重み行列Wが、重み行列W’に更新される(ステップS104)。
中間層L2に結合する重み行列が、中間層L2から終点層L3への重み行列Wである場合、すなわち、終点層L3へ入力される出力ベクトルxに適用される重み行列Wである場合、式(6)に従って、重み行列Wが、重み行列W’に更新される(ステップS106)。
起点層L1と終点層L3との間に中間層L2が複数ある場合、中間層L2に結合する重み行列としては第1中間層から第2中間層への重み行列Wも存在する。重み行列Wは、第1中間層からの出力ベクトルに適用される。重み行列Wは、図7に示す式(5B)に従って、重み行列W’に更新される(ステップS105)。なお、式(5B)において、Iは、D1×D1のサイズの単位行列であり、0はゼロ行列である。
最後に、プロセッサ20は、恒等写像パスを削除する(ステップS107)。なお、恒等写像パスの削除は、生成処理22の最後に行われる必要はなく、生成処理22中の任意のタイミングで行われてもよい。以上により、恒等写像パスを有する第1ニューラルネットワークから、SRNのように直列化された第2ニューラルネットワークが得られる。
なお、実施形態において、ステップS103,S104,S105を第1処理と呼び、ステップS107を第2処理という。
図8は、生成処理22によって図9に示すResNetから生成されるSRNとその重み行列W’,W’の具体例を示している。図8では、簡単化のため、各層L1,L2,L3に含まれるニューロンの数を3個としている。この場合、ResNetにおける重み行列W,Wは、それぞれ、図9中に示すように表される。図9に示すSRNでは、中間層L2に3個の補完ニューロンが追加されている。重み行列W’は、重み行列Wと単位行列Iとの連結によって表される。また、重み行列W’は、重み行列Wと単位行列Iとの連結によって表される。
図2に戻り、圧縮処理21では、プルーニングの第1前処理である生成処理22の後、プルーニング24の第2前処理として、第2ニューラルネットワークであるSRNの学習処理23が行われる。前述のように、直列化された直後のSRNモデルにおける重み行列W’,W’は、元のResNetから受け継いだ重み行列W,Wと単位行列を連結したものである。元のResNetから受け継いだ重み行列W,Wは、ResNetモデルを学習した際に十分に最適化されたものである一方、単位行列は最適化されていない。しかし、学習処理23を行うことで、単位行列(又はゼロ行列)によって表されていた部分の重みを最適化して、モデル精度をさらに向上させることができる。プルーニング前にモデル精度を向上させておくことで、プルーニングによるモデル精度の低下を相殺して、モデル精度を高く保ちつつ圧縮をすることが可能になる。
学習処理23の後、SRNモデルに対してプルーニング処理24が行われる。プルーニング処理によって、SRNモデルに含まれるニューロンが削減される。プルーニングは、例えば、非特許文献2に記載されているREAPと呼ばれる手法によって行うことができる。REAPは、プルーニングを行うだけでなく、プルーニングによる誤差を最小限にするために、残されたニューロンの重みを、最小二乗法を用いて更新することで、モデルの精度を保つことができる。
最後に、圧縮処理21では、第2ニューラルネットワークであるSRNモデルの再学習処理25が行われる。再学習処理25によってプルーニング後のSRNモデルの精度を向上させることができる。
ここで、前述のプルーニング処理24の前に行われる学習処理23では、正則化を用いて第2ニューラルネットワークであるSRNモデルにおける重みが最適化される。一般に重みの最適化のための正則化としてはL2正則化が用いられるが、本実施形態に係る正則化は、重みと重み初期値との差が用いられ、より具体的には、重みと重み初期値との差の二乗が用いられる。実施形態に係る正則化を、Elastic Weight Regularization(EWR)と呼ぶ。
L2正則化に代えて、EWRを用いた方がよい理由は次のとおりである。
直列化後のSRNモデルは、重み行列の一部が単位行列で構成されている。単位行列の要素は0及び1である。ここで、経験的にResNetモデルの重みは、高々10-1程度であることが多く、単位行列に含まれる1という数値は非常に大きいと言える。ここで問題になるのが、L2正則化の“副作用”である。
ニューラルネットワークモデルの学習は、逆誤差伝搬法を用いて各重みを逐次的に最適化することにより行われる。逆誤差伝搬法を用いて各重みwを逐次的に最適化するための基本的な式は、図10中の式(13)によって表される。
しかし、式(13)によって学習を行うと、重みwが極端に大きな値、あるいは、小さな値(大きな負の値)をとるなどし、モデルの汎化性が失われることがある。そこで、図10中の式(14)で示されるL2正則化が用いられる。式(14)は、式(13)にL2正則化項を追加したものである。L2正則化項によって、wの値が正負のいずれの方向にも大きくなりすぎることを防止できる。
ただし、重み行列が単位行列を含んでいるSRNモデルに対して学習処理をする場合には、L2正則化は、副作用を生じさせる。式(14)から分かるように、重みwの二乗の値が大きいほど、その重みwを更新する際にかかるL2正則化の効果は大きくなる。単位行列の要素は0と1からなるが、経験的にResNet モデルの重みは大きくても10-1程度のオーダーであることが多く、それに比べて単位行列に含まれる1という数値は非常に大きい。このため、学習を行う際、初期値が1である重みwが、ResNetモデルから引き継いだ重みや初期値が0である重みと比較して、かなり大きく更新されてしまう。当然、SRNを含むニューラルネットワークの学習において、重みは互いに独立ではない。よって、初期値が1である重みが大きく更新されると,元のResNetモデルを学習させる段階で既に最適化された重みも再び大きく更新されることになり、結果的に最適解から離れた準最適解に収束すると考えられる。
そこで、EWRでは、図10の式(15)に従って、重みwが最適化される。式(15)において、wは、学習処理23開始時における重みwの初期値である。L2正則化は、重みwが0から離れすぎないようなペナルティを与えるのに対し、EWRは、重みwが学習を始めた時の初期値wから離れすぎないようなペナルティを与える。これにより、初期値が1である重みwが正則化項の影響を受けすぎる問題を回避できる。
<3.実験>
実施形態に係る圧縮処理21の有効性を検証するため、物体検出モデルを用いた実験を行った。実験で用いた物体検出モデルは、CenterNet(非特許文献3参照)である。CenterNetは、入力画像中の物体を検知する。CenterNetでは、Backboneと呼ばれる部分にResNet-18が用いられている。ResNet-18は、18個の層を有し、入力層と最終出力層とを除くと16個の層を有する。ResNet-18は、8個の恒等写像パスを有し、ある恒等写像パスの終点層が次の恒等写像パスの起点層になるように、図4に示すアーキテクチャが直列に多段構成されている。ResNet-18において、起点層と終点層との間にある中間層の数は1個である。
実験においては、ResNet-18を用いたBackboneを、直列化及びプルーニングの対象とした。CenterNetの入力画像の画素数は512×512である。
実験には、MS-COCO(非特許文献4参照)と呼ばれるデータセットを用いた。MS-COCOは、物体検出タスク用のデータセットであり,約8万枚の学習用データと4万枚のテスト用データで構成されており、80種類の物体が対象である。前処理として、それぞれ画素数が512×512となるように、リサイズおよびクロップを行った。
実験手順は、以下のとおりである。CenterNetのBackboneであるResNet について、分岐構造の直列化およびプルーニングを実行した。入力層から近い順に、分岐構造の直列化を行い、一カ所直列化する度に以下を行った。
手順1.学習(5エポック,学習率1.25×10-4
手順2.プルーニングを実行
手順3.学習(5エポック,学習率1.25×10-4
最後に、60エポックの再学習を行った。その際、初期の学習率を1.25×10-4とし,20エポックごとに学習率を1/10倍した。
手順2)において、backbone 全体のFLOPs(画像一枚を処理するために必要な演算回数)の削減率がResNet-18 のA)1/4倍、B)1/2倍、C)3/4倍となるようにした。A)1/4倍の場合を実施例Aといい、B)1/2倍の場合を実施例Bといい、C)3/4倍の場合を実施例Cという。図6から分かるように、直列化された直後のSRNモデルでは,元は恒等写像パスにつながっていた層L1,L3のニューロン数には変化はないが、それ以外の層L2ではニューロン数は増加する。ここでは、便宜上、前者を「層1」、後者を「層2」と呼ぶことにする.層1は、起点層L1及び終点層L3に相当し、層2は、中間層L2に相当する。実施例A,B,Cについて、層1及び層2における具体的なニューロン削減率は、図11のとおりである。なお、図11において、実施例A,B,Cは、パターンA),B),C)として示されている。
比較例として、ResNet を直列化せずにそのままプルーニングした場合についても検討した。ResNetにおいては、恒等写像パスにつながる層はプルーニングできないため、それ以外の層においてニューロンを一定の割合で削除した。プルーニング手法としては、非特許文献2記載のREAPを用いた。
実験では、予測精度と推論速度を評価した。予測精度は、テスト用データにおけるmean Average Precision(mAP)で評価した。推論速度は、ニューラルネットワークを用いた推論に特化したデバイスであるJetsonNanoを用いて、画像一枚あたりの処理時間として計測した。
図12は、評価結果を示す。図12において、ResNet-18(オリジナル)は、直列化及びプルーニングをしていない元々のモデルを示す。ResNet-18-prunedは、比較例を示す。図12において、SRN-18-pruned(A)は実施例Aを示し、SRN-18-pruned(B)は実施例Bを示し、SRN-18-pruned(C)は実施例Cを示す。
図12に示すように、SRN-18-pruned(実施例)のほうが、ResNet-18-pruned(比較例)よりも優れていることがわかる。比較例では、FLOPS削減率にかかわらず、プルーニングによって予測精度が常に劣化していることがわかる。一方、ResNetをSRNに変換してからプルーニングした実施例では、元のモデルの精度をほぼ保っている。しかも、実施例Aのように、1.43倍の高速化を実現しているケースもみられる。実施例B,Cにおいても、mAPの値が高くなっていることが確認できる。
SRNは、ResNetに比べニューロン数が増加しており、計算負荷が高くなっている。しかし、SRNは恒等写像パスによる分岐を持たない直列構造を持つため、どの層においてもプルーニングが行えるというメリットがある。そのため、ResNetをSRNに変換してからプルーニングを行う方が、ResNetを直接プルーニングするよりも、精度を高く保ちつつ、モデルを小さくできる、もしくは高速化できる。以上のことは、物体検出モデルを用いた上記の実験においても実証された。
<4.付記>
本発明は、上記実施形態に限定されるものではなく、様々な変形が可能である。
10 :ニューラルネットワーク処理装置
20 :プロセッサ
21 :圧縮処理
22 :生成処理
23 :学習処理
24 :プルーニング処理
25 :再学習処理
30 :記憶装置
31 :コンピュータプログラム
100 :ニューラルネットワーク利用装置
200 :プロセッサ
300 :記憶装置
L1 :起点層
L2 :中間層
L3 :終点層
N1 :原ニューラルネットワーク
N2 :圧縮ニューラルネットワーク
N20 :圧縮ニューラルネットワークデータ

Claims (9)

  1. 恒等写像パスを有する第1ニューラルネットワークから、ニューロンのプルーニングが行われる第2ニューラルネットワークを生成するための生成処理を実行するよう構成されたニューラルネットワーク処理装置であって、
    前記第1ニューラルネットワークは、
    それぞれがニューロンを有する複数の層と、
    各ニューロンに結合する重みと、
    を備え、
    前記複数の層は、
    前記恒等写像パスの起点となる起点層と、
    前記恒等写像パスの終点となる終点層と、
    前記起点層と前記終点層との間に存在する中間層と、
    を有し、
    前記生成処理は、前記第2ニューラルネットワークを生成するために、
    補完ニューロンを前記中間層に追加するとともに、前記補完ニューロンに結合する重みを設定する第1処理と、
    前記恒等写像パスを削除する第2処理と、
    を有し、
    前記生成処理において、前記第2ニューラルネットワークは、前記補完ニューロンと前記補完ニューロンに結合する重みが、前記恒等写像パスの役割を担うように生成される
    ニューラルネットワーク処理装置。
  2. 前記ニューロンは、活性化関数を有し、前記活性化関数はレルーである
    請求項1に記載のニューラルネットワーク処理装置。
  3. 前記第2ニューラルネットワークにプルーニングをする処理と、
    前記生成処理とプルーニングをする前記処理との間において行われる、前記第2ニューラルネットワークの学習処理と、
    を更に実行するよう構成されている
    請求項1又は請求項2に記載のニューラルネットワーク処理装置。
  4. 前記学習処理は、正則化を用いて第2ニューラルネットワークにおける重みを最適化することを含み、
    前記正則化は、前記重みと、前記学習処理開始時における前記重みの初期値と、の差を用いて行われる
    請求項3に記載のニューラルネットワーク処理装置。
  5. 恒等写像パスを有する第1ニューラルネットワークから、ニューロンのプルーニングが行われる第2ニューラルネットワークを生成することを有するニューラルネットワーク処理方法であって、
    前記第1ニューラルネットワークは、
    それぞれがニューロンを有する複数の層と、
    各ニューロンに結合する重みと、
    を備え、
    前記複数の層は、
    前記恒等写像パスの起点となる起点層と、
    前記恒等写像パスの終点となる終点層と、
    前記起点層と前記終点層との間に存在する中間層と、
    を有し、
    前記ニューラルネットワーク処理方法は、前記第2ニューラルネットワークを生成するために、
    補完ニューロンを前記中間層に追加するとともに、前記補完ニューロンに結合する重みを設定すること、及び
    前記恒等写像パスを削除すること、を有し、
    前記第2ニューラルネットワークは、前記補完ニューロンと前記補完ニューロンに結合する重みが、前記恒等写像パスの役割を担うように生成される
    ニューラルネットワーク処理方法。
  6. 前記ニューロンは、活性化関数を有し、前記活性化関数はレルーである
    請求項5に記載のニューラルネットワーク処理方法。
  7. 前記第2ニューラルネットワークにプルーニングをすることと、
    前記第2ニューラルネットワークを生成することと前記第2ニューラルネットワークにプルーニングをすることとの間において行われる、前記第2ニューラルネットワークの学習と、
    を更に有する
    請求項5又は請求項6に記載のニューラルネットワーク処理方法。
  8. 前記学習は、正則化を用いて第2ニューラルネットワークにおける重みを最適化することを含み、
    前記正則化は、前記重みと、前記学習の開始時における前記重みの初期値と、の差を用いて行われる
    請求項7に記載のニューラルネットワーク処理方法。
  9. 恒等写像パスを有する第1ニューラルネットワークから、ニューロンのプルーニングが行われる第2ニューラルネットワークを生成するための生成処理を有する処理をコンピュータと機能させるためのコンピュータプログラムであって、
    前記第1ニューラルネットワークは、
    それぞれがニューロンを有する複数の層と、
    各ニューロンに結合する重みと、
    を備え、
    前記複数の層は、
    前記恒等写像パスの起点となる起点層と、
    前記恒等写像パスの終点となる終点層と、
    前記起点層と前記終点層との間に存在する中間層と、
    を有し、
    前記生成処理は、前記第2ニューラルネットワークを生成するために、
    補完ニューロンを前記中間層に追加するとともに、前記補完ニューロンに結合する重みを設定する第1処理と、
    前記恒等写像パスを削除する第2処理と、
    を有し、
    前記生成処理において、前記第2ニューラルネットワークは、前記補完ニューロンと前記補完ニューロンに結合する重みが、前記恒等写像パスの役割を担うように生成される
    コンピュータプログラム。
JP2020123973A 2020-07-20 2020-07-20 ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、及びコンピュータプログラム Active JP7533933B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020123973A JP7533933B2 (ja) 2020-07-20 2020-07-20 ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020123973A JP7533933B2 (ja) 2020-07-20 2020-07-20 ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2022020464A true JP2022020464A (ja) 2022-02-01
JP7533933B2 JP7533933B2 (ja) 2024-08-14

Family

ID=80216289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020123973A Active JP7533933B2 (ja) 2020-07-20 2020-07-20 ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP7533933B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024043771A1 (ko) * 2022-08-24 2024-02-29 동국대학교 산학협력단 사이버 공격에 강인한 인공 신경망 구조 재구성 장치 및 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10366322B2 (en) 2017-10-06 2019-07-30 DeepCube LTD. System and method for compact and efficient sparse neural networks
JP6979203B2 (ja) 2017-12-11 2021-12-08 国立研究開発法人情報通信研究機構 学習方法
US20190378017A1 (en) 2018-06-12 2019-12-12 Sun-Yuan Kung System and method for implementing a neural network
CN111382833A (zh) 2018-12-29 2020-07-07 佳能株式会社 多层神经网络模型的训练和应用方法、装置及存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024043771A1 (ko) * 2022-08-24 2024-02-29 동국대학교 산학협력단 사이버 공격에 강인한 인공 신경망 구조 재구성 장치 및 방법

Also Published As

Publication number Publication date
JP7533933B2 (ja) 2024-08-14

Similar Documents

Publication Publication Date Title
US20180260710A1 (en) Calculating device and method for a sparsely connected artificial neural network
US11372929B2 (en) Sorting an array consisting of a large number of elements
CN112597610B (zh) 机械臂结构轻量化设计的优化方法、装置及设备
CN111860771B (zh) 一种应用于边缘计算的卷积神经网络计算方法
Zhu et al. Nasb: Neural architecture search for binary convolutional neural networks
CN111738435A (zh) 一种基于移动设备的在线稀疏训练方法及系统
JP2021022050A (ja) ニューラルネットワークの圧縮方法、ニューラルネットワーク圧縮装置、コンピュータプログラム、及び圧縮されたニューラルネットワークデータの製造方法
CN111860790A (zh) 一种提高深度残差脉冲神经网络精度以优化图像分类的方法及其系统
CN112835552A (zh) 一种外积累加求解稀疏矩阵与稠密矩阵内积的方法
CN117725966B (zh) 草图序列重建模型的训练方法、几何模型重建方法及设备
JP2022020464A (ja) ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、及びコンピュータプログラム
CN109063834B (zh) 一种基于卷积特征响应图的神经网络剪枝方法
CN111291810A (zh) 基于目标属性解耦的信息处理模型生成方法及相关设备
Frezzatto et al. H2 and H∞ fuzzy filters with memory for Takagi–Sugeno discrete-time systems
JP7438544B2 (ja) ニューラルネットワーク処理装置、コンピュータプログラム、ニューラルネットワーク製造方法、ニューラルネットワークデータの製造方法、ニューラルネットワーク利用装置、及びニューラルネットワーク小規模化方法
CN114972695A (zh) 一种点云生成方法、装置、电子设备及存储介质
Dey et al. Interleaver design for deep neural networks
CN112837420B (zh) 基于多尺度和折叠结构的兵马俑点云的形状补全方法及系统
JP2019079225A (ja) 計算機及び計算方法
CN112348118A (zh) 基于梯度维持的图像分类方法、存储介质及电子设备
CN114118343A (zh) 应用于Transformer神经网络的层归一化处理硬件加速器及方法
Li et al. Denoisingnet: An efficient convolutional neural network for image denoising
TWI789042B (zh) 具有平均量化機制的神經網路建構方法及裝置
US20240311669A1 (en) Quantum circuit compression
Li et al. A One-Shot Reparameterization Method for Reducing the Loss of Tile Pruning on DNNs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240725

R150 Certificate of patent or registration of utility model

Ref document number: 7533933

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150