JP2019212206A - ニューラルネットワーク軽量化装置、情報処理装置、ニューラルネットワーク軽量化方法およびプログラム - Google Patents

ニューラルネットワーク軽量化装置、情報処理装置、ニューラルネットワーク軽量化方法およびプログラム Download PDF

Info

Publication number
JP2019212206A
JP2019212206A JP2018110198A JP2018110198A JP2019212206A JP 2019212206 A JP2019212206 A JP 2019212206A JP 2018110198 A JP2018110198 A JP 2018110198A JP 2018110198 A JP2018110198 A JP 2018110198A JP 2019212206 A JP2019212206 A JP 2019212206A
Authority
JP
Japan
Prior art keywords
channel
neural network
layer
processing
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018110198A
Other languages
English (en)
Other versions
JP7047612B2 (ja
Inventor
山本 康平
Kohei Yamamoto
康平 山本
前野 蔵人
Kurato Maeno
蔵人 前野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2018110198A priority Critical patent/JP7047612B2/ja
Priority to US16/434,145 priority patent/US11468331B2/en
Publication of JP2019212206A publication Critical patent/JP2019212206A/ja
Application granted granted Critical
Publication of JP7047612B2 publication Critical patent/JP7047612B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ニューラルネットワークを効率良く軽量化する。【解決手段】複数段の処理層それぞれが複数のチャネルによって接続されたニューラルネットワークの所定の処理層における少なくとも第1のチャネル数のチャネルそれぞれからの入力特徴量とパラメータとに基づいて、第1のチャネル数のチャネルそれぞれに対応する出力特徴量を算出するアテンション層と、入力特徴量に出力特徴量を乗算して得られた演算結果を、所定の処理層の次段の処理層に出力する演算部と、を有する、アテンションモジュールと、ニューラルネットワークに接続され、少なくとも当該所定の処理層及び次段の処理層の学習処理を停止させた状態で、誤差逆伝播法によってパラメータの学習処理を行う第1の学習器と、学習処理が行われた後にアテンション層によって算出された出力特徴量と所定の閾値とが所定の関係を満たすチャネルを冗長チャネルとして選択するチャネル選択部と、を備える、情報処理装置が提供される。【選択図】図1

Description

本発明は、ニューラルネットワーク軽量化装置、情報処理装置、ニューラルネットワーク軽量化方法およびプログラムに関する。
近年、物体検知などの各種の分野においてニューラルネットワークが用いられている。しかし、ニューラルネットワークの高性能化を進めていくほど、ニューラルネットワークを構成するパラメータの数が大きくなってしまう傾向があり、パラメータの数が膨大となってしまと、ニューラルネットワークを用いた学習時および推論時に、メモリおよび演算装置に与える負荷が大きくなってしまう。そのため、ニューラルネットワークを軽量化する技術が研究されている。
例えば、ニューラルネットワークを構成する各層における訓練済みモデルのフィルタ(重みフィルタ)を要素単位ではなくチャネル単位で軽量化する技術(以下、「枝刈り」とも言う。)が開示されている(例えば、非特許文献1および非特許文献2参照)。
Hao Li、他4名、"Pruning Filters for Efficient ConvNets"、[online]、2017年3月10日、ICLR2017、[平成30年6月4日検索]、インターネット<https://arxiv.org/abs/1608.08710> Jian-Hao Luo、他2名、"ThiNet: A Filter Level Pruning Method for Deep Neural NetworkCompression"、[online]、2017年7月20日、ICCV2017、[平成30年6月4日検索]、インターネット<https://arxiv.org/abs/1707.06342> Jian-Hao Luo、他1名、"AutoPruner: An End-to-End TrainableFilterPruning Method for EfficientDeep Model Inference"、[平成30年6月6日検索]、インターネット<https://arxiv.org/abs/1805.08941>
かかる枝刈りの技術では、どの程度フィルタを削除するかを層ごとにあらかじめ決定する必要がある。すなわち、かかる枝刈りの技術では、各層の圧縮率をあらかじめ決定する必要がある。そこで、各層の圧縮率をあらかじめ決定せずとも自動的にニューラルネットワークを効率良く軽量化するための情報を得ることを可能とする技術が提供されることが望まれる。
上記問題を解決するために、本発明のある観点によれば、複数段の処理層それぞれが複数のチャネルによって接続されたニューラルネットワークの所定の処理層における少なくとも第1のチャネル数のチャネルそれぞれからの入力特徴量とパラメータとに基づいて、前記第1のチャネル数のチャネルそれぞれに対応する出力特徴量を算出するアテンション層と、前記入力特徴量に前記出力特徴量を乗算して得られた演算結果を、前記所定の処理層の次段の処理層に出力する演算部と、を有する、アテンションモジュールと、前記ニューラルネットワークに接続され、少なくとも前記所定の処理層及び次段の処理層の学習処理を停止させた状態で、誤差逆伝播法によって前記パラメータの学習処理を行う第1の学習器と、前記学習処理が行われた後に前記アテンション層によって算出された前記出力特徴量と所定の閾値とが所定の関係を満たすチャネルを冗長チャネルとして選択するチャネル選択部と、前記所定の処理層から前記冗長チャネルを削除することによって前記第1のチャネル数のチャネルを第2のチャネル数のチャネルに変更する削除部と、前記ニューラルネットワークに接続され、前記冗長チャネルが削除された後に前記ニューラルネットワークの学習処理を行う第2の学習器と、を備える、ニューラルネットワーク軽量化装置が提供される。
前記アテンション層は、前記入力特徴量と前記パラメータとに応じた特徴量と前記第1のチャネル数を所定の調整値で除した値との乗算結果を前記出力特徴量として算出し、
前記第1の学習器は、前記学習処理が行われている間に前記調整値を徐々に大きくする学習調整部を備えてもよい。
前記学習調整部は、前記調整値をエポック単位またはイテレーション単位で大きくしてもよい。
前記学習調整部は、前記第1のチャネル数が大きいほど前記調整値を大きくしてもよい。
前記チャネル選択部は、前記出力特徴量が前記所定の閾値を下回るチャネルを前記冗長チャネルとして選択してもよい。
前記ニューラルネットワーク軽量化装置は、前記複数の処理層それぞれに対応して、前記アテンションモジュール、前記チャネル選択部および前記削除部を有しており、前記第2の学習器は、前記複数の処理層それぞれから前記冗長チャネルが削除された後に前記ニューラルネットワークの学習処理を行ってもよい。
前記複数の処理層それぞれに対応する前記アテンションモジュールは、一部または全部が共通化されていてもよい。
前記複数の処理層それぞれに対応する前記アテンションモジュールは、異なるモジュールであってもよい。
また、本発明の別の観点によれば、複数段の処理層それぞれが複数のチャネルによって接続されたニューラルネットワークの所定の処理層における少なくとも第1のチャネル数のチャネルそれぞれからの入力特徴量とパラメータとに基づいて、前記第1のチャネル数のチャネルそれぞれに対応する出力特徴量を算出するアテンション層と、前記入力特徴量に前記出力特徴量を乗算して得られた演算結果を、前記所定の処理層の次段の処理層に出力する演算部と、を有する、アテンションモジュールと、前記ニューラルネットワークに接続され、少なくとも前記所定の処理層及び次段の処理層の学習処理を停止させた状態で、誤差逆伝播法によって前記パラメータの学習処理を行う第1の学習器と、前記学習処理が行われた後に前記アテンション層によって算出された前記出力特徴量と所定の閾値とが所定の関係を満たすチャネルを冗長チャネルとして選択するチャネル選択部と、前記学習処理が行われた後に前記アテンション層によって算出された前記出力特徴量に応じた出力を行う出力部と、を備える、情報処理装置が提供される。
また、本発明の別の観点によれば、複数段の処理層それぞれが複数のチャネルによって接続されたニューラルネットワークの所定の処理層における少なくとも第1のチャネル数のチャネルそれぞれからの入力特徴量とパラメータとに基づいて、前記第1のチャネル数のチャネルそれぞれに対応する出力特徴量を算出することと、前記入力特徴量に前記出力特徴量を乗算して得られた演算結果を、前記所定の処理層の次段の処理層に出力することと、前記ニューラルネットワークに接続され、少なくとも前記所定の処理層及び次段の処理層の学習処理を停止させた状態で、誤差逆伝播法によって前記パラメータの学習処理を行うことと、前記学習処理が行われた後に算出された前記出力特徴量と所定の閾値とが所定の関係を満たすチャネルを冗長チャネルとして選択することと、前記所定の処理層から前記冗長チャネルを削除することによって前記第1のチャネル数のチャネルを第2のチャネル数のチャネルに変更することと、前記ニューラルネットワークに接続され、前記冗長チャネルが削除された後に前記ニューラルネットワークの学習処理を行うことと、を含む、ニューラルネットワーク軽量化方法が提供される。
また、本発明の別の観点によれば、コンピュータを、複数段の処理層それぞれが複数のチャネルによって接続されたニューラルネットワークの所定の処理層における少なくとも第1のチャネル数のチャネルそれぞれからの入力特徴量とパラメータとに基づいて、前記第1のチャネル数のチャネルそれぞれに対応する出力特徴量を算出するアテンション層と、前記入力特徴量に前記出力特徴量を乗算して得られた演算結果を、前記所定の処理層の次段の処理層に出力する演算部と、を有する、アテンションモジュールと、前記ニューラルネットワークに接続され、少なくとも前記所定の処理層及び次段の処理層の学習処理を停止させた状態で、誤差逆伝播法によって前記パラメータの学習処理を行う第1の学習器と、前記学習処理が行われた後に前記アテンション層によって算出された前記出力特徴量と所定の閾値とが所定の関係を満たすチャネルを冗長チャネルとして選択するチャネル選択部と、前記所定の処理層から前記冗長チャネルを削除することによって前記第1のチャネル数のチャネルを第2のチャネル数のチャネルに変更する削除部と、前記ニューラルネットワークに接続され、前記冗長チャネルが削除された後に前記ニューラルネットワークの学習処理を行う第2の学習器と、を備える、ニューラルネットワーク軽量化装置として機能させるためのプログラムが提供される。
以上説明したように本発明によれば、各層の圧縮率をあらかじめ決定せずとも自動的にニューラルネットワークを効率良く軽量化するための情報を得ることを可能とする技術が提供される。
本開示の実施形態の概要を説明するための図である。 同実施形態の概要を説明するための図である。 同実施形態に係るニューラルネットワークの構成例を示す図である。 同実施形態に係るアテンション層が接続されたニューラルネットワークの例を示す図である。 アテンション層の構成例を示す図である。 調整値が1である場合の例を示す図である。 調整値を変化させる例を示す図である。 調整値を変化させる例を示す図である。 調整値を変化させる例を示す図である。 同実施形態に係るニューラルネットワーク軽量化装置の機能構成例を示す図である。 誤差伝播ルートの例を示す図である。 第1の学習器による学習処理が行われた後にSoftmax関数から出力される特徴量の例を示す図である。 閾値の例を示す図である。 冗長チャネルが削除される例を示す図である。 本発明の実施形態に係るニューラルネットワーク軽量化装置の例としての情報処理装置のハードウェア構成を示す図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一の機能構成を有する複数の構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、異なる実施形態の類似する構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。
(0.概要)
まず、本発明の実施形態の概要を説明する。近年、物体検知などの各種の分野においてニューラルネットワークが用いられている。しかし、ニューラルネットワークの高性能化を進めていくほど、ニューラルネットワークを構成するパラメータの数が大きくなってしまう傾向があり、パラメータの数が膨大となってしまと、ニューラルネットワークを用いた学習時および推論時に、メモリおよび演算装置に与える負荷が大きくなってしまう。そのため、ニューラルネットワークを軽量化する技術が研究されている。
例えば、ニューラルネットワークを構成する各層における訓練済みモデルのフィルタ(重みフィルタ)を要素単位ではなくチャネル単位で軽量化する技術(枝刈り技術)が開示されている。
図1および図2は、本開示の実施形態の概要を説明するための図である。ここでは、複数段の処理層によって構成されるニューラルネットワークを想定し、複数段の処理層のうちのL層に注目する。図1を参照すると、L層への入力である「L層入力」が示され、「L層(重みフィルタ)」が示され、L層からの出力である「L層出力」が示されている。
図1に示された例では、L層は、2つのフィルタ(フィルタF1およびフィルタF2)から構成されており、L層の各フィルタは、3つのチャネルから構成されている(フィルタF1はチャネルC1〜C3から構成され、フィルタF2はチャネルC4〜C6から構成されている)。L層の各フィルタには、3つのチャネルそれぞれに対応する入力データ(チャネルデータg1〜g3)が入力される。図1には、3つのチャネルそれぞれに対応する入力データの例として、RGB画像データが示されている。
L層の各フィルタは、チャネルデータg1〜g3とパラメータ(重みおよびバイアス)とに基づいて特徴量を算出し、算出した特徴量をL+1層に出力する(フィルタF1は特徴量G1を出力し、フィルタF2は特徴量G2をL+1層に出力する)。図1を参照すると、「L層入力」の各次元が、3(=チャネル数)、H(=縦サイズ)、W(=横サイズ)として示されている。一方、図1を参照すると、「L層(重みフィルタ)」の各次元が、2(フィルタ数)、3(=チャネル数)、Kh(=縦サイズ)、Kw(=横サイズ)として示され、「L層出力」の各次元が、2(チャネル数)、H’(=縦サイズ)、W’(=横サイズ)として示されている。
続いて、フィルタF1のチャネルC3が冗長であると判断され、フィルタF2のチャネルC6が冗長であると判断された場合を想定する。かかる場合には、図2に示されるように、冗長であると判断されたチャネルC3およびチャネルC6が削除される。これによって、ニューラルネットワークの軽量化が実現される。
なお、図2を参照すると、L層におけるチャネル削除に伴って、「L層入力」のチャネル数が2に減少し、「L層(重みフィルタ)」のチャネル数が2に減少している。一方、「L層(重みフィルタ)」からの出力チャネル数は2のままである。しかし、仮にL+1層において枝刈りが行われ、L+1層のチャネル数が減少すれば、L+1層のチャネル数の減少に応じて、L層からの出力チャネル数も減少する。
図1および図2を参照しながら説明した枝刈りの技術では、どの程度フィルタを削除するかを層ごとにあらかじめ決定する必要があるのが一般的である。すなわち、枝刈りの技術では、各層の圧縮率をあらかじめ決定する必要があるのが一般的である。そこで、本発明の実施形態においては、各層の圧縮率をあらかじめ決定せずとも自動的にニューラルネットワークを効率良く軽量化するための情報を得ることを可能とする技術について主に説明する。
以上、本発明の実施形態の概要について説明した。
(1.実施形態の詳細)
続いて、本発明の実施形態の詳細について説明する。
図3は、本発明の実施形態に係るニューラルネットワークの構成例を示す図である。図3に示されるように、本発明の実施形態に係るニューラルネットワーク20は、複数段の処理層21を含んで構成される。本発明の実施形態においては、図3に示されたように、ニューラルネットワーク20が、3つの処理層21−1〜21−3を含む場合を想定する。しかし、ニューラルネットワーク20が含む処理層21の数は、複数であれば限定されない。
また、処理層21−1〜21−3それぞれは、複数のチャネルによって接続されている。例えば、処理層21−1と次段の処理層21−2とは複数のチャネル(例えば、3つのチャネル)によって接続され、処理層21−2と次段の処理層21−3とは複数のチャネル(例えば、3つのチャネル)によって接続されている。しかし、処理層同士を接続するチャネル数は複数であれば限定されない。
また、本発明の実施形態においては、ニューラルネットワーク20が有する3つの処理層21−1〜21−3それぞれが畳み込み層である場合を想定する。しかし、ニューラルネットワーク20が有する処理層の種類は限定されない。例えば、ニューラルネットワーク20は、全結合層の処理層を有してもよいし、他の処理層と結合しない処理層を有してもよい。
処理層21−1〜21−3それぞれは、チャネルごとにパラメータ(重みおよびバイアス)を有している。かかるパラメータの初期値としては、あらかじめ訓練済みのデータが設定されてもよいし、学習処理によって設定されてもよい。そして、処理層21−1〜21−3それぞれは、チャネルごとに前段から入力される特徴量とチャネルごとのパラメータとに基づいて、後段に出力される特徴量をチャネルごとに算出する。処理層21−1〜21−3それぞれは、算出したチャネルごとの特徴量を出力する。本発明の実施形態においては、このようなニューラルネットワーク20に対してアテンション層を接続し、アテンション層を用いて冗長なチャネルを削除する。アテンション層については、後に説明する。
図4は、本発明の実施形態に係るアテンション層が接続されたニューラルネットワーク20の例を示す図である。図4に示された例では、ニューラルネットワーク20の一部の処理層21に対してアテンション層11が接続されている。より具体的には、処理層21−1に対してアテンション層11−1が接続され、処理層21−2に対してアテンション層11−2が接続されている。しかし、アテンション層11は、ニューラルネットワーク20を構成する少なくとも1つの処理層21に対して接続されればよい。
例えば、ニューラルネットワーク20の一部の処理層21に対してアテンション層11が接続されてもよい。あるいは、ニューラルネットワーク20の全部の処理層21に対してアテンション層11が接続されてもよい。また、複数の処理層21それぞれに対応するアテンションモジュール13は異なるモジュールであってよい。図4に示された例では、アテンションモジュール13−1とアテンションモジュール13−2とが異なるモジュールである。あるいは、複数の処理層21それぞれに対応するアテンションモジュール13は、一部または全部が共通化されていてもよい。
ここで、アテンション層11−1とアテンション層11−2とは同様の機能を有しているため、以下では、アテンション層11−1について主に説明し、アテンション層11−2の詳細な説明は適宜省略する。
また、アテンション層11と次段の処理層21とに対して、演算部12が接続されている。図4を参照すると、アテンション層11−1と次段の処理層21−2とに対して演算部12−1が接続され、アテンション層11−2と次段の処理層21−3とに対して演算部12−2が接続されている。なお、演算部12−1と演算部12−2とは同様の機能を有しているため、以下では、演算部12−1について主に説明し、演算部12−2の説明は適宜省略する。
図5は、アテンション層11−1の構成例を示す図である。図5を参照すると、アテンション層11−1は、畳み込み層110、活性化関数112、畳み込み層114、Softmax関数116、(チャネル数/調整値α)の乗算部118を有している。しかし、アテンション層11−1の構成例は、図5に示された例に限定されない。例えば、アテンション層11−1は、学習可能なパラメータを有するニューラルネットワークを有していればよく、畳み込み層110、活性化関数112および畳み込み層114の代わりに、学習可能なパラメータを有する他のニューラルネットワークを有してもよい。
アテンション層11−1には、処理層21−1における複数のチャネル(例えば、3つのチャネル)それぞれから特徴量(入力特徴量)が入力される。アテンション層11−1は、処理層21−1における複数のチャネル(例えば、3つのチャネル)それぞれから入力される特徴量(入力特徴量)とパラメータとに基づいて、当該複数のチャネルそれぞれに対応する特徴量(出力特徴量)を算出する。ここで、アテンション層11からの出力特徴量が大きいチャネルほど、精度に大きく寄与するため、重要度が高いチャネルであると考えられる。そこで、本発明の実施形態では、アテンション層11からの出力特徴量が小さいチャネルほど重要度が低いとして削除されやすくなる。
より具体的に、畳み込み層110は、複数のチャネルそれぞれの入力特徴量と自身が有するパラメータとに基づいて、当該複数のチャネルそれぞれに対応する特徴量を算出する。活性化関数112は、当該複数のチャネルそれぞれに対応する特徴量に重みを乗じ、その総和を出力する。活性化関数112の種類は限定されない。例えば、活性化関数112は、シグモイド関数であってもよいし、ReLU関数であってもよいし、他の関数であってもよい。畳み込み層114は、当該総和と自身が有するパラメータとに基づいて、当該複数のチャネルそれぞれに対応する特徴量を算出する。
Softmax関数116は、当該複数のチャネルそれぞれに対応する特徴量を、大きい特徴量ほど大きい値を示すように、かつ、総和が1となるように変換する。Softmax関数116によれば、重要度が高いチャネルほど大きな特徴量が得られ、かつ、総和が一定となるためにチャネル間の特徴量の比較が容易となる。iをチャネル番号とし、各特徴量をxiとした場合、Softmax関数116は、以下の関数(1)のように表現される。ただし、Σは、チャネル数分の合計値を示す。
exp(xi)/Σ(exp(xi))・・・(1)
なお、Softmax関数116の代わりに、他の関数が用いられてもよい。例えば、大きい特徴量ほど大きい値を示すように変換し、かつ、負の値をとる特徴量を正の値に変換する任意の関数をfとした場合、Softmax関数116の代わりに、以下の関数(2)が用いられてもよい。
f(xi)/Σ(f(xi))・・・(2)
チャネル数/α(=調整値)の乗算部118は、処理層21−1における複数のチャネル(例えば、3つのチャネル)それぞれから入力される特徴量(入力特徴量)とパラメータとに応じて算出された特徴量と、チャネル数を所定の調整値αで除した値との乗算結果を出力特徴量として算出する。
ここで、上記したように、本発明の実施形態では、アテンション層11−1からの出力特徴量が小さいチャネルほど重要度が低いとして削除されやすくなる。しかし、Softmax関数からの出力(出力特徴量)をそのまま処理層21−1からの入力特徴量に乗算してしまうと、急激に多くのチャネルが削除され、第1の学習器16による学習処理が効果的に行われなくなってしまう場合がある。そこで、処理層21−1からの入力特徴量に乗算される出力特徴量を徐々に小さくするのが望ましい。
より具体的に、学習調整部17は、第1の学習器16によって学習処理が行われている間に調整値αを徐々に大きくするのがよい。このとき、調整値αは、1以上、かつ、チャネル数以下の範囲内で変化してよい。例えば、調整値α=1である場合には、アテンション層11−1からの出力特徴量が最も大きくなる(Softmax関数からの出力が全チャネル均一と仮定すると、アテンション層11−1からの各チャネルの出力特徴量は1となる)。
図6は、調整値α=1である場合の例を示す図である。図6を参照すると、3つのチャネルからのSoftmax出力n1〜n3は、「0.33」であり、チャネル数は「3」であり、調整値αは「1」である。そこで、チャネル数/α(=調整値)の乗算部118は、3つのチャネルそれぞれからのSoftmax出力n1〜n3「0.33」と、チャネル数を所定の調整値αで除した値「3」との乗算結果「0.99」を、3つのチャネルに対応するアテンション層出力N1〜N3として算出する。
一方、調整値α=「チャネル数」である場合には、Softmax関数からの出力がそのままアテンション層11−1からの出力特徴量となる。
調整値αが更新されるタイミングは限定されない。例えば、学習調整部17は、同じデータセットを繰り返し実行するタイミングごとに調整値αを大きくしてもよい(すなわち、エポック単位で大きくしてもよい)。
図7〜図9は、調整値αを変化させる例を示す図である。図7には、エポック数が増加しても調整値αが一定である場合(一定型)が示されている。図8には、エポック数の増加とともに調整値αが1次関数的に増加する場合(線形型)が示されている。図9には、エポック数が所定の幅だけ増加した場合にのみ、調整値αを増加させる場合(ステップ型)が示されている。しかし、調整値αの変化のさせ方は、かかる例に限定されない。例えば、学習調整部17は、エポック数の増加に従って、調整値αを単調増加させればよく、調整値αを2次関数的に大きくしてもよいし、対数関数的に大きくしてもよい。
あるいは、学習調整部17は、データセットを更新するタイミングごとに調整値αを大きくしてもよい(すなわち、イテレーション単位で大きくしてもよい)。
調整値αの初期値は、状況に依らずに固定であってもよいし、状況に応じて変化させてもよい。例えば、学習調整部17は、チャネル数に応じて調整値αの初期値を変化させてもよい。より具体的に、学習調整部17は、チャネル数が大きいほど調整値αを大きくしてもよい。そうすれば、「チャネル数を所定の調整値αで除した値」を状況によってさほど変化させずに済む。
なお、本発明の実施形態においては、アテンション層11−1への入力特徴量の数とアテンション層11−1からの出力特徴量の数とが同数である場合を主に想定する。しかし、これらは必ずしも同数でなくてもよい。例えば、アテンション層11−1への入力特徴量の数よりもアテンション層11−1からの出力特徴量の数が少なくてもよい(すなわち、アテンション層11−1は、複数のチャネルのうち一部のチャネルに対応する特徴量を算出し、残りのチャネルに対応する特徴量を算出しなくてもよい)。
図10は、本発明の実施形態に係るニューラルネットワーク軽量化装置の機能構成例を示す図である。図10に示されるように、ニューラルネットワーク軽量化装置10は、複数のアテンションモジュール13(アテンションモジュール13−1およびアテンションモジュール13−2)、複数のチャネル選択部14(チャネル選択部14−1〜14−2)、複数の削除部(削除部15−1〜15−2)、第1の学習器16、第2の学習器18を備える。
ニューラルネットワーク軽量化装置10は、CPU(Central Processing Unit)などの演算装置を含み、図示しないメモリにより記憶されているプログラムがCPUによりRAM(Random Access Memory)に展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。あるいは、ニューラルネットワーク軽量化装置10は、専用のハードウェアにより構成されていてもよいし、複数のハードウェアの組み合わせにより構成されてもよい。
複数のアテンションモジュール13それぞれは、対応するアテンション層11および対応する演算部12を有する。具体的に、アテンションモジュール13−1は、アテンション層11−1および演算部12−1を有し、アテンションモジュール13−2は、アテンション層11−2および演算部12−2を有する。第1の学習器16は、学習調整部17を有する。
演算部12−1は、処理層21−1から入力される特徴量(入力特徴量)にアテンション層11−1から出力される特徴量(出力特徴量)をチャネルごとに乗算する。演算部12−1は、乗算して得たチャネルごとの演算結果を、次段の処理層21−2に出力する。同様に、演算部12−2も、処理層21−2から入力される特徴量(入力特徴量)にアテンション層11−2から出力される特徴量(出力特徴量)をチャネルごとに乗算する。演算部12−2は、乗算して得たチャネルごとの演算結果を、次段の処理層21−3に出力する。
第1の学習器16は、ニューラルネットワーク20に接続されており、少なくとも枝刈りの対象となる処理層の学習処理を停止させた状態で、誤差逆伝播法によってアテンション層11(より具体的には、アテンション層11の縦見込み層110および畳み込み層114それぞれが有するパラメータ)の学習処理を行う。より具体的には、第1の学習器16は、ニューラルネットワーク20からの出力yと教師データtとの差分の2乗値を誤差として算出し、算出した誤差を逆伝播させる。このとき、ニューラルネットワーク20を構成する処理層21−1〜21−3それぞれが有するパラメータは、学習処理の対象とはされずに固定される。なお、本実施形態ではニューラルネットワーク20に含まれる全ての処理層21−1〜21−3について学習処理を停止させているが、複数の処理層のうち、少なくとも枝刈りの対象となる処理層を含む一部の処理層のみの学習処理を停止させてもよい。
図11は、誤差伝播ルートの例を示す図である。図11を参照すると、誤差伝播ルートR1が例として示されている。第1の学習器16は、算出した誤差を誤差伝播ルートR1に沿って逆伝播させる。具体的に、第1の学習器16は、誤差関数を最も減少させるようなアテンション層11−2およびアテンション層11−1それぞれの(畳み込み層110および畳み込み層114の)パラメータを算出する。そして、第1の学習器16による学習処理によって、アテンション層11−2およびアテンション層11−1それぞれのパラメータが更新される。
図12は、第1の学習器16による学習処理が行われた後にSoftmax関数116から出力される特徴量の例を示す図である。図12に示されるように、複数のチャネルそれぞれに対応するSoftmax関数からの出力(出力特徴量)が得られる。
チャネル選択部14−1は、第1の学習器16による学習処理が行われた後にアテンション層11−1によって算出された出力特徴量と所定の閾値とが所定の関係を満たすチャネルを冗長チャネルとして選択する。例えば、出力特徴量が閾値を下回るチャネルは、重要度がさほど高くないと考えられる。そこで、チャネル選択部14−1は、アテンション層11−1によって算出された出力特徴量が閾値を下回るチャネルを、冗長チャネルとして選択する。
図13は、閾値の例を示す図である。図13を参照すると、全部のチャネルそれぞれに対応するSoftmax関数からの出力(出力特徴量)が等しくなっている。すなわち、全部のチャネルの重要度が等しくなっている。一例として、チャネル選択部14−1は、1/(2×チャネル数)を閾値とし、アテンション層11−1によって算出された統計値からなる出力特徴量が、かかる閾値を下回るチャネルを、冗長チャネルとして選択してもよい。そうすれば、効果的な数の冗長チャネルが選択され得る。チャネル選択部14−2による冗長チャネルの選択も同様に実行される。ここで統計値とは、多段階に表現された連続値であり、例えば少なくとも2つ以上の入力データから求められる平均値や分散値、中央値などである。出力特徴量はアテンション層への入力データに依存して変化するため、統計値を求めることでその依存性を抑えることができる。さらに、その統計値は各チャネルの重要度を直接的に表現しているため、枝刈りの判断根拠を説明するために利用することができる。
図10に戻って説明を続ける。削除部15−1は、アテンション層11−1に対応する処理層21−1から冗長チャネルを削除する。これによって、削除部15−1は、アテンション層11−1に対応する処理層21−1のチャネル数を減らす(すなわち、第1のチャネル数のチャネルを第2のチャネル数のチャネルに変更する)。かかる構成によれば、処理層21−1の圧縮率をあらかじめ決定せずとも自動的にニューラルネットワーク20を効率良く軽量化することが可能となる。削除部15−2による冗長チャネルの削除も同様に実行される。
図14は、冗長チャネルが削除される例を示す図である。図14を参照すると、「L層出力」の各次元が、3(=チャネル数)、H(=縦サイズ)、W(=横サイズ)として示されている。一方、図14を参照すると、「アテンション層出力」の次元が、3(チャネル数)として示され、各チャネルの出力が、出力N1「0.5」、出力N2「0.4」、出力N3「0.1」として示されている。「L+1層入力」の各次元は、2(チャネル数)、H(=縦サイズ)、W(=横サイズ)として示されている。
図10に戻って説明を続ける。第2の学習器18は、ニューラルネットワーク20に接続されており、削除部15−1および削除部15−2によって冗長チャネルが削除された後にニューラルネットワーク20の学習処理を行う。より具体的に、第2の学習器18は、削除部15−1および削除部15−2によって冗長チャネルが削除された後に、ニューラルネットワーク20の処理層21−1〜21−3それぞれが有するパラメータの学習処理を行う。
以上に説明したような、第1の学習器16による学習処理、チャネル選択部14−1〜14−2による冗長チャネルの選択、削除部15−1〜15−2による冗長チャネルの削除、第2の学習器18による学習処理が、この順序で1または複数回実行される。これらの処理は、1または複数回実行された後に終了する。終了条件は特に限定されない。例えば、出力特徴量が閾値を下回るチャネルが存在しなくなった場合に、これらの処理は終了してもよい。
以上、本発明の実施形態の詳細について説明した。
(2.ハードウェア構成例)
続いて、本発明の実施形態に係るニューラルネットワーク軽量化装置10のハードウェア構成例について説明する。以下では、本発明の実施形態に係るニューラルネットワーク軽量化装置10のハードウェア構成例として、情報処理装置900のハードウェア構成例について説明する。なお、以下に説明する情報処理装置900のハードウェア構成例は、ニューラルネットワーク軽量化装置10のハードウェア構成の一例に過ぎない。したがって、ニューラルネットワーク軽量化装置10のハードウェア構成は、以下に説明する情報処理装置900のハードウェア構成から不要な構成が削除されてもよいし、新たな構成が追加されてもよい。
図15は、本発明の実施形態に係るニューラルネットワーク軽量化装置10の例としての情報処理装置900のハードウェア構成を示す図である。情報処理装置900は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907と、入力装置908と、出力装置909と、ストレージ装置910と、通信装置911と、を備える。
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバス等から構成されるホストバス904により相互に接続されている。
ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バス等の外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905および外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバー等ユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路等から構成されている。情報処理装置900を操作するユーザは、この入力装置908を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置909は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプ等の表示装置およびスピーカ等の音声出力装置を含む。
ストレージ装置910は、データ格納用の装置である。ストレージ装置910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。ストレージ装置910は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置910は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。
通信装置911は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置911は、無線通信または有線通信のどちらに対応してもよい。
以上、本発明の実施形態に係るニューラルネットワーク軽量化装置10のハードウェア構成例について説明した。
(3.まとめ)
以上に説明したように、本発明の実施形態によれば、複数段の処理層それぞれが複数のチャネルによって接続されたニューラルネットワークの所定の処理層における少なくとも第1のチャネル数のチャネルそれぞれからの入力特徴量とパラメータとに基づいて、前記第1のチャネル数のチャネルそれぞれに対応する出力特徴量を算出するアテンション層と、前記入力特徴量に前記出力特徴量を乗算して得られた演算結果を、前記所定の処理層の次段の処理層に出力する演算部と、を有する、アテンションモジュールを備える、ニューラルネットワーク軽量化装置が提供される。
ここで、ニューラルネットワーク軽量化装置は、前記ニューラルネットワークに接続され、少なくとも前記所定の処理層及び次段の処理層の学習処理を停止させた状態で、誤差逆伝播法によって前記パラメータの学習処理を行う第1の学習器と、前記学習処理が行われた後に前記アテンション層によって算出された前記出力特徴量と所定の閾値とが所定の関係を満たすチャネルを冗長チャネルとして選択するチャネル選択部と、前記所定の処理層から前記冗長チャネルを削除することによって前記第1のチャネル数のチャネルを第2のチャネル数のチャネルに変更する削除部と、前記ニューラルネットワークに接続され、前記冗長チャネルが削除された後に前記ニューラルネットワークの学習処理を行う第2の学習器と、を備える。
かかる構成によれば、各層の圧縮率をあらかじめ決定せずとも自動的にニューラルネットワークを効率良く軽量化するための情報を得ることが可能となる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記では、処理層全体に対してアテンション層を接続させる場合を主に説明した。しかし、処理層の一部に対してアテンション層が接続されてもよい。例えば、処理層の各次元が、C(フィルタ数)、D(=チャネル数)、H(=縦サイズ)、W(=横サイズ)として示される場合、アテンション層は、D(=チャネル数)に対して接続されてもよい。あるいは、アテンション層は、H(=縦サイズ)およびW(=横サイズ)に対して接続されてもよい。
また、上記したアテンションモジュールと、第1の学習器と、チャネル選択部と、第1の学習器による学習処理が行われた後にアテンション層によって算出された出力特徴量に応じた出力を行う出力部と、を備える、情報処理装置も提供され得る。かかる出力部は、アテンション層によって算出された出力特徴量をそのままチャネルごとに出力してもよいし、アテンション層によって算出された出力特徴量のチャネル間の大小に関する情報を出力してもよい。かかる出力部によれば、各層の圧縮率をあらかじめ決定せずとも自動的にニューラルネットワークを効率良く軽量化するための情報(チャネルごとの重要度)を得ることが可能となる。
10 ニューラルネットワーク軽量化装置
11 アテンション層
110 畳み込み層
112 活性化関数
114 畳み込み層
116 Softmax関数
118 乗算部
12 演算部
13 アテンションモジュール
14 チャネル選択部
15 削除部
16 第1の学習器
17 学習調整部
18 第2の学習器
20 ニューラルネットワーク
21 処理層

Claims (11)

  1. 複数段の処理層それぞれが複数のチャネルによって接続されたニューラルネットワークの所定の処理層における少なくとも第1のチャネル数のチャネルそれぞれからの入力特徴量とパラメータとに基づいて、前記第1のチャネル数のチャネルそれぞれに対応する出力特徴量を算出するアテンション層と、
    前記入力特徴量に前記出力特徴量を乗算して得られた演算結果を、前記所定の処理層の次段の処理層に出力する演算部と、
    を有する、アテンションモジュールと、
    前記ニューラルネットワークに接続され、少なくとも前記所定の処理層及び次段の処理層の学習処理を停止させた状態で、誤差逆伝播法によって前記パラメータの学習処理を行う第1の学習器と、
    前記学習処理が行われた後に前記アテンション層によって算出された前記出力特徴量と所定の閾値とが所定の関係を満たすチャネルを冗長チャネルとして選択するチャネル選択部と、
    前記所定の処理層から前記冗長チャネルを削除することによって前記第1のチャネル数のチャネルを第2のチャネル数のチャネルに変更する削除部と、
    前記ニューラルネットワークに接続され、前記冗長チャネルが削除された後に前記ニューラルネットワークの学習処理を行う第2の学習器と、
    を備える、ニューラルネットワーク軽量化装置。
  2. 前記アテンション層は、前記入力特徴量と前記パラメータとに応じた特徴量と前記第1のチャネル数を所定の調整値で除した値との乗算結果を前記出力特徴量として算出し、
    前記第1の学習器は、前記学習処理が行われている間に前記調整値を徐々に大きくする学習調整部を備える、
    請求項1に記載のニューラルネットワーク軽量化装置。
  3. 前記学習調整部は、前記調整値をエポック単位またはイテレーション単位で大きくする、
    請求項2に記載のニューラルネットワーク軽量化装置。
  4. 前記学習調整部は、前記第1のチャネル数が大きいほど前記調整値を大きくする、
    請求項2に記載のニューラルネットワーク軽量化装置。
  5. 前記チャネル選択部は、前記出力特徴量が前記所定の閾値を下回るチャネルを前記冗長チャネルとして選択する、
    請求項1に記載のニューラルネットワーク軽量化装置。
  6. 前記ニューラルネットワーク軽量化装置は、
    前記複数の処理層それぞれに対応して、前記アテンションモジュール、前記チャネル選択部および前記削除部を有しており、
    前記第2の学習器は、前記複数の処理層それぞれから前記冗長チャネルが削除された後に前記ニューラルネットワークの学習処理を行う、
    請求項1に記載のニューラルネットワーク軽量化装置。
  7. 前記複数の処理層それぞれに対応する前記アテンションモジュールは、一部または全部が共通化されている、
    請求項1に記載のニューラルネットワーク軽量化装置。
  8. 前記複数の処理層それぞれに対応する前記アテンションモジュールは、異なるモジュールである、
    請求項1に記載のニューラルネットワーク軽量化装置。
  9. 複数段の処理層それぞれが複数のチャネルによって接続されたニューラルネットワークの所定の処理層における少なくとも第1のチャネル数のチャネルそれぞれからの入力特徴量とパラメータとに基づいて、前記第1のチャネル数のチャネルそれぞれに対応する出力特徴量を算出するアテンション層と、
    前記入力特徴量に前記出力特徴量を乗算して得られた演算結果を、前記所定の処理層の次段の処理層に出力する演算部と、
    を有する、アテンションモジュールと、
    前記ニューラルネットワークに接続され、少なくとも前記所定の処理層及び次段の処理層の学習処理を停止させた状態で、誤差逆伝播法によって前記パラメータの学習処理を行う第1の学習器と、
    前記学習処理が行われた後に前記アテンション層によって算出された前記出力特徴量と所定の閾値とが所定の関係を満たすチャネルを冗長チャネルとして選択するチャネル選択部と、
    前記学習処理が行われた後に前記アテンション層によって算出された前記出力特徴量に応じた出力を行う出力部と、
    を備える、情報処理装置。
  10. 複数段の処理層それぞれが複数のチャネルによって接続されたニューラルネットワークの所定の処理層における少なくとも第1のチャネル数のチャネルそれぞれからの入力特徴量とパラメータとに基づいて、前記第1のチャネル数のチャネルそれぞれに対応する出力特徴量を算出することと、
    前記入力特徴量に前記出力特徴量を乗算して得られた演算結果を、前記所定の処理層の次段の処理層に出力することと、
    前記ニューラルネットワークに接続され、少なくとも前記所定の処理層及び次段の処理層の学習処理を停止させた状態で、誤差逆伝播法によって前記パラメータの学習処理を行うことと、
    前記学習処理が行われた後に算出された前記出力特徴量と所定の閾値とが所定の関係を満たすチャネルを冗長チャネルとして選択することと、
    前記所定の処理層から前記冗長チャネルを削除することによって前記第1のチャネル数のチャネルを第2のチャネル数のチャネルに変更することと、
    前記ニューラルネットワークに接続され、前記冗長チャネルが削除された後に前記ニューラルネットワークの学習処理を行うことと、
    を含む、ニューラルネットワーク軽量化方法。
  11. コンピュータを、
    複数段の処理層それぞれが複数のチャネルによって接続されたニューラルネットワークの所定の処理層における少なくとも第1のチャネル数のチャネルそれぞれからの入力特徴量とパラメータとに基づいて、前記第1のチャネル数のチャネルそれぞれに対応する出力特徴量を算出するアテンション層と、
    前記入力特徴量に前記出力特徴量を乗算して得られた演算結果を、前記所定の処理層の次段の処理層に出力する演算部と、
    を有する、アテンションモジュールと、
    前記ニューラルネットワークに接続され、少なくとも前記所定の処理層及び次段の処理層の学習処理を停止させた状態で、誤差逆伝播法によって前記パラメータの学習処理を行う第1の学習器と、
    前記学習処理が行われた後に前記アテンション層によって算出された前記出力特徴量と所定の閾値とが所定の関係を満たすチャネルを冗長チャネルとして選択するチャネル選択部と、
    前記所定の処理層から前記冗長チャネルを削除することによって前記第1のチャネル数のチャネルを第2のチャネル数のチャネルに変更する削除部と、
    前記ニューラルネットワークに接続され、前記冗長チャネルが削除された後に前記ニューラルネットワークの学習処理を行う第2の学習器と、
    を備える、ニューラルネットワーク軽量化装置として機能させるためのプログラム。
JP2018110198A 2018-06-08 2018-06-08 ニューラルネットワーク軽量化装置、情報処理装置、ニューラルネットワーク軽量化方法およびプログラム Active JP7047612B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018110198A JP7047612B2 (ja) 2018-06-08 2018-06-08 ニューラルネットワーク軽量化装置、情報処理装置、ニューラルネットワーク軽量化方法およびプログラム
US16/434,145 US11468331B2 (en) 2018-06-08 2019-06-06 Neural network load reduction device, information processing unit, and neural network load reduction method and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018110198A JP7047612B2 (ja) 2018-06-08 2018-06-08 ニューラルネットワーク軽量化装置、情報処理装置、ニューラルネットワーク軽量化方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2019212206A true JP2019212206A (ja) 2019-12-12
JP7047612B2 JP7047612B2 (ja) 2022-04-05

Family

ID=68765113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018110198A Active JP7047612B2 (ja) 2018-06-08 2018-06-08 ニューラルネットワーク軽量化装置、情報処理装置、ニューラルネットワーク軽量化方法およびプログラム

Country Status (2)

Country Link
US (1) US11468331B2 (ja)
JP (1) JP7047612B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020144659A (ja) * 2019-03-07 2020-09-10 キヤノン株式会社 データ処理装置及びその方法、プログラム
JP2021103441A (ja) * 2019-12-25 2021-07-15 沖電気工業株式会社 ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム
JP2021108039A (ja) * 2019-12-27 2021-07-29 Kddi株式会社 モデル圧縮装置及びプログラム
JP2021124949A (ja) * 2020-02-05 2021-08-30 株式会社東芝 機械学習モデル圧縮システム、プルーニング方法及びプログラム
EP3940601A1 (en) 2020-07-14 2022-01-19 Fujitsu Limited Information processing apparatus, information processing method, and information program
EP3996005A1 (en) 2020-11-06 2022-05-11 Fujitsu Limited Calculation processing program, calculation processing method, and information processing device
JP2022073696A (ja) * 2020-11-02 2022-05-17 本田技研工業株式会社 ノード枝刈り装置、ノード枝刈り方法、およびプログラム
JP2022092592A (ja) * 2020-12-10 2022-06-22 株式会社日立製作所 機器の故障及び残存耐用時間を予測する方法、装置及びプログラム
US11449734B2 (en) 2019-05-23 2022-09-20 Oki Electric Industry Co., Ltd. Neural network reduction device, neural network reduction method, and storage medium
JP2023527489A (ja) * 2020-03-17 2023-06-29 北京京東乾石科技有限公司 モデル生成方法、オブジェクト検出方法、装置、機器、及び記憶媒体

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200053886A (ko) 2018-11-09 2020-05-19 삼성전자주식회사 뉴럴 프로세싱 유닛, 뉴럴 프로세싱 시스템, 및 어플리케이션 시스템
US11444845B1 (en) * 2019-03-05 2022-09-13 Amazon Technologies, Inc. Processing requests using compressed and complete machine learning models
US11410016B2 (en) * 2019-04-26 2022-08-09 Alibaba Group Holding Limited Selective performance of deterministic computations for neural networks
CN112418405B (zh) * 2020-12-03 2022-08-19 厦门市美亚柏科信息股份有限公司 模型压缩方法和装置
CN112733652B (zh) * 2020-12-31 2024-04-19 深圳赛安特技术服务有限公司 图像目标识别方法、装置、计算机设备及可读存储介质
CN115867923A (zh) * 2021-04-12 2023-03-28 深圳元戎启行科技有限公司 神经网络模型推理方法、装置、计算机设备和存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LUO, JIAN-HAO, WU, JIANXIN: "AutoPruner: An End-to-End Trainable Filter Pruning Method for Efficient Deep Model Inference", [ONLINE], JPN6022001470, 24 May 2018 (2018-05-24), ISSN: 0004710264 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11853864B2 (en) 2019-03-07 2023-12-26 Canon Kabushiki Kaisha Data processing apparatus and data processing method for executing processing using neural network
JP7353772B2 (ja) 2019-03-07 2023-10-02 キヤノン株式会社 データ処理装置及びその方法、プログラム
JP2020144659A (ja) * 2019-03-07 2020-09-10 キヤノン株式会社 データ処理装置及びその方法、プログラム
US11449734B2 (en) 2019-05-23 2022-09-20 Oki Electric Industry Co., Ltd. Neural network reduction device, neural network reduction method, and storage medium
JP2021103441A (ja) * 2019-12-25 2021-07-15 沖電気工業株式会社 ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム
JP7189865B2 (ja) 2019-12-27 2022-12-14 Kddi株式会社 モデル圧縮装置及びプログラム
JP2021108039A (ja) * 2019-12-27 2021-07-29 Kddi株式会社 モデル圧縮装置及びプログラム
JP2021124949A (ja) * 2020-02-05 2021-08-30 株式会社東芝 機械学習モデル圧縮システム、プルーニング方法及びプログラム
JP7242590B2 (ja) 2020-02-05 2023-03-20 株式会社東芝 機械学習モデル圧縮システム、プルーニング方法及びプログラム
JP2023527489A (ja) * 2020-03-17 2023-06-29 北京京東乾石科技有限公司 モデル生成方法、オブジェクト検出方法、装置、機器、及び記憶媒体
EP3940601A1 (en) 2020-07-14 2022-01-19 Fujitsu Limited Information processing apparatus, information processing method, and information program
JP2022073696A (ja) * 2020-11-02 2022-05-17 本田技研工業株式会社 ノード枝刈り装置、ノード枝刈り方法、およびプログラム
JP7427200B2 (ja) 2020-11-02 2024-02-05 本田技研工業株式会社 ノード枝刈り装置、ノード枝刈り方法、およびプログラム
EP3996005A1 (en) 2020-11-06 2022-05-11 Fujitsu Limited Calculation processing program, calculation processing method, and information processing device
JP2022092592A (ja) * 2020-12-10 2022-06-22 株式会社日立製作所 機器の故障及び残存耐用時間を予測する方法、装置及びプログラム
JP7268123B2 (ja) 2020-12-10 2023-05-02 株式会社日立製作所 機器の故障及び残存耐用時間を予測する方法、装置及びプログラム

Also Published As

Publication number Publication date
US20190378014A1 (en) 2019-12-12
JP7047612B2 (ja) 2022-04-05
US11468331B2 (en) 2022-10-11

Similar Documents

Publication Publication Date Title
JP2019212206A (ja) ニューラルネットワーク軽量化装置、情報処理装置、ニューラルネットワーク軽量化方法およびプログラム
JP7166322B2 (ja) モデルを訓練するための方法、装置、電子機器、記憶媒体およびコンピュータプログラム
EP3446260B1 (en) Memory-efficient backpropagation through time
JP6889270B2 (ja) ニューラルネットワークアーキテクチャの最適化
US10460230B2 (en) Reducing computations in a neural network
US11475099B2 (en) Optimization apparatus and method for controlling thereof
CN110476172A (zh) 用于卷积神经网络的神经架构搜索
JP6787444B1 (ja) ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム
CN106471525A (zh) 增强神经网络以生成附加输出
US11704570B2 (en) Learning device, learning system, and learning method
US20230196202A1 (en) System and method for automatic building of learning machines using learning machines
JP7007585B2 (ja) 最適化装置、最適化装置の制御方法及び最適化装置の制御プログラム
JP6856112B1 (ja) ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム
US10262680B2 (en) Variable sound decomposition masks
US20110173145A1 (en) Classification of a document according to a weighted search tree created by genetic algorithms
JP7068242B2 (ja) 学習装置、学習方法およびプログラム
EP3973712A1 (en) Small and fast video processing networks via neural architecture search
JP6528884B1 (ja) 学習プログラム、学習方法、及び情報処理装置
JP2022523207A (ja) ピラミッドレイヤのアーキテクチャを生成するためのシステムおよび方法
CN111694753B (zh) 一种应用程序测试方法、装置及计算机存储介质
JP7081708B1 (ja) ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム
JP6992864B1 (ja) ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム
US20240028902A1 (en) Learning apparatus and method
JP7120288B2 (ja) ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム
EP4198837A1 (en) Method and system for global explainability of neural networks

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220307

R150 Certificate of patent or registration of utility model

Ref document number: 7047612

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150