JP2021047854A - ニューラルネットワークに対するプルーニングを行う方法及びその装置 - Google Patents
ニューラルネットワークに対するプルーニングを行う方法及びその装置 Download PDFInfo
- Publication number
- JP2021047854A JP2021047854A JP2020146931A JP2020146931A JP2021047854A JP 2021047854 A JP2021047854 A JP 2021047854A JP 2020146931 A JP2020146931 A JP 2020146931A JP 2020146931 A JP2020146931 A JP 2020146931A JP 2021047854 A JP2021047854 A JP 2021047854A
- Authority
- JP
- Japan
- Prior art keywords
- pruning
- neural network
- layer
- data set
- class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
【課題】 ニューラルネットワークに対するプルーニングを行う方法及びその装置を提供する。【解決手段】 ニューラルネットワークに対するプルーニングを行う方法及びその装置は、ニューラルネットワークに含まれるレイヤの重み分布に基づき、重み閾値を設定し、重み閾値に基づく各レイヤのプルーニングがニューラルネットワークの推論正確度の変化に及ぼす影響を予測し、ニューラルネットワークに含まれるレイヤの中から重み閾値でプルーニングされる現在対象レイヤを決定し、決定された現在対象レイヤをプルーニングする。【選択図】 図7
Description
本発明は、ニューラルネットワークに対するプルーニング(pruning;剪定)を行う方法及びその装置に関する。
ニューラルネットワークは、コンピュータ科学的アキテクチャ(computational architecture)を参照して具現されたコンピュータシステムである。最近、ニューラルネットワーク技術の発展により、多種の電子システムにおいて、ニューラルネットワークを利用して入力データを分析し、有効な情報を抽出する研究が活発に進められている。
ニューラルネットワークを処理する装置は、複雑な入力データに対する多量の演算を必要とする。ニューラルネットワークのデータ、学習量の増加により、ニューラルネットワークを構成するアキテクチャの連結性が複雑にもなり、過去の学習データについて、正確度が上昇する代わりに、新たなデータに対する予測値の信頼性が低下する過適合(over fitting)問題が発生しうる。また、ニューラルネットワークの複雑度の上昇は、メモリ割当量の過度な増大をもたらし、小型化及び商用化における非効率的な性能がもたらされる。従って、ニューラルネットワークの性能を維持しながら、ニューラルネットワーク具現において、システムコストを低減させるための圧縮方法が研究されている。
本発明が解決しようとする課題は、ニューラルネットワークに対するプルーニングを行う方法及びその装置を提供することにある。本実施形態がなすべき技術的課題は、前述のような技術的課題に限定されるものではなく、以下の実施形態から他の技術的課題が類推されもする。
一側面によれば、ニューラルネットワークに対するプルーニングを行う方法は、前記ニューラルネットワークに含まれるレイヤの重み分布に基づき、目標プルーニングの比率で、前記ニューラルネットワークをプルーニングするための重み閾値を設定する段階と、与えられたデータセットに含まれる各クラスからランダム抽出された所定個数のデータソースから設けられたプルーニングデータセットを利用し、前記重み閾値に基づく各レイヤのプルーニングが、前記ニューラルネットワークの推論正確度の変化に及ぼす影響を予測する段階と、前記予測された影響に基づき、前記ニューラルネットワークに含まれる前記レイヤのうちから、前記重み閾値でプルーニングされる現在対象レイヤを決定する段階と、前記決定された現在対象レイヤをプルーニングする段階と、を含み、前記ニューラルネットワークに対する前記プルーニングは、前記現在対象レイヤに対するプルーニングが完了した場合、前記ニューラルネットワークの残りレイヤに対して反復して行われる。
他の側面によれば、コンピュータ読み取り可能な記録媒体は、前述の方法を実行する命令語を含む1以上のプログラムが記録された記録媒体を含んでもよい。
さらに他の側面によれば、ニューラルネットワークに対するプルーニングを行う装置は、メモリと、プログラムを実行することにより、前記ニューラルネットワークに対する前記プルーニングを行う少なくとも1つのプロセッサと、を含み、前記少なくとも1つのプロセッサは、前記ニューラルネットワークに含まれるレイヤの重み分布に基づき、目標プルーニングの比率で、前記ニューラルネットワークをプルーニングするための重み閾値を設定し、与えられたデータセットに含まれる各クラスからランダム抽出された所定個数のデータソースから設けられたプルーニングデータセットを利用し、前記重み閾値に基づく各レイヤのプルーニングが、前記ニューラルネットワークの推論正確度の変化に及ぼす影響を予測し、前記予測された影響に基づき、前記ニューラルネットワークに含まれる前記レイヤのうちから、前記重み閾値でプルーニングされる現在対象レイヤを決定し、前記決定された現在対象レイヤをプルーニングし、前記少なくとも1つのプロセッサは、前記現在対象レイヤに対するプルーニングが完了した場合、前記ニューラルネットワークの残りレイヤに対して反復して前記プルーニングを行う。
本実施形態によるニューラルネットワークプルーニング装置によって行われるニューラルネットワークプルーニング方法によれば、プルーニングデータセットを利用したニューラルネットワークの再学習なしに、ニューラルネットワークに対するプルーニングが行われるので、さらに効率的なニューラルネットワークのプルーニングも可能になる。
本実施形態で使用される用語は、可能な限り現在一般的に使用される一般的な用語を選択したが、それは、当分野に携わる技術者の意図または判例、新たな技術の出現などによっても異なる。また、特定の場合、出願人が任意に選定した用語もあり、その場合、当該説明部分で詳細にその意味を記載する。従って、明細書で使用される用語は、単純な用語の名称ではなく、その用語が有する意味と、明細書の全般にわたる内容とを基に定義されなければならない。
本実施形態で使用される「構成される」または「含む」というような用語は、明細書上に記載されたさまざまな構成要素、またはさまざまな段階を必ずしもすべてを含むものであると解釈されるものではなく、そのうち、一部構成要素または一部段階は含まれず、またはさらなる構成要素または段階をさらに含んでもよいと解釈されなければならない。
以下では、添付図面を参照し、本実施形態について詳細に説明する。しかし、本実施形態は、さまざまに異なる形態にも具現され、ここで説明する例に限定されるものではない。
図1は、一実施形態によるニューラルネットワークについて説明するための図面である。
ニューラルネットワークは、コンピュータ演算システムである。例えば、パターンの認識技術または分析技術の自動化は、プロセッサ具現(processor implemented)ニューラルネットワークモデルを介しても具現される。それは、実質的なトレーニング後、入力パターンと出力パターンとの間、または入力パターンのパターン認識間における計算的に直観的なマッピングを提供することができる特殊化されたコンピュータアキテクチャ(specialized computational architecture)である。そのようなマッピングを生成したり、パターン認識を遂行したりするトレーニング能力は、ニューラルネットワークの学習能力とも称される。そのようなトレーニング能力は、特殊化されたコンピュータアキテクチャが1以上の所定グループに属するメンバーとして、入力パターン、または入力パターンの一部を分類することができるようにする。特化されたトレーニングによってトレーニングされたニューラルネットワークは、例えば、ニューラルネットワークに入力されていない入力パターンについても、比較的正確であるか、あるいは信頼に足る出力を生成する一般化された能力を有することができる。
深層ニューラルネットワーク(deep neural network)は、ニューラルネットワークを具現する1つの方式であり、ニューラルネットワークには、複数のレイヤが含まれてもよい。例えば、深層ニューラルネットワークは、入力データが適用される入力レイヤ(Input layer)、学習を基に、入力データに基づいた予測を介して導き出された結果を出力する出力レイヤ(output layer)、及び入力レイヤと出力レイヤとの間において、ニューラルネットワーク演算を行う多重の隠れ層(hidden layer)と、を含む。
深層ニューラルネットワークは、情報を処理するために利用されるアルゴリズムにより、完全連結ネットワーク(fully connected network)、畳み込みニューラルネットワーク(convolutional neural network)、リカレントニューラルネットワーク(recurrent neural network)のような多様なタイプにも分類される。
以下、ニューラルネットワーク技術分野での一般的な慣行と同様に、入力レイヤは、最下位レイヤ、出力レイヤは、最上位レイヤにも該当する。一方、最上位レイヤである出力レイヤから、最下位レイヤである入力レイヤまで順にレイヤ順位が指定されて命名されもする。例えば、隠れ層2は、隠れ層1及び入力レイヤより上位レイヤであるが、出力レイヤよりは、下位レイヤにも該当する。
深層ニューラルネットワークは、複数のレイヤを含み、隣接したレイヤ間において、相対的上位レイヤが、相対的下位レイヤの出力値に重みを乗じてバイアスを適用した値を適用されて所定演算値を出力し、当該出力値は、当該上位レイヤの隣接上位レイヤに類似の方式によっても適用される。
ニューラルネットワークを学習する方式をディープラーニング(deep learning)と言い、前述のように、ディープラーニングには、畳み込みニューラルネットワーク方式、リカレントニューラルネットワーク方式のように、多様なアルゴリズムが利用されもする。
このとき、ニューラルネットワークの学習は、レイヤ間の重み及びバイアス、または隣接したレイヤにおいて、互いに異なるレイヤに属する複数のニューロン(または、ノード)間の重み及びバイアスを決定して更新することを意味する。
例えば、レイヤ構造、またはレイヤとニューロンとの重み及びバイアスを総称し、ニューラルネットワークの連結性(connectivity)と定義することができる。従って、ニューラルネットワーク学習とは、連結性を構築して学習することを示すことができる。
図1を参照すれば、複数のレイヤ101,103,105,107それぞれは、複数のノードを含んでもよい。該ノードは、ニューラルネットワークのニューロンを意味する。すなわち、以下の説明において、ニューロンという用語と、ノードという用語は、同一意味を示す。
図1について述べれば、1レイヤの複数のノードと隣接したレイヤの複数ノードは、完全に連結されて(fully-connected)いる。例えば、隠れ層2 105のノード3−1は、隠れ層1 103の全てのノード、すなわち、ノード2−1ないしノード2−4のいずれとも連結され、それぞれのノードの出力値に対し、所定重みを乗じた値を入力される。
入力レイヤ101に入力されたデータは、複数の隠れ層を経て処理されることにより、出力レイヤ107において、最終出力値109が出力される。このとき、重みが大きいほど、対応する2つのノード間の連結性が強化されることを意味し、重みが小さいほど、2つのノード間の連結性が弱化されることを意味する。例えば、重みは、0から1までの値を有し、重みが0である場合、2つのノード間の連結性がないということを意味する。ただし、重みの数値範囲は、それに制限されるものではなく、ニューラルネットワークの具現方式によって多様でもある。
一方、重みを介した連結性が増大するほど、ニューラルネットワークの連結性が強化され、複雑性が増大するのである。それにより、重みを保存するためのメモリ割当量が増加し、ニューラルネットワーク全体の作業遂行速度が低下し、効率性が低下してしまう。従って、ニューラルネットワークの性能を維持しながら、ニューラルネットワークの大きさを小さくし、システムコストを低減し、ニューラルネットワークの具現において行われる演算量を減らす圧縮方法が望ましい。
図2A及び図2Bは、一実施形態によるニューラルネットワークのプルーニング(pruning;剪定)について説明するための図面である。
図2Aにおいて、ニューラルネットワーク210は、プルーニングが行われる前のニューラルネットワークに該当し、ニューラルネットワーク220は、プルーニングが行われた後のニューラルネットワークに該当する。該プルーニングは、粗い(coarse-grained)ニューラルネットワークプルーニング(例えば、ニューラルネットワークモデルにおいて、チャネル、カーネルまたはノードの除去)と、細かい(fine-grained)ニューラルネットワークプルーニング(例えば、ニューラルネットワークモデルにおいて、個別重みのプルーニング)とを含んでもよい。
具体的には、ニューラルネットワーク210において、隣接した2つの互いに異なるレイヤに含まれる全ての2個のニューロン組み合わせの間には、連結関係が形成されている。すなわち、ニューラルネットワーク210は、完全連結されたニューラルネットワークであるので、ニューラルネットワーク210に含まれる隣接した互いに異なるレイヤに属した任意の2つのニューロン間の連結強度を示す重みは、0より大きい値でもある。そのように、全ての隣接レイヤのニューロン間の連結性が存在する場合には、ニューラルネットワーク全体の複雑度が増大し、それにより、ニューラルネットワークの予測結果は、過適合(over fitting)により、正確度、信頼度が低下してしまう。
ニューラルネットワークの複雑度を低下させるために、ニューラルネットワークに対するプルーニングが行われ得る。
ニューラルネットワークプルーニングは、例えば図2Aに図示されているように、ニューラルネットワーク210で連結されたいかなるノード間の重みでも、所定閾値以下である場合、当該ノード間の連結性を弱化または除去する処理を行うことを意味する。例えば、ニューラルネットワーク210において、ノード1とノード2−3との重みが、所定閾値以下である場合、プルーニングは、ニューラルネットワーク210において、ノード1とノード2−3との重みを0に設定することにより、プルーニングされたニューラルネットワーク220のように、ノード1とノード2−3の連結性を除去する処理である。同様に、プルーニングされたニューラルネットワーク220においては、ニューラルネットワーク210における一部ノード間の連結性が弱化または除去されたところが例示されている。
プルーニング前に適切なニューラルネットワークのノード決定のために、ニューラルネットワークの各レイヤが探索されるのである。このとき、ニューラルネットワークの推論正確度、すなわち、ニューラルネットワークの出力が過度に低下しない線で、プルーニングされるレイヤ、重みが探索されることが望ましいのである。
プルーニングプロセスが遂行される間、ニューラルネットワークに含まれるレイヤの重みにおいて、あらかじめ定義された重み閾値より小さい値を有するニューロン間の連結が探索され、そのような重みを有するニューロン間の連結関係は、除去されるか、あるいは弱化され得る。
図2Bを参照すれば、ニューラルネットワークにおいて、n番目レイヤのk番目カーネルであるKERNELn_k 230(n及びkは、自然数である)に対してプルーニングを行った結果について図示されている。一方、ニューラルネットワークプルーニングのための設定として、例えば、重み閾値τは、0.5人であると仮定した。
プルーニング前、KERNELn_k 230は、多様な値の重みを有する。プルーニングプロセスによってKERNELn_k 230の重みにおいて、重み閾値(τ=0.5)以下の重みは、いずれも0にプルーニングされ、プルーニングされたKERNELn_k 240が生成される。そのように、プルーニングされたKERNELn_k 240は、KERNELn_k 230に比べ、隣接ノード間の連結性を弱化させ、それにより、0値を有する重みにより、隣接ノード間の演算量は、減少されるのである。
図3は、一実施形態によるニューラルネットワークプルーニング装置のハードウェア構成を図示したブロック図である。
図3を参照すれば、ニューラルネットワークプルーニング装置100は、プロセッサ110及びメモリ120を含む。図3に図示されたニューラルネットワークプルーニング装置100には、本実施形態と係わる構成要素だけが図示されている。従って、ニューラルネットワークプルーニング装置100には、図3に図示された構成要素以外に、他の汎用的な構成要素がさらに含まれてもよいということは、当業者に自明である。
ニューラルネットワークプルーニング装置100は、ニューラルネットワークに対するプルーニングを行うコンピュータデバイスに該当する。例えば、ニューラルネットワークプルーニング装置100は、PC(personal computer)、サーバデバイス、モバイルデバイスなどにも該当し、さらには、ニューラルネットワークを利用した音声認識、映像認識などを行う自律走行自動車、ロボティックス、スマートフォン、タブレットデバイス、AR(augmented reality)デバイス、IoT(Internet of Things)デバイスなどに具備された装置でもあるが、それらに制限されるものではなく、多種のデバイスにも該当する。
プロセッサ110は、ニューラルネットワークプルーニング装置100の動作を制御するための全般的な制御機能を遂行するハードウェア構成である。例えば、プロセッサ110は、ニューラルネットワークプルーニング装置100内のメモリ120に保存されたプログラムを実行することにより、ニューラルネットワークプルーニング装置100を全般的に制御することができる。プロセッサ110は、ニューラルネットワークプルーニング装置100内に具備されたCPU(central processing unit)、GPU(graphics processing unit)、AP(application processor)、NPU(neural processing unit)などによっても具現されるが、それらに制限されるものではない。
メモリ120は、プロセッサ110内で処理される各種ニューラルネットワークデータを保存するハードウェアであり、例えば、メモリ120は、ニューラルネットワークに対するプルーニングデータ、ニューラルネットワークに入力されるデータセットなどを保存することができる。また、メモリ120は、プロセッサ110によって駆動される多様なアプリケーション、例えば、ニューラルネットワークプルーニングのためのアプリケーション、ニューラルネットワーク駆動アプリケーション、ドライバなどを保存することができる。
メモリ120は、揮発性メモリ(volatile memory)または不揮発性メモリ(nonvolatile memory)のうち少なくとも1つを含んでもよい。不揮発性メモリは、ROM(read only memory)、PROM(programmable read only memory)、EPROM(electrically programmable read only memory)、EEPROM(electrically erasable and programmable read only memory)、フラッシュメモリ、PRAM(phase-change random access memory)、MRAM(magnetic random access memory)、RRAM(resistive random access memory)、FRAM(ferroelectric random access memory)などを含む。揮発性メモリは、DRAM(dynamic random access memory)、SRAM(static random access memory)、SDRAM(synchronous dynamic random access memory)などを含む。さらに、メモリ120は、HDD(hard disk drive)、SSD(solid state drive)、CF(compact flash)、SD(secure digital)、micro−SD(micro secure digital)、mini−SD(mini secure digital)、xD(extreme digital)またはMemory Stickのうち少なくとも1つを含んでもよい。
プロセッサ110は、ニューラルネットワークに含まれるレイヤの重み分布に基づき、目標プルーニングの比率でもって、ニューラルネットワークをプルーニングするための重み閾値を設定する。このとき、プロセッサ110は、重み分布が標準正規分布(standard normal distribution)のようなガウス分布(Gaussian distribution)に該当すると仮定した状態において、目標プルーニングの比率に対応する重み値を、重み閾値に設定することができる。ただし、プロセッサ110は、標準正規分布以外にも、他の多様な統計分布を利用し、ニューラルネットワークプルーニングに適する重み閾値を設定することもできる。
プロセッサ110は、ニューラルネットワークにプルーニングデータセットを入力し、プルーニングデータセットに対するニューラルネットワークの推論正確度を反復して測定及び検証することにより、ニューラルネットワークプルーニングを行うことができる。プルーニングデータセットの準備については、以下、当該図面で具体的に説明することにする。
プロセッサ110は、準備されたプルーニングデータセットを利用し、重み閾値に基づく各レイヤのプルーニングが、ニューラルネットワークの推論正確度の変化に及ぼす影響を予測する。ここで、影響予測は、各レイヤに対するプルーニングが行われる以前の推論正確度と、各レイヤに対するプルーニングが行われた後の推論正確度との差に基づく各レイヤ別敏感度(sensitivity)を計算することによっても行われる。一方、敏感度は、ニューラルネットワークの出力が、ニューラルネットワークに対する入力、またはニューラルネットワークの重み変更(perturbation)によって影響を受ける程度を意味する。例えば、敏感度測定は、連続的な間隔の全体入力パターンに対し、予想入力偏差による出力偏差の数学的な期待値と定義することができる。すなわち、敏感度は、多様な入力パラメータがニューラルネットワークモデルに入力されたとき、ニューラルネットワークモデルの出力反応の決定にも使用される。
プロセッサ110は、予測された影響に基づき、ニューラルネットワークに含まれるレイヤにおいて、重み閾値でプルーニングされる現在対象レイヤ(current subject layer)を決定する。プロセッサ110は、以前にプルーニングされたレイヤを除いた残りレイヤのうち、最も低い敏感度を有すると予測されたレイヤを、現在対象レイヤと決定することができる。すなわち、最も低い敏感度を有すると予測されたレイヤは、ニューラルネットワークの推論正確度の低下に最も少ない影響を及ぼすと予測されたレイヤを意味する。
プロセッサ110は、現在対象レイヤが決定された場合、決定された現在対象レイヤをプルーニングする。具体的には、プロセッサ110は、プルーニングデータセットに対するニューラルネットワークの推論正確度が、臨界正確度に低下するまで、重み閾値を更新し、現在対象レイヤの重みのプルーニングの比率を調整することにより、現在対象レイヤをプルーニングすることができる。
現在対象レイヤに対するプルーニングが完了した後、プロセッサ110は、ニューラルネットワークの残りレイヤのうち、プルーニングされる対象レイヤを新たに探索し、新たに探索された対象レイヤについても、反復してプルーニングを行うことにより、ニューラルネットワーク全体に対するプルーニングを行う。ニューラルネットワーク全体に対するプルーニングが完了する条件は、ニューラルネットワークプルーニングが、初期設定された目標プルーニングの比率に逹する場合であるか、またはニューラルネットワークに含まれる全てのレイヤに対してプルーニングが完了した場合でもある。
図4は、一実施形態によるプルーニングデータセットについて説明するための図面である。
図4を参照すれば、プルーニングデータセット420は、ニューラルネットワークのプルーニングが行われる間、ニューラルネットワークの推論正確度の変化(例えば、各レイヤ別敏感度)を測定及び検証するために利用されるデータセットでもある。
プルーニングデータセット420は、初期に与えられたデータセット410からも準備される。ここで、与えられたデータセット410は、ImageNetデータベース、MNISTデータベースのような公開された(public)データセットでもあるが、それらに制限されるものではなく、多種のデータベースが活用されてもよい。
プルーニングデータセット420は、与えられたデータセット410をそのまま利用するときに発生しうる与えられたデータセット410に過適合されたプルーニング現象を減らし、ニューラルネットワークプルーニング時間を短縮させるために準備することができる。ただし、与えられたデータセット410のタイプにより、プルーニングデータセット420の準備過程は、多様にもなる。
図5Aないし図5Cは、一実施形態によるプルーニングデータセットのタイプについて説明するための図面である。
図5Aを参照すれば、プルーニングデータセット512(第1タイプのプルーニングデータセット)は、与えられたデータセット511と同一データセットにも該当する。前述のように、ニューラルネットワークプルーニングにおいて、与えられたデータセット511を利用するとき、過適合の問題が発生しないと予想される場合、プルーニングデータセット512は、与えられたデータセット511と同一のものでも準備される。例えば、与えられたデータセット511がImageNetデータベースに該当する場合、第1タイプのプルーニングデータセットは、ImageNetデータベースの数百万枚〜数千万枚のイメージのデータソースでもある。
図5Bを参照すれば、プルーニングデータセット522(第2タイプのプルーニングデータセット)は、与えられたデータセット521に含まれる多様なクラスそれぞれから、所定個数ほどのデータソースをランダム抽出することによっても準備される。例えば、与えられたデータセット521は、約1,000個のクラスを有する約100万個以上のデータソースを含むImageNetデータベースから獲得されたデータセットでもあると仮定することができる。そのような場合、プルーニングデータセット522は、与えられたデータセット521のうち、約1,000個のクラスそれぞれから、1〜10個位のデータソースをランダム抽出し、抽出されたデータソースのみを含む新たなデータセットとしても準備される。一方、各クラス別にランダム抽出される個数は、任意にも設定されるが、各クラス別に多様でもある。図5Bで説明された準備方式によれば、データセットの大きさが相対的に大きく縮小されるので、ニューラルネットワークプルーニングの処理時間が短縮され、プルーニングされたニューラルネットワークが、特定データベースにだけ過適合される現象を防止することができる。
一方、「Inception−v3」のように公知されたニューラルネットワークのプルーニングは、ImageNetデータベースからすでに知られた各クラスに基づき、図5Bで説明された方式によって設けられた第2タイプのプルーニングデータセットを利用しても行われる。
しかし、「Aic−classifier」のように、未知の自体データセットで学習するニューラルネットワークは、推論アルゴリズムを知ることができないので、ImageNetデータベースにおいて、すでに定義されたクラスにおいて、「Aic−classifier」のようなニューラルネットワークが有効に推論することができるクラスを選別する必要がある。
図5Cを参照すれば、与えられたデータセット531は、「Aic−classifier」のように、未知の自体データセットで学習するニューラルネットワークをプルーニングするために設けられる。プロセッサ110(図3)は、プルーニングデータセット533(第3タイプのプルーニングデータセット)を他の準備方式によって生成することができる。具体的に説明すれば、与えられたデータセット531は、ニューラルネットワークに入力され、プロセッサ110は、ニューラルネットワークを利用して与えられたデータセット531のデータソース(例えば、イメージ)に対する推論を行う。プロセッサ110は、ニューラルネットワークの推論結果として与えられたデータセット531のクラス別データソースそれぞれのラベル(label)を決定することができる。ここで、該ラベルは、当該データソースがどの分類に属するかということを示す識別子でもある。プロセッサ110は、一定程度レベル以上の正確度を有するクラスを選別し、該クラスを有効クラス532に決定する。最終的に、プロセッサ110は、有効クラス532それぞれにおいて、所定個数、例えば、1個〜10個ほどのデータソースをランダム抽出し、抽出されたデータソースのみを含む新たなデータセットをプルーニングデータセット533として準備することができる。ただし、図5Bで説明されているように、各有効クラス532別に抽出される個数は、任意にも設定されるが、各クラス別に多様でもある。
図5Dは、図5Cのプルーニングデータセット(第3タイプのプルーニングデータセット)を設ける過程についてさらに詳細に説明するための図面である。
図5Dを参照すれば、与えられたデータセットは、CLASS 1からCLASS 1000まで合計1,000個のクラスを含むと仮定する。プロセッサ110は、各クラス別に、100個のデータソースのサンプルをランダムに抽出する。その後、プロセッサ110は、ニューラルネットワークを利用し、各データソース(例えば、イメージ)に対する推論を行い、データソースそれぞれに対するラベルを決定する。ここで、該ラベルは、当該データソースがどの分類に属するかということを示す識別子でもある。
プロセッサ110は、全体クラスにおいて、最も頻繁なラベルの比率が、所定正確度(例えば、60%)以上であるクラスを、有効クラスであると決定する。その結果、プロセッサ110は、そのような条件を満足するクラスCLASS 1,CLASS 3,……,CLASS 999が有効クラスであるとして選別することができる。
プロセッサ110は、有効クラスそれぞれから、所定個数(例えば、1〜50個)ほどのデータソースをランダム抽出し、抽出されたデータソースのみを含む新たなデータセットを、第3タイプのプルーニングデータセットとして準備することができる。一方、各クラス別にランダム抽出されるサンプル個数、有効クラスを選別するための所定正確度の数値、有効クラスからランダム抽出されるデータソースの個数は、任意に設定されるが、各クラス別に多様でもある。
ニューラルネットワークプルーニング装置100(図3)のプロセッサ110は、図5Aないし図5Dで説明された方式によって準備されたプルーニングデータセットを利用することにより、当該ニューラルネットワークのプルーニングプロセスで要求される推論正確度の測定及び検証を行うことができる。
図6は、一実施形態によるニューラルネットワークプルーニングのための重み閾値を設定することについて説明するための図面である。
図6を参照すれば、プロセッサ110は、ニューラルネットワークに含まれるレイヤの重み分布に基づき、目標プルーニングの比率で、ニューラルネットワークをプルーニングするための重み閾値を設定する。このとき、プロセッサ110は、重み分布が標準正規分布のようなガウス分布(Gaussian distribution)にも該当すると仮定した状態において、目標プルーニングの比率に対応する重み値を、重み閾値に設定することができる。
具体的には、プロセッサ110は、まず、ニューラルネットワークに含まれるレイヤの重み分布について仮定した標準正規分布上において、目標プルーニングの比率(α%)に該当するZ値を獲得する。その後、プロセッサ110は、重みの平均μと標準偏差σとを利用し、重み閾値τを計算する。
例えば、目標プルーニングの比率(α%)が30%である場合、Z=0.39であるとも計算され、重みの平均μと標準偏差σとをさらに計算し、それを介して、ニューラルネットワークプルーニングのための重み閾値τが設定されもする。
ただし、プロセッサ110は、標準正規分布以外にも、他の多様な統計分布を利用し、ニューラルネットワークプルーニングに適する重み閾値を設定することもできる。
図7は、一実施形態によるニューラルネットワークプルーニングが行われるプロセスについて説明するための図面である。
図7を参照すれば、701段階において、プロセッサ110は、図6で説明された方式を利用し、ニューラルネットワークに含まれるレイヤの重み分布に基づき、目標プルーニングの比率で、ニューラルネットワークをプルーニングするための重み閾値を設定する。
702段階において、プロセッサ110は、ニューラルネットワークの各レイヤに対する敏感度を計算し、最も低い敏感度を有するレイヤを現在対象レイヤと決定する。ここで、最も低い敏感度を有すると決定されたレイヤは、ニューラルネットワークプルーニングによるニューラルネットワークの推論正確度の低下に最も少ない影響を及ぼすと予測されたレイヤにも該当する。プロセッサ110は、敏感度計算のために、先に、図5Aないし図5Dで説明されたプルーニングデータセットのうち、少なくともいずれか1つを利用することができ、そのようなプルーニングデータセットを利用することにより、重み閾値に基づく各レイヤのプルーニングが、ニューラルネットワークの推論正確度の変化に及ぼす影響が予測され得る。
数式2を参照すれば、τは、重み閾値である。tは、ニューラルネットワークのレイヤに対してプルーニングが行われた次数、kは、プルーニングされる現在対象レイヤのインデックスを示す。例えば、プルーニングされる現在対象レイヤがニューラルネットワークにおいて、3番目にプルーニングされるレイヤに該当する場合、t=3でもある。Wtは、次数tでの重みを示し、
は、τ0を基準に、次数tでプルーニングされたk番目レイヤの重みを示す。P(Wt)とP(Wt)とのそれぞれは、Wtを利用したニューラルネットワークの推論正確度、及び
を利用したニューラルネットワークの推論正確度を示す。
すなわち、数2によれば、敏感度は、各レイヤに対するプルーニングが行われる以前の推論正確度と、各レイヤに対するプルーニングが行われた後の推論正確度との差に基づき、各レイヤ別にも計算される。
703段階において、プロセッサ110は、現在対象レイヤにおいて、重み閾値τ以下の重みをプルーニングする。
704段階において、プロセッサ110は、現在対象レイヤのプルーニング結果による、プルーニングデータセットに対するニューラルネットワークの推論正確度を測定する。
705段階において、プロセッサ110は、測定された推論正確度と臨界正確度とを比較し、測定された推論正確度が臨界正確度より低くなったかどうかを判断する。もし測定された推論正確度が臨界正確度ほど低くならない場合、707段階に進む。しかし、測定された推論正確度が臨界正確度より低くなった場合、706段階に進む。
706段階において、プロセッサ110は、重み閾値τによる現在対象レイヤのプルーニングによる推論正確度が、臨界正確度まで低下していない場合、重み閾値τを増加させることにより、重み閾値τを更新する。例えば、プロセッサ110は、τ=τ+δのように、重み閾値τをδほど増加させて更新する。ここで、δは、ニューラルネットワークの重み分布、現在対象レイヤに対するプルーニングの比率などの多様な要素を考慮し、任意にも設定される値でもある。
プロセッサ110は、更新された重み閾値に基づき、また703段階ないし705段階を遂行する。すなわち、プロセッサ110は、プルーニングデータセットに対するニューラルネットワークの推論正確度が、臨界正確度に低下するまで重み閾値を更新し、現在対象レイヤの重みのプルーニングの比率を調整することにより、現在対象レイヤをプルーニングする。
数式3を参照すれば、βは、臨界正確度を示し、前述のように、推論正確度の低下が一定レベル以下である場合には、重み閾値τを増加させ、現在対象レイヤに対するプルーニングの比率を高めながら、現在対象レイヤに対するプルーニングが行われるのである。
さらに、705段階での判断結果、測定された推論正確度が臨界正確度より低くなった場合、プロセッサ110は、現在対象レイヤに対するプルーニングを終了し、707段階を遂行する。
707段階において、プロセッサ110は、ニューラルネットワークの全てのレイヤに対するプルーニングが完了したかどうかを判断する。全てのレイヤに対するプルーニングが完了していないと判断された場合、708段階に進む。
708段階において、プロセッサ110は、直前に遂行された現在対象レイヤのプルーニング結果をメモリ120に保存し、次の次数(t+1)のレイヤに対するプルーニングを行うために、702段階からさらに反復して遂行する。
プロセッサ110は、707段階での判断結果、全てのレイヤに対するプルーニングが完了した場合、ニューラルネットワークプルーニングを終了する。
プロセッサ110は、プルーニングされたニューラルネットワークを用い、推論を行う。
一方、ニューラルネットワークプルーニングが終了するための条件として、707段階において、全てのレイヤに対するプルーニングが完了したかどうかが判断されると説明された。しかし、それに制限されるものではなく、他の実施形態によれば、プロセッサ110は、ニューラルネットワークプルーニングを終了するための条件として、初期に設定された目標プルーニングの比率に達したかどうかを判断することができる。すなわち、プロセッサ110は、707段階において、ニューラルネットワークのレイヤに対する反復的なプルーニング結果、初期に設定された目標プルーニングの比率に達した場合、ニューラルネットワークプルーニングを終了するように制御することができる。
他の実施形態によれば、プロセッサ110は、目標プルーニングの比率に達するか、あるいは全てのレイヤに対するプルーニングが完了した場合、ニューラルネットワークプルーニングを終了するための条件を満足すると判断することができる。
一方、従来には、プルーニングの正確度低下を最小化させるために、ニューラルネットワーク再学習を反復して行った。しかし、ニューラルネットワークの再学習が進められる場合には、再学習に多くの資源(例えば、時間、GPUなど)が要求されてしまう。具体的には、Inception−v3モデルを57%プルーニングするためのシミュレーション結果、6個のGPUを利用したとき、7日以上の時間が必要となり、速度が最も迅速なResNet−101の場合には、2〜3日が必要となると測定された。
本実施形態によるニューラルネットワークプルーニング装置100によって遂行されるニューラルネットワークプルーニング方法によれば、プルーニングデータセットを利用したニューラルネットワークの再学習なしに、ニューラルネットワークに対するプルーニングが行われうるので、さらに効率的なニューラルネットワークのプルーニングが可能にもなる。
図8は、一実施形態によるニューラルネットワークに対するプルーニングを行う方法のフローチャートである。図8の方法は、前述の図面で説明された実施形態に係わるので、以下、省略された内容であるとしても、先に図面で説明された内容は、図8の方法にも適用され得る。
801段階において、プロセッサ110は、ニューラルネットワークに含まれるレイヤの重み分布に基づき、目標プルーニングの比率で、ニューラルネットワークをプルーニングするための重み閾値を設定する。
802段階において、プロセッサ110は、プルーニングデータセットを利用し、重み閾値に基づく各レイヤのプルーニングがニューラルネットワークの推論正確度の変化に及ぼす影響を予測する。
803段階において、プロセッサ110は、予測された影響に基づき、ニューラルネットワークに含まれるレイヤのうち、重み閾値でプルーニングされる現在対象レイヤを決定する。
804段階において、プロセッサ110は、決定された現在対象レイヤをプルーニングする。
なお、プロセッサ110は、現在対象レイヤに対するプルーニングが完了した場合、ニューラルネットワークの残りレイヤについて、反復してプルーニングを行う。
以下の表1は、再学習なしにプルーニングを行う場合、従来の方式と、本実施形態の方式との正確度を比較したシミュレーション結果である。ここで、本実施形態のシミュレーション結果は、ImageNetデータベースの1,000個のクラスそれぞれから1個ずつのデータソースをランダム抽出し、総1,000個のデータソースを設けた後、Inception−v3のニューラルネットワークをプルーニングした結果である。
トレーニングの前(pre-trained)、ニューラルネットワークの正確度は、77.97%であった。前述のところによれば、再学習なしにプルーニングを行う場合、従来方式は、正確度が相当低下した一方、本実施形態の方式は、正確度がわずか1.78%だけ低下しただけであるとシミュレーションされた。従って、本実施形態によるプルーニング方式は、再学習なしにニューラルネットワークをプルーニングしても、正確度損失を減らしつつ、高い比率のプルーニングを行うことができる。
一方、前述の実施形態は、コンピュータで実行されうるプログラムに作成可能であり、コンピュータ読み取り可能な記録媒体を利用し、プログラムを動作させる汎用デジタルコンピュータでも具現される。また、前述の実施形態で使用されたデータの構造は、コンピュータ読み取り可能な記録媒体に、さまざまな手段を介しても記録される。コンピュータ読み取り可能な記録媒体は、磁気記録媒体(例えば、ROM、フロッピーディスク、ハードディスクなど)、光学的読取可能媒体(例えば、CD−ROM(compact disc read only memory)、DVD(digital versatile disc)など)のような記録媒体を含む。
本実施形態と係わる技術分野で当業者であるならば、前述の本質的な特性から逸脱しない範囲で実施形態が変形された形態にも具現されるということを理解することができるであろう。従って、開示された実施形態は、限定的な観点ではなく、説明的な観点から考慮されなければならない。権利範囲は、前述の説明ではなく、特許請求の範囲に示されており、それと同等な範囲内にある全ての差異は、本実施形態に含まれるものであると解釈されなければならないのである。
100 ニューラルネットワークプルーニング装置
101 入力レイヤ
103,105 隠れ層
107 出力レイヤ
110 プロセッサ
120 メモリ
101 入力レイヤ
103,105 隠れ層
107 出力レイヤ
110 プロセッサ
120 メモリ
Claims (22)
- ニューラルネットワークに対するプルーニングを行う方法において、
前記ニューラルネットワークに含まれるレイヤの重み分布に基づき、目標プルーニングの比率で、前記ニューラルネットワークをプルーニングするための重み閾値を設定する段階と、
与えられたデータセットに含まれる各クラスからランダム抽出された所定個数のデータソースから設けられたプルーニングデータセットを利用し、前記重み閾値に基づく各レイヤのプルーニングが、前記ニューラルネットワークの推論正確度の変化に及ぼす影響を予測する段階と、
前記予測された影響に基づき、前記ニューラルネットワークに含まれる前記レイヤのうちから、前記重み閾値でプルーニングされる現在対象レイヤを決定する段階と、
前記決定された現在対象レイヤをプルーニングする段階と、を含み、
前記ニューラルネットワークに対する前記プルーニングは、前記現在対象レイヤに対するプルーニングが完了した場合、前記ニューラルネットワークの残りレイヤに対して反復して遂行される方法。 - 前記現在対象レイヤを決定する段階は、
前記ニューラルネットワークにおいて、以前にプルーニングされたレイヤを除いた残りレイヤのうちから、前記影響に最も低い敏感度を有すると予測されたレイヤを前記現在対象レイヤと決定する、請求項1に記載の方法。 - 前記影響を予測する段階は、
各レイヤに対するプルーニングが行われる以前の推論正確度と、各レイヤに対するプルーニングが行われた後の推論正確度との差に基づく各レイヤ別敏感度を計算することにより、前記影響を予測する、請求項2に記載の方法。 - 前記最も低い敏感度を有すると予測されたレイヤは、
前記ニューラルネットワークの推論正確度の低下に最も少ない影響を及ぼすと予測されたレイヤに該当する、請求項2に記載の方法。 - 前記重み閾値を設定する段階は、
前記重み分布が標準正規分布に該当すると仮定した状態において、前記目標プルーニングの比率に対応する重み値を前記重み閾値に設定する、請求項1に記載の方法。 - 前記現在対象レイヤをプルーニングする段階は、
前記プルーニングデータセットに対する前記ニューラルネットワークの推論正確度が臨界正確度に低下するまで、前記重み閾値を更新し、前記現在対象レイヤの重みのプルーニングの比率を調整することにより、前記現在対象レイヤをプルーニングする、請求項1に記載の方法。 - 前記重み閾値の更新は、
現在重み閾値でプルーニングされた重みを含む前記ニューラルネットワークの推論正確度が臨界正確度まで低下していない場合、前記現在重み閾値を増加させる、請求項6に記載の方法。 - 前記ニューラルネットワークに対する前記プルーニングは、
前記目標プルーニングの比率に達するか、あるいは前記ニューラルネットワークの全てのレイヤに対するプルーニングが完了した場合に終了する、請求項1に記載の方法。 - 前記プルーニングデータセットを設ける段階をさらに含み、
前記プルーニングデータセットは、
前記与えられたデータセットに含まれるクラスごとに、所定個数のデータソースをランダム抽出して生成されたデータセットであるか、または前記与えられたデータセットから有効クラスを選別し、選別された有効クラスごとに、所定個数のデータソースをランダム抽出して生成されたデータセットである、請求項1に記載の方法。 - 前記プルーニングデータセットを設ける段階は、
前記与えられたデータセットに含まれる各クラスから、所定個数のデータソースのサンプルをランダム抽出する段階と、
前記ニューラルネットワークを利用し、前記ランダム抽出されたサンプルに対する推論を行うことにより、各サンプルに対応するラベルを決定する段階と、
前記与えられたデータセットに含まれるクラスのうち、最も頻繁なラベルの比率が所定正確度以上であるクラスを有効クラスであると決定する段階と、
前記決定された有効クラスそれぞれから、所定個数のデータソースをランダム抽出する段階と、を含み、
前記プルーニングデータセットは、前記決定された有効クラスからランダム抽出された前記所定個数のデータソースに基づいて設けられる、請求項9に記載の方法。 - 当該方法は、前記プルーニングデータセットを利用した前記ニューラルネットワークの再学習なしに、前記ニューラルネットワークに対する前記プルーニングを行う、請求項1に記載の方法。
- 請求項1ないし11のうちいずれか1項に記載の方法をコンピュータで実行させるためのプログラムを記録したコンピュータ読み取り可能な非一時的な記録媒体。
- ニューラルネットワークに対するプルーニングを行う装置において、
メモリと、
プログラムを実行することにより、前記ニューラルネットワークに対する前記プルーニングを行う少なくとも1つのプロセッサと、を含み、
前記少なくとも1つのプロセッサは、
前記ニューラルネットワークに含まれるレイヤの重み分布に基づき、目標プルーニングの比率で、前記ニューラルネットワークをプルーニングするための重み閾値を設定し、
与えられたデータセットに含まれる各クラスからランダム抽出された所定個数のデータソースから設けられたプルーニングデータセットを利用し、前記重み閾値に基づく各レイヤのプルーニングが、前記ニューラルネットワークの推論正確度の変化に及ぼす影響を予測し、
前記予測された影響に基づき、前記ニューラルネットワークに含まれる前記レイヤのうちから、前記重み閾値でプルーニングされる現在対象レイヤを決定し、
前記決定された現在対象レイヤをプルーニングし、
前記少なくとも1つのプロセッサは、
前記現在対象レイヤに対するプルーニングが完了した場合、前記ニューラルネットワークの残りレイヤに対して反復して前記プルーニングを行う、装置。 - 前記少なくとも1つのプロセッサは、
前記ニューラルネットワークにおいて、以前にプルーニングされたレイヤを除いた残りレイヤのうちから、前記影響に最も低い敏感度を有すると予測されたレイヤを前記現在対象レイヤと決定する、請求項13に記載の装置。 - 前記少なくとも1つのプロセッサは、
各レイヤに対するプルーニングが行われる以前の推論正確度と、各レイヤに対するプルーニングが行われた後の推論正確度との差に基づく各レイヤ別敏感度を計算することにより、前記影響を予測する、請求項14に記載の装置。 - 前記最も低い敏感度を有すると予測されたレイヤは、
前記ニューラルネットワークの推論正確度の低下に最も少ない影響を及ぼすと予測されたレイヤに該当する、請求項14に記載の装置。 - 前記少なくとも1つのプロセッサは、
前記重み分布が標準正規分布に該当すると仮定した状態において、前記目標プルーニングの比率に対応する重み値を前記重み閾値に設定する、請求項13に記載の装置。 - 前記少なくとも1つのプロセッサは、
前記プルーニングデータセットに対する前記ニューラルネットワークの推論正確度が臨界正確度に低下するまで、前記重み閾値を更新し、前記現在対象レイヤの重みのプルーニングの比率を調整することにより、前記現在対象レイヤをプルーニングする、請求項13に記載の装置。 - 前記重み閾値の更新は、
現在重み閾値でプルーニングされた重みを含む前記ニューラルネットワークの推論正確度が臨界正確度まで低下していない場合、前記現在重み閾値を増加させるものである、請求項18に記載の装置。 - 前記少なくとも1つのプロセッサは、
前記ニューラルネットワークに対する前記プルーニングが、前記目標プルーニングの比率に達するか、あるいは前記ニューラルネットワークの全てのレイヤに対するプルーニングが完了した場合、前記ニューラルネットワークに対する前記プルーニングを終了する、請求項13に記載の装置。 - 前記プルーニングデータセットは、
前記与えられたデータセットに含まれるクラスごとに、所定個数のデータソースをランダム抽出して生成されたデータセットであるか、または前記与えられたデータセットから有効クラスを選別し、選別された有効クラスごとに、所定個数のデータソースをランダム抽出して生成されたデータセットである、請求項13に記載の装置。 - 前記少なくとも1つのプロセッサは、
前記与えられたデータセットに含まれる各クラスから、所定個数のデータソースのサンプルをランダム抽出し、前記ニューラルネットワークを利用し、前記ランダム抽出されたサンプルに対する推論を行うことにより、各サンプルに対応するラベルを決定し、前記与えられたデータセットに含まれるクラスのうち、最も頻繁なラベルの比率が所定正確度以上であるクラスを有効クラスであると決定し、前記決定された有効クラスそれぞれから、所定個数のデータソースをランダム抽出することにより、前記プルーニングデータセットを設ける、請求項21に記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190113527A KR20210032140A (ko) | 2019-09-16 | 2019-09-16 | 뉴럴 네트워크에 대한 프루닝을 수행하는 방법 및 장치 |
KR10-2019-0113527 | 2019-09-16 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021047854A true JP2021047854A (ja) | 2021-03-25 |
Family
ID=71266425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020146931A Pending JP2021047854A (ja) | 2019-09-16 | 2020-09-01 | ニューラルネットワークに対するプルーニングを行う方法及びその装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210081798A1 (ja) |
EP (1) | EP3792840A1 (ja) |
JP (1) | JP2021047854A (ja) |
KR (1) | KR20210032140A (ja) |
CN (1) | CN112508186A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4170549A1 (en) | 2021-10-25 | 2023-04-26 | Fujitsu Limited | Machine learning program, method for machine learning, and information processing apparatus |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200129457A (ko) * | 2019-05-08 | 2020-11-18 | 삼성전자주식회사 | 학습을 수행하는 뉴럴 네트워크 시스템, 그것의 학습 방법 및 뉴럴 네트워크 프로세서의 전이 학습 방법 |
KR20210039197A (ko) * | 2019-10-01 | 2021-04-09 | 삼성전자주식회사 | 데이터를 처리하는 방법 및 장치 |
US11935271B2 (en) * | 2020-01-10 | 2024-03-19 | Tencent America LLC | Neural network model compression with selective structured weight unification |
US20210334646A1 (en) * | 2020-04-28 | 2021-10-28 | International Business Machines Corporation | Robustness-aware quantization for neural networks against weight perturbations |
KR102552478B1 (ko) * | 2021-09-07 | 2023-07-11 | 주식회사 노타 | 레이어 별 경량화를 통한 딥러닝 모델 최적화 방법 및 시스템 |
KR20230091686A (ko) * | 2021-12-16 | 2023-06-23 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
CN114358254A (zh) * | 2022-01-05 | 2022-04-15 | 腾讯科技(深圳)有限公司 | 模型处理方法以及相关产品 |
WO2023220848A1 (en) * | 2022-05-16 | 2023-11-23 | Nvidia Corporation | Detecting robustness of a neural network |
KR20240015991A (ko) * | 2022-07-28 | 2024-02-06 | 한국전자기술연구원 | 표준 정규분포 기반 양자화 기법을 이용한 딥러닝 네트워크 부호화/복호화 방법 및 장치 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7958063B2 (en) * | 2004-11-11 | 2011-06-07 | Trustees Of Columbia University In The City Of New York | Methods and systems for identifying and localizing objects based on features of the objects that are mapped to a vector |
US11423311B2 (en) * | 2015-06-04 | 2022-08-23 | Samsung Electronics Co., Ltd. | Automatic tuning of artificial neural networks |
US20190197406A1 (en) * | 2017-12-22 | 2019-06-27 | Microsoft Technology Licensing, Llc | Neural entropy enhanced machine learning |
JP2019139338A (ja) * | 2018-02-07 | 2019-08-22 | 富士通株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US20190362235A1 (en) * | 2018-05-23 | 2019-11-28 | Xiaofan Xu | Hybrid neural network pruning |
-
2019
- 2019-09-16 KR KR1020190113527A patent/KR20210032140A/ko unknown
-
2020
- 2020-03-13 CN CN202010175255.7A patent/CN112508186A/zh active Pending
- 2020-03-31 US US16/835,532 patent/US20210081798A1/en active Pending
- 2020-06-29 EP EP20182765.6A patent/EP3792840A1/en active Pending
- 2020-09-01 JP JP2020146931A patent/JP2021047854A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4170549A1 (en) | 2021-10-25 | 2023-04-26 | Fujitsu Limited | Machine learning program, method for machine learning, and information processing apparatus |
Also Published As
Publication number | Publication date |
---|---|
CN112508186A (zh) | 2021-03-16 |
EP3792840A1 (en) | 2021-03-17 |
US20210081798A1 (en) | 2021-03-18 |
KR20210032140A (ko) | 2021-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021047854A (ja) | ニューラルネットワークに対するプルーニングを行う方法及びその装置 | |
KR102589303B1 (ko) | 고정 소수점 타입의 뉴럴 네트워크를 생성하는 방법 및 장치 | |
TWI689871B (zh) | 梯度提升決策樹(gbdt)模型的特徵解釋方法和裝置 | |
CN108108762B (zh) | 一种用于冠心病数据的核极限学习机及随机森林分类方法 | |
US20200134469A1 (en) | Method and apparatus for determining a base model for transfer learning | |
CN111275175B (zh) | 神经网络训练方法、装置、图像分类方法、设备和介质 | |
JP6293963B1 (ja) | ニューロモルフィック素子を含むアレイの制御装置、離散化ステップサイズの演算方法およびプログラム | |
CN104869126B (zh) | 一种网络入侵异常检测方法 | |
JP2005504367A (ja) | 監視ニューラルネットワーク学習のための組合せ手法 | |
CN112990222B (zh) | 一种基于图像边界知识迁移的引导语义分割方法 | |
CN111950810A (zh) | 一种基于自演化预训练的多变量时间序列预测方法和设备 | |
CN107273910A (zh) | 过滤器学习方法及利用过滤器检测测试图像中的对象的方法、学习装置及对象识别支持装置 | |
CN112868032A (zh) | 提升ai识别学习能力 | |
CN116089870A (zh) | 基于元学习的小样本条件下工业设备故障预测方法及装置 | |
US11475312B2 (en) | Method and apparatus with deep neural network model fusing | |
JP7329352B2 (ja) | 分類のためのニューラルネットワークにおいて、パラメータを処理する方法及び装置 | |
Weytjens et al. | Learning uncertainty with artificial neural networks for improved remaining time prediction of business processes | |
JP6881693B2 (ja) | ニューロモーフィック回路、ニューロモーフィックアレイの学習方法およびプログラム | |
CN115936773A (zh) | 一种互联网金融黑产识别方法与系统 | |
WO2023113946A1 (en) | Hyperparameter selection using budget-aware bayesian optimization | |
WO2022162839A1 (ja) | 学習装置、学習方法、及び、記録媒体 | |
JP7439923B2 (ja) | 学習方法、学習装置及びプログラム | |
JP7405148B2 (ja) | 情報処理装置、学習方法、及び、プログラム | |
Wu et al. | Better performance of memristive convolutional neural network due to stochastic memristors | |
Zhuang | Non-intrusive Model Order Reduction based on Joint Space Sampling and Active Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230901 |