JP2020123270A - 演算装置 - Google Patents

演算装置 Download PDF

Info

Publication number
JP2020123270A
JP2020123270A JP2019016218A JP2019016218A JP2020123270A JP 2020123270 A JP2020123270 A JP 2020123270A JP 2019016218 A JP2019016218 A JP 2019016218A JP 2019016218 A JP2019016218 A JP 2019016218A JP 2020123270 A JP2020123270 A JP 2020123270A
Authority
JP
Japan
Prior art keywords
optimization
unit
sensitivity
dnn
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019016218A
Other languages
English (en)
Other versions
JP7059214B2 (ja
Inventor
大智 村田
Daichi Murata
大智 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019016218A priority Critical patent/JP7059214B2/ja
Priority to US16/775,299 priority patent/US20200250529A1/en
Publication of JP2020123270A publication Critical patent/JP2020123270A/ja
Application granted granted Critical
Publication of JP7059214B2 publication Critical patent/JP7059214B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】DNNを決定するハイパーパラメータの最適化に要する時間を短縮しながらも、DNNの認識精度を向上させる。【解決手段】入力データと、ニューラルネットワークと、超パラメータを受け付けて、前記超パラメータの最適化を行う演算装置であって、前記ニューラルネットワークへ前記入力データを入力し、前記超パラメータ毎に前記ニューラルネットワークの認識精度に対する感度を算出する感度解析部と、複数種類の最適化アルゴリズムを有し、前記感度に応じて前記最適化アルゴリズムを選択し、前記選択した最適化アルゴリズムで前記超パラメータの最適化を実施する最適化部と、前記最適化された超パラメータに基づいて前記ニューラルネットワークを再構成する再構成部と、を有する。【選択図】図2

Description

本発明は、ニューラルネットワークを利用する演算装置に関する。
物体の認識や、行動の予測を自動的に行う技術として、多層のニューラルネットワーク(Deep Neural Network、以下DNNとする)を用いた機械学習が知られている。DNNを自動運転車両へ適用する場合には、車載装置の演算能力を考慮して、小規模なDNNで高い認識精度を実現する必要がある。
小規模でありながら高精度の認識率を実現するには、DNNの構造を決定する超パラメータ(またはハイパーパラメータ)を最適化する必要がある。DNNを最適化する技術としてはSigOptやHypernetworksや特許文献1が知られている。
SigOptは、ベイズ最適化を用いて確率的に最適なDNNを探索する技術である。また、Hypernetworksは、最適なDNNの構造を、他のDNNで推論(Hyper Training)する技術である。
また、特許文献1には、全ての最適化手法に対して、学習を完了させてから、ワーカーがLWGS(Layer Wise Grid Search)やベイジアン方式などを選択して認識性能の指標が基準よりも高いパラメータを探索する技術が開示されている。
特開2017−162074号公報
しかしながら、上記従来例のSigOptでは、最適化の精度は高いが、探索型のため試行回数が増大するため、処理時間が増大してしまう、という問題があった。また、上記実施例のHypernetworksでは、最適化の精度は上記SigOptよりも低下するが、処理時間がSigOptより短縮することが可能となる。しかし、Hypernetworksでは、構造を最適化するDNNに、最適なDNN構造を推論するための重み係数を付加する必要があり、学習の収束性が低下し、また、DNNの規模が増大する、という問題があった。
また、上記従来例の特許文献1では、全ての最適化手法に対して学習を完了させておく必要があるが、学習が完了するまでには多大な時間を要するため、DNNの最適化の作業を迅速に行うことができない、という問題があった。
そこで本発明は、上記問題点に鑑みてなされたもので、DNNを決定するハイパーパラメータの最適化に要する時間を短縮しながらも、DNNの認識精度を向上させることを目的とする。
本発明は、入力データと、ニューラルネットワークと、超パラメータを受け付けて、前記超パラメータの最適化を行う演算装置であって、前記ニューラルネットワークへ前記入力データを入力し、前記超パラメータ毎に前記ニューラルネットワークの認識精度に対する感度を算出する感度解析部と、複数種類の最適化アルゴリズムを有し、前記感度に応じて前記最適化アルゴリズムを選択し、前記選択した最適化アルゴリズムで前記超パラメータの最適化を実施する最適化部と、前記最適化された超パラメータに基づいて前記ニューラルネットワークを再構成する再構成部と、を有する。
したがって、本発明は、ニューラルネットワーク(DNN)の最適化に要する時間を短縮しながらも、認識精度を向上させることが可能となる。
本明細書において開示される主題の、少なくとも一つの実施の詳細は、添付されている図面と以下の記述の中で述べられる。開示される主題のその他の特徴、態様、効果は、以下の開示、図面、請求項により明らかにされる。
本発明の実施例1を示し、DNN超パラメータ最適化装置の一例を示すブロック図である。 本発明の実施例1を示し、DNN超パラメータ最適化装置で行われる処理の一例を示す図である。 本発明の実施例2を示し、DNN超パラメータ最適化装置の一例を示すブロック図である。 本発明の実施例2を示し、DNN超パラメータ最適化装置で行われる処理の一例を示す図である。 本発明の実施例2を示し、最適化処理の時間とDNNの認識精度の関係を示すグラフである。
以下、本発明の実施形態を添付図面に基づいて説明する。
図1は、本発明の実施例1を示し、DNN(Deep Neural Network)超パラメータ最適化装置1の一例を示すブロック図である。
DNN超パラメータ最適化装置1は、最適化対象の超パラメータ(またはハイパーパラメータ)300と、最適化前のDNN100と、DNN100へ入力するデータセット200を格納するストレージ90と、中間データなどを保持するメモリ10と、感度解析部20と、最適化部30と、DNNモデル再構成部40と、精度判定部50と、感度解析部20〜精度判定部50の各機能部を制御するスケジューラ60と、各部を接続するインターコネクト5を含む演算装置である。なお、インターコネクト5としては、例えば、AXi(Advanced eXtensible Interface)を採用することができる。
本実施例1の最適化部30は、超パラメータ300を最適化するために、複数種の最適化アルゴリズム32−1〜32−nを有する。なお、以下の説明では、最適化アルゴリズムを特定しない場合には「−」以降を省略した符号「32」を使用する。また、他の構成要素の符号についても同様である。最適化アルゴリズム32は、周知または公知の技術を適用することができる。複数の最適化アルゴリズム32は、それぞれ処理時間やニューラルネットワークの認識精度等の性能が異なるアルゴリズムを有する。
また、DNN超パラメータ最適化装置1の構成要素のうち、メモリ10と、感度解析部20〜精度判定部50はスレーブとして機能し、スケジューラ60は、上記スレーブを制御するマスタとして機能する。
本実施例1のDNN超パラメータ最適化装置1は、感度解析部20〜精度判定部50の各機能部及びスケジューラ60がハードウェアで実装される。DNN超パラメータ最適化装置1は、例えば、計算機の拡張スロットに装着されてデータの授受を行うことができる。なお、ハードウェアとしては、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programable Gate Allay)等を採用することができる。
また、本実施例1では、ハードウェアで各機能部を構成する例を示すが、これに限定されるものではなない。例えば、感度解析部20〜スケジューラ60の一部または全てをソフトウェアで実装することも可能である。
ストレージ90に格納される最適化前のDNN100は、ニューラルネットワークと重み係数及びバイアスを含む。また、データセット200は、DNN100の適用先のアプリケーション(または装置)に応じたデータで、正解付きのデータと、正解なしのデータが含まれる。最適化済みのDNN400は、感度解析部20〜精度判定部50で最適化処理を実行した結果である。
超パラメータ300は、入力層から出力層の間の隠れ層(中間層)の数や、各層のニューロン(またはノード)の数等を含み、DNN100の構成を決定するパラメータである。また、超パラメータ300は、学習率やバッチサイズ、学習イテレーションの数を含むことができる。なお、超パラメータ300は、複数の超パラメータを含んでもよい。
スケジューラ60は、最適化前のDNN100と超パラメータ300及びデータセット200を受け付けて、予め設定された順序で上記各機能部を制御して超パラメータ300の最適化処理を実行し、最適化済み超パラメータ500と最適化済みのDNN400を生成させる。
本実施例1のDNN超パラメータ最適化装置1では、入力された超パラメータ300と最適化前のDNN100と適用先のアプリケーションに応じたデータセット200から、超パラメータ300の最適化を実施して最適化済み超パラメータ500を探索する。そして、DNN超パラメータ最適化装置1は、最適化済み超パラメータ500に基づいてDNN100を再構成して最適化済みのDNN400を生成する。
以下、DNN超パラメータ最適化装置1で行われる処理について説明する。図2は、DNN最適化装置で行われる処理の一例を示す図である。
まず、スケジューラ60は、最適化前の超パラメータ300と、最適化前のDNN100とデータセット200を感度解析部20へ入力する。感度解析部20は、データセット200の入力データをDNN100へ入力して、超パラメータ300毎にDNN100の認識精度に対する感度Ωを算出し、最適化部30へ出力する。なお、本実施例1では、感度解析の一例として、データセット200にノイズを付与して、DNN100の認識精度に対する感度を解析する例を示す。
なお、感度解析部20で行われる感度解析処理は、周知または公知の手法を用いることができ、例えば、「Memory Aware Synapses: Learning what (not) to forget」(R. Aljundi, et al. 2018)等を採用することができる。
上記感度解析処理では、データセット200に微小摂動(ノイズなど)を与えて、DNN100へ入力し、DNN100の認識精度に与える感度Ωを層毎に解析する。なお、感度Ωは、各ニューラルネットワークのニューロンの認識精度への感度(重要度)として算出すればよい。
最適化部30では、感度判定部31が感度解析部20で出力された超パラメータ300毎に解析した感度Ωに応じて、複数の最適化アルゴリズム32−1〜32−nのn個の最適化アルゴリズム32のうちのいずれかひとつを選択して、超パラメータ300の最適化を実施する。
本実施例1では、最適化部30がDNN100の認識精度に対する感度Ωが高い超パラメータ300と、感度Ωが低い超パラメータ300に分離する。そして、最適化部30は、感度Ωが高い超パラメータ300については、処理時間よりも認識精度が高い最適化アルゴリズム32を選択する。一方、最適化部30は、感度Ωが低い超パラメータ300については、処理時間が短い最適化アルゴリズム32を選択する。
例えば、n=3の場合、最適化部30は、感度Ωが閾値Th_s1未満であれば、最適化アルゴリズム32−1を選択し、感度Ωが閾値Th_s1以上、且つ閾値Th_s2未満であれば最適化アルゴリズム32−2を選択し、感度Ωが閾値Th_s2以上であれば最適化アルゴリズム32−3を選択する。
最適化アルゴリズム32−1は、認識精度については高くはないが処理時間が短い手法で、最適化アルゴリズム32−3は、処理時間は長くなるが認識精度が高い手法で、最適化アルゴリズム32−2は、両者の中間の手法とする。
最適化部30は、超パラメータ300毎に最適化アルゴリズム32で最適化を行った結果をDNNモデル再構成部40へ出力する。DNNモデル再構成部40は、最適化アルゴリズム32による最適化の結果から最適化済み超パラメータ500を生成する。そして、DNNモデル再構成部40は、最適化済み超パラメータ500から最適化後のDNN候補を再構成し、精度判定部50へ出力する。
精度判定部50は、最適化後のDNN候補にデータセット200の正解付きデータを入力して推論を実施し、推論誤差を算出する。精度判定部50は、推論の結果と正解から最適化後のDNN候補の推論誤差(または推論精度)を判定し、推論誤差が所定の閾値Th_a未満であるか否かを判定する。なお、推論誤差は、例えば、DNN候補の推論結果の正解率の逆数に基づく統計値(平均値など)を用いればよい。
精度判定部50は、推論誤差が閾値Th_a以上であれば、次の超パラメータ300を選択してから上記処理を繰り返す。一方、精度判定50は、推論誤差が閾値Th_a未満であれば、DNN候補を最適化済みDNN500として出力する。また、DNNモデル再構成部40は、最適化済みDNN500を生成した最適化済み超パラメータ500を、認識精度を満足した最適化済み超パラメータ500として出力する。
以上のように、DNN超パラメータ最適化装置1は、感度解析部20によるDNN100の解析と、最適化部30による超パラメータ300の最適化結果か最適化済み超パラメータ500を生成し、この最適化済み超パラメータ500に基づいてDNN候補を再構成する。そして、DNN超パラメータ最適化装置1は、DNN候補の中から、推論誤差が閾値Th_a未満となるDNN候補を最適化済みのDNN400として出力し、当該DNN400を再構成した超パラメータを最適化済み超パラメータ500として出力する。
本実施例1では、DNN超パラメータ最適化装置1が、超パラメータ300とDNN100とデータセット200を入力し、DNN100の学習前にノイズとして微小摂動を与えたデータセット200によって、DNN100を構成するニューロン毎の認識精度に対する感度Ωの解析を行って、感度Ωに応じた最適化アルゴリズム32を選択して超パラメータ300毎に最適化を実施する。
これにより、DNN100の学習に先立って、超パラメータ300の最適化を認識精度の感度に応じて実施することで、超パラメータ300の最適化に要する時間を短縮しながらも最適化済みのDNN400の認識精度の向上を図ることが可能となるのである。
図3は、実施例2を示し、DNN超パラメータ最適化装置1の一例を示すブロック図である。本実施例2のDNN超パラメータ最適化装置1は、最適化部30の最適化アルゴリズム32として、ベイズ最適化33とハイパーネットワークス34の2つの手法を採用し、感度Ωに応じて選択する。その他の構成については、前記実施例1と同様である。
図4は、DNN超パラメータ最適化装置1で行われる処理の一例を示す図である。DNN超パラメータ最適化装置1は、前記実施例1と同様に感度解析部20で超パラメータ300毎にニューラルネットワークの感度Ωを算出し、最適化部30へ出力する。
最適化部30では、感度判定部31が所定の閾値Th_sと感度Ωの比較結果に応じて、超パラメータ300を最適化する最適化アルゴリズムを選択する。本実施例2では、感度判定部31は、閾値Th_sよりも感度Ωの方が大きい場合、ベイズ最適化33を選択して超パラメータ300の最適化を実施させる。一方、感度判定部31は、感度Ωが閾値Th_s以下の場合、ハイパーネットワークス34を選択して超パラメータ300の最適化を実施させる。
ここで、ベイズ最適化33は、前記従来技術のSigOptで採用され、DNN400の認識精度と学習収束性に優れるが、処理時間が長くなる。本実施例2のベイズ最適化33は、例えば、「Freeze-Thaw Bayesian Optimization」を採用することができる。
一方、ハイパーネットワークス34は、「Stochastic Hyperparameter Optimization through Hypernetworks」(J.Lorraine, et al., 2018)として知られている。ハイパーネットワークス34は、ベイズ最適化33に比して処理時間を短縮できるが、認識精度は低下する。
本実施例2の最適化部30では、認識精度への感度Ωが閾値Th_sよりも高い超パラメータ300については、ベイズ最適化33を選択し、処理時間をかけて最適化済のDNN400の認識精度を向上させる。一方、認識精度への感度Ωが閾値Th_s以下の超パラメータ300については、ハイパーネットワークス34を選択し、処理時間を短縮する。
図5は、最適化処理の時間とDNNの認識精度の関係を示すグラフである。図中実線が本実施例2のDNN超パラメータ最適化装置1による超パラメータ300の最適化の処理時間(最適化時間)と、最適化済みのDNN400の認識精度の関係を示す。図中一点鎖線は、ベイズ最適化33による処理時間と精度判定の関係を示す。図中破線は、ハイパーネットワークス34による処理時間と精度判定の関係を示す。
本実施例2のDNN超パラメータ最適化装置1による最適化処理では、ベイズ最適化33よりも短時間で処理を行うことができるのに加えて、ベイズ最適化33と同等の認識精度を確保することができる。
以上のように、本実施例2の最適化部30では、超パラメータ300の認識精度に対する感度Ωに応じて、認識精度と処理時間の傾向が異なる超パラメータの最適化処理を実施することで、最適化に要する処理時間を短縮しながら最適化済みDNN400の認識精度を向上させることが可能となる。
なお、本実施例2では、感度Ωに応じて2つの最適手法を切り替える例を示したが、これに限定されるものではなく、多数の種類の最適化手法を感度Ωの範囲に応じて選択するようにしてもよい。
また、本実施例2では、認識精度が最大となる最適化アルゴリズム32としてベイズ最適化33を採用し、処理時間が最小となる最適化アルゴリズム32としてハイパーネットワークス34を採用した例を示したが、これに限定されるものではない。最適化アルゴリズム32としては、認識精度が最大となる最適化アルゴリズム32と、最適化の処理時間が最小となる最適化アルゴリズム32を含んでいればよい。
<まとめ>
以上のように、上記実施例1〜3の装置は、以下のような構成とすることができる。
(1)入力データ(データセット200)と、ニューラルネットワーク(最適化前のDNN100)と、超パラメータ(300)を受け付けて、前記超パラメータ(300)の最適化を行う演算装置(DNN超パラメータ最適化装置1)であって、前記ニューラルネットワーク(100)へ前記入力データ(200)を入力し、前記超パラメータ(300)毎に前記ニューラルネットワーク(100)の認識精度に対する感度(Ω)を算出する感度解析部(20)と、複数種類の最適化アルゴリズム(32)を有し、前記感度(Ω)に応じて前記最適化アルゴリズム(32)を選択し、前記選択した最適化アルゴリズム(32)で前記超パラメータ(300)の最適化を実施する最適化部(30)と、前記最適化された超パラメータ(最適化済み超パラメータ500)に基づいて前記ニューラルネットワークを再構成する再構成部(DNNモデル再構成部40)と、を有する。
上記構成によって、DNN超パラメータ最適化装置1は、DNN100の学習前に微小摂動を与えたデータセット200によって、DNN100を構成するニューロン毎の認識精度に対する感度Ωの解析を行って、感度Ωに応じた最適化アルゴリズム32を選択して超パラメータ300毎に最適化を実施する。これにより、超パラメータ300の最適化を認識精度の感度に応じて実施することで、超パラメータ300の最適化に要する時間を短縮しながらも認識精度の向上を図ることが可能となるのである。
(2)上記(1)に記載の演算装置(1)であって、前記再構成されたニューラルネットワークへ前記入力データ(200)を与えて推論を実行して推論誤差を算出し、前記推論誤差が所定の第1の閾値(Th_a)未満のニューラルネットワークを、最適化済みニューラルネットワーク(最適化済みDNN400)として出力する精度判定部(50)を、さらに有する。
上記構成によって、DNN超パラメータ最適化装置1は、推論誤差が第1の閾値(Th_a)未満となったニューラルネットワークを最適化済みDNN400として出力することができ、また、最適化済みDNN400に対応する超パラメータを最適化済み超パラメータ500として出力することができる。
(3)上記(2)に記載の演算装置(1)であって、前記精度判定部(50)は、前記推論誤差が前記第1の閾値(Th_a)以上の場合には、前記感度解析部(20)と前記最適化部(30)及び前記再構成部(40)の処理を繰り返す。
上記構成によって、DNN超パラメータ最適化装置1は、推論誤差が第1の閾値(Th_a)未満となるまで超パラメータの最適化を繰り返し、推論精度が最大の超パラメータ300及びDNN400を出力することができる。
(4)上記(2)に記載の演算装置(1)であって、前記感度解析部(20)と、前記最適化部(30)と、前記再構成部(40)及び前記精度判定部(50)の演算途中における中間データを一時的に格納するメモリ(10)と、前記感度解析部(20)と、前記最適化部(30)と、前記再構成部(40)と、前記精度判定部(50)及び前記メモリ(10)をスレーブとし、前記スレーブを制御するマスタとしてのスケジューラ(60)と、前記マスタと前記スレーブを接続するインターコネクト(5)と、をさらに有する。
上記構成により、DNN超パラメータ最適化装置1をハードウェアで構成することで、超パラメータ300の最適化処理の高速化を図ることが可能となる。
(5)上記(1)に記載の演算装置であって、前記最適化部(30)は、種類の異なる多数の最適化アルゴリズム(32)を有し、前記感度(Ω)の範囲に応じて、前記多数の最適化アルゴリズム(32)のいずれかひとつを選択する。
上記構成によって、DNN超パラメータ最適化装置1は、種類の異なる最適化アルゴリズム32を多数用意することで、感度Ωに応じた最適化アルゴリズム32を選択し、感度Ωに応じた最適化を実現することができる。
(6)上記(1)に記載の演算装置(1)であって、前記最適化部(30)は、前記最適化アルゴリズム(32)としてベイズ最適化(33)と、ハイパーネットワークス(34)を含み、前記感度(Ω)が所定の第2の閾値(Th_s)よりも大きい場合には前記ベイズ最適化(33)を選択し、前記感度が前記第2の閾値(Th_s)以下の場合には前記ハイパーネットワークス(34)を選択する。
上記構成によって、DNN超パラメータ最適化装置1は、感度Ωが第2の閾値(Th_s)よりも大きい場合にはベイズ最適化33を選択して認識精度の高い最適化を実施し、感度Ωが第2の閾値(Th_s)以下の場合にはハイパーネットワークス34を選択して処理時間の短い最適化を実施することで、認識精度が高く、処理時間の短い最適化処理が実現できる。
(7)上記(1)に記載の演算装置(1)であって、前記最適化部(30)は、前記最適化後の超パラメータ(500)から再構成したニューラルネットワークの認識精度が最大となる第1の最適化アルゴリズム(32)と、前記最適化の処理時間が最小となる第2の最適化アルゴリズム(32)と、を有する。
上記構成によって、DNN超パラメータ最適化装置1は、感度Ωが高い超パラメータ300の場合には、認識精度が最大となる第1の最適化アルゴリズム32で超パラメータ300の最適化を実施し、感度Ωが低い超パラメータ300の場合には、第1の最適化アルゴリズム32で超パラメータ300の最適化を実施する。これにより、認識精度が最大で、且つ処理時間が最小となる最適化を実現することができる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に記載したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加、削除、又は置換のいずれもが、単独で、又は組み合わせても適用可能である。
また、上記の各構成、機能、処理部、及び処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、及び機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
1 DNN超パラメータ最適化装置
10 メモリ
20 感度解析部
30 最適化部
31 感度判定部
32−1〜32−n 最適化アルゴリズム
40 DNNモデル再構成部
50 精度判定部
60 スケジューラ
100、400 DNN
200 データセット
300 超パラメータ
500 最適化済み超パラメータ

Claims (7)

  1. 入力データと、ニューラルネットワークと、超パラメータを受け付けて、前記超パラメータの最適化を行う演算装置であって、
    前記ニューラルネットワークへ前記入力データを入力し、前記超パラメータ毎に前記ニューラルネットワークの認識精度に対する感度を算出する感度解析部と、
    複数種類の最適化アルゴリズムを有し、前記感度に応じて前記最適化アルゴリズムを選択し、前記選択した最適化アルゴリズムで前記超パラメータの最適化を実施する最適化部と、
    前記最適化された超パラメータに基づいて前記ニューラルネットワークを再構成する再構成部と、
    を有することを特徴とする演算装置。
  2. 請求項1に記載の演算装置であって、
    前記再構成されたニューラルネットワークへ前記入力データを与えて推論を実行して推論誤差を算出し、前記推論誤差が所定の第1の閾値未満のニューラルネットワークを、最適化済みニューラルネットワークとして出力する精度判定部を、
    さらに有することを特徴とする演算装置。
  3. 請求項2に記載の演算装置であって、
    前記精度判定部は、
    前記推論誤差が前記第1の閾値以上の場合には、前記感度解析部と前記最適化部及び前記再構成部の処理を繰り返すことを特徴とする演算装置。
  4. 請求項2に記載の演算装置であって、
    前記感度解析部と、前記最適化部と、前記再構成部及び前記精度判定部の演算途中における中間データを一時的に格納するメモリと、
    前記感度解析部と、前記最適化部と、前記再構成部と、前記精度判定部及び前記メモリをスレーブとし、前記スレーブを制御するマスタとしてのスケジューラと、
    前記マスタと前記スレーブを接続するインターコネクトと、
    をさらに有することを特徴とする演算装置。
  5. 請求項1に記載の演算装置であって、
    前記最適化部は、
    種類の異なる多数の最適化アルゴリズムを有し、前記感度の範囲に応じて、前記多数の最適化アルゴリズムのいずれかひとつを選択することを特徴とする演算装置。
  6. 請求項1に記載の演算装置であって、
    前記最適化部は、
    前記最適化アルゴリズムとしてベイズ最適化と、ハイパーネットワークスを含み、前記感度が所定の第2の閾値よりも大きい場合には前記ベイズ最適化を選択し、前記感度が前記第2の閾値以下の場合には前記ハイパーネットワークスを選択することを特徴とする演算装置。
  7. 請求項1に記載の演算装置であって、
    前記最適化部は、
    前記最適化後の超パラメータから再構成したニューラルネットワークの認識精度が最大となる第1の最適化アルゴリズムと、前記最適化の処理時間が最小となる第2の最適化アルゴリズムと、を有することを特徴とする演算装置。
JP2019016218A 2019-01-31 2019-01-31 演算装置 Active JP7059214B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019016218A JP7059214B2 (ja) 2019-01-31 2019-01-31 演算装置
US16/775,299 US20200250529A1 (en) 2019-01-31 2020-01-29 Arithmetic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019016218A JP7059214B2 (ja) 2019-01-31 2019-01-31 演算装置

Publications (2)

Publication Number Publication Date
JP2020123270A true JP2020123270A (ja) 2020-08-13
JP7059214B2 JP7059214B2 (ja) 2022-04-25

Family

ID=71837537

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019016218A Active JP7059214B2 (ja) 2019-01-31 2019-01-31 演算装置

Country Status (2)

Country Link
US (1) US20200250529A1 (ja)
JP (1) JP7059214B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4287079A1 (en) 2022-06-02 2023-12-06 Fujitsu Limited Program, calculation method, and information processing apparatus
JP7536361B2 (ja) 2020-09-11 2024-08-20 ニューロクル インコーポレーテッド 自動化された機械学習方法及びその装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102030472B1 (ko) * 2013-04-16 2019-10-10 (주)쿠첸 전기 밥솥의 전선 고정 장치
US11494593B2 (en) 2020-03-18 2022-11-08 Walmart Apollo, Llc Methods and apparatus for machine learning model hyperparameter optimization
CN115345271A (zh) * 2021-05-14 2022-11-15 华为技术有限公司 一种数据处理方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019208639A1 (ja) * 2018-04-27 2019-10-31 日本電信電話株式会社 最適化装置、最適化方法、及びプログラム
US20190336061A1 (en) * 2018-05-01 2019-11-07 International Business Machines Corporation Epilepsy seizure detection and prediction using techniques such as deep learning methods
JP2020060922A (ja) * 2018-10-09 2020-04-16 株式会社Preferred Networks ハイパーパラメータチューニング方法、装置及びプログラム
JP2020067910A (ja) * 2018-10-25 2020-04-30 株式会社Preferred Networks 学習曲線予測装置、学習曲線予測方法、およびプログラム
JP2020119017A (ja) * 2019-01-18 2020-08-06 キヤノン株式会社 システム、その制御方法、およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019208639A1 (ja) * 2018-04-27 2019-10-31 日本電信電話株式会社 最適化装置、最適化方法、及びプログラム
US20190336061A1 (en) * 2018-05-01 2019-11-07 International Business Machines Corporation Epilepsy seizure detection and prediction using techniques such as deep learning methods
JP2020060922A (ja) * 2018-10-09 2020-04-16 株式会社Preferred Networks ハイパーパラメータチューニング方法、装置及びプログラム
JP2020067910A (ja) * 2018-10-25 2020-04-30 株式会社Preferred Networks 学習曲線予測装置、学習曲線予測方法、およびプログラム
JP2020119017A (ja) * 2019-01-18 2020-08-06 キヤノン株式会社 システム、その制御方法、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHOU, Y., ET AL.: "Exploring Tunable Hyperparameters for Deep Neural Networks with Industrial ADME Data Sets", JOURNAL OF CHEMICAL INFORMATION AND MODELING, vol. 59, no. 3, JPN6022011776, 26 December 2018 (2018-12-26), pages 1005 - 1016, ISSN: 0004742589 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7536361B2 (ja) 2020-09-11 2024-08-20 ニューロクル インコーポレーテッド 自動化された機械学習方法及びその装置
EP4287079A1 (en) 2022-06-02 2023-12-06 Fujitsu Limited Program, calculation method, and information processing apparatus

Also Published As

Publication number Publication date
US20200250529A1 (en) 2020-08-06
JP7059214B2 (ja) 2022-04-25

Similar Documents

Publication Publication Date Title
JP2020123270A (ja) 演算装置
US11741361B2 (en) Machine learning-based network model building method and apparatus
US10963783B2 (en) Technologies for optimized machine learning training
CN109800883B (zh) 量子机器学习框架构建方法、装置及量子计算机
US11093669B2 (en) Method and system for quantum computing
Patel et al. A hybrid CNN-LSTM model for predicting server load in cloud computing
EP3867827A1 (en) Mini-machine learning
KR20210032266A (ko) 전자 장치 및 이의 제어 방법
US11556785B2 (en) Generation of expanded training data contributing to machine learning for relationship data
Yang et al. AUTO-PRUNE: Automated DNN pruning and mapping for ReRAM-based accelerator
WO2020003434A1 (ja) 機械学習方法、機械学習装置、及び機械学習プログラム
JP6258560B2 (ja) ニューラルネットワークの学習装置及び学習方法
GB2530516A (en) Intelligent Software Test Augmenting
JP6888737B2 (ja) 学習装置、学習方法、及びプログラム
US20200167660A1 (en) Automated heuristic deep learning-based modelling
WO2021248125A1 (en) Scalable transfer learning with expert models
WO2018167885A1 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
JP6172145B2 (ja) 並列割当最適化装置、並列割当最適化方法および並列割当最適化プログラム
US20230334345A1 (en) Abductive reasoning apparatus, abductive reasoning method, and non-transitory computer readable medium
Banga Computational hybrids towards software defect predictions
Meinhardt et al. Quantum Hopfield neural networks: A new approach and its storage capacity
Tallón-Ballesteros et al. Improving the accuracy of a two-stage algorithm in evolutionary product unit neural networks for classification by means of feature selection
EP3788558A1 (en) Placement-aware acceleration of parameter optimization in a predictive model
JP2019133627A (ja) 情報処理方法及び情報処理システム
US20220215245A1 (en) System and method for training non-parametric machine learning model instances in a collaborative manner

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220413

R150 Certificate of patent or registration of utility model

Ref document number: 7059214

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150