JP6470165B2 - サーバ、システム及び探索方法 - Google Patents

サーバ、システム及び探索方法 Download PDF

Info

Publication number
JP6470165B2
JP6470165B2 JP2015244307A JP2015244307A JP6470165B2 JP 6470165 B2 JP6470165 B2 JP 6470165B2 JP 2015244307 A JP2015244307 A JP 2015244307A JP 2015244307 A JP2015244307 A JP 2015244307A JP 6470165 B2 JP6470165 B2 JP 6470165B2
Authority
JP
Japan
Prior art keywords
server
combination
parameters
learning
learning result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015244307A
Other languages
English (en)
Other versions
JP2017111548A (ja
Inventor
賢一 道庭
賢一 道庭
耕祐 春木
耕祐 春木
政博 小澤
政博 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015244307A priority Critical patent/JP6470165B2/ja
Priority to US15/214,380 priority patent/US20170169329A1/en
Publication of JP2017111548A publication Critical patent/JP2017111548A/ja
Application granted granted Critical
Publication of JP6470165B2 publication Critical patent/JP6470165B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/098Distributed learning, e.g. federated learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0985Hyperparameter optimisation; Meta-learning; Learning-to-learn
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、サーバ、システム及び探索方法に関する。
画像認識や音声認識を行う分野では、従来からSVM(Support Vector Machine)などの機械学習を採用することによって徐々に認識性能が向上してきた。近年では、機械学習に多層構造のニューラルネットワークが用いられるようになり、これによって認識性能が大幅に向上するようになった。特に、その多層構造のニューラルネットワークによるディープラーニング手法は注目を浴びており、画像認識や音声認識以外に、自然言語解析などの分野にも用途が広がりつつある。
ただし、上記ディープラーニング手法は、その学習に膨大な計算が必要で、処理に多くの時間を要する。また、ディープラーニングでは、各層のノード数、層数、学習率をどう設定するかなど非常に多くのハイパーパラメータ(学習の動作を規定するパラメータ)が用いられる。さらに、ハイパーパラメータに設定する値によって認識性能が大きく異なる。このことから、認識性能が最も良いハイパーパラメータの組み合わせを探索する必要がある。このハイパーパラメータの組み合わせ探索では、ハイパーパラメータの組み合わせを変えながら学習を行い、個々の組み合わせの学習結果から最も認識性能が良い組み合わせを選択する手法がとられている。
特許第5816771号公報
ところで、上記ディープラーニングにおいて、認識性能がよいハイパーパラメータの組み合わせを探索するように、多数のパラメータから最適な組み合わせを探索する従来の手法では、パラメータの組み合わせの総数が膨大であるため、探索に時間がかかるという課題があった。
本発明の目的は、認識性能の指標が基準より高いパラメータの組み合わせの探索処理の効率化を図り、探索時間を短縮することのできるサーバ、システム及び探索方法を提供することにある。
実施形態によれば、ディープラーニングを実行するためのニューラルネットワークを構築し、学習の動作を規定するパラメータを探索するシステムに適用される。このシステムの第1のサーバは、前記パラメータの探索範囲から前記パラメータの組み合わせの初期候補を一様分布に基づく探索方式で前記パラメータの第1の組み合わせと前記パラメータの第2の組み合わせを生成し、前記パラメータの第1の組み合わせを第2のサーバへ送信し学習させて第1学習結果を取得し、前記パラメータの第2の組み合わせを前記第3のサーバに送信し学習させて第2学習結果を取得し、前記第1学習結果と前記第2学習結果とに基づいて、確率分布に基づく探索方式で前記パラメータの第3の組み合わせを生成し、前記パラメータの第3の組み合わせを前記第2のサーバまたは前記第3のサーバへ送信し学習させて第3学習結果を取得する。
実施形態に係るハイパーパラメータ探索システムの具体的な構成を示すブロック図。 図1に示すシステムに用いられるサーバの具体的な構成を示すブロック図。 図1に示すシステムにおいて、マネージャーの具体的な構成を示すブロック図。 図1に示すシステムの階層構造とハイパーパラメータの例を示す図。 図1に示すシステムのマネージャーの処理の流れを示すフローチャート。 図1に示すシステムのワーカーの処理の流れを示すフローチャート。 図1に示すシステムのワーカーにおいて、中断機能を含む場合の処理の流れを示すフローチャート。
以下、図面を参照して実施形態を説明する。
図1は実施形態に係るハイパーパラメータ探索システムの具体的な構成を示すブロック図である。このシステムは、マネージャー(Manager)と称されるサーバ(以下、マネージャー)11とワーカー(Worker)と称される複数個(本実施形態では4個とする)のサーバ(以下、Worker)12−i(iは1〜4のいずれか)をネットワーク13に接続したクラスタ構成のサーバシステムであり、ディープラーニング処理を実行するための多層構造のニューラルネットワークを構築している。
上記マネージャー11及びウォーカー12−iに用いられるサーバは、図2に示すように、プログラムを実行して制御を行うためのCPU(Central Processing Unit)101、プログラムを格納するROM(Read Only Memory)102、作業空間を提供するRAM(Random Access Memory)103、ネットワークとの間でデータを入出力するI/O(Input-Output)104、種々の情報データを格納するHDD(Hard Disk Drive)105をバス106に接続して構成される。
上記マネージャー11は、ハイパーパラメータ探索処理を管理するサーバであり、具体的には図3に示すように、ハイパーパラメータ探索範囲格納部111及びハイパーパラメータ候補生成部112及びタスク発送部113を備える。ハイパーパラメータ探索範囲格納部111には、予めディープラーニングで使用されるハイパーパラメータの探索範囲が格納される。ハイパーパラメータ候補生成部112は、ハイパーパラメータ探索範囲格納部111から探索範囲を順次読み出し、読み出された探索範囲において、探索するハイパーパラメータについてどのハイパーパラメータをどの値にするかの組み合わせの候補を生成する。このとき、各ワーカー12−iから学習結果を受け取った場合には、その学習結果をハイパーパラメータの組み合わせの候補生成に反映させる。候補生成の手法として、ここではランダム方式(Random)(112−1)、ベイジアン方式(Bayesian)(112−2)が用意されているものとする。
ここで、ランダム方式は、一様分布に基づく探索方式であり、離散パラメータ探索と初期値非依存な探索を得意とする。ベイジアン方式は勾配法の一種で、確率分布に基づく探索方式であり、過去の探索で得られた値の近傍で最適解を探索し、連続パラメータの探索を得意とする。ベイジアン方式については、
論文:Practical Bayesian Optimization of Machine Learning Algorithms
http://papers.nips.cc/paper/4522-practical-bayesian-optimization
-of-machine-learning-algorithms.pdf
にその詳細が示されており、
オープンソース環境:Spearmint(https://github.com/JasperSnoek/spearmint)
Latest commit 0544113 on Oct 31 2014
に、ベイジアン探索を実装したオープンソースのハイパーパラメータ探索環境、複数のサーバにタスクを分散する処理を実装した処理が示されている。
上記タスク発送部113は、ハイパーパラメータ候補生成部112で生成された各候補の学習処理を、それぞれタスクとしてワーカー12−iに振り分けて発送し、学習を指示する。
一方、上記ワーカー12−iは、それぞれマネージャー11からハイパーパラメータの組み合わせの候補を受け取り、受け取った候補について学習を行い、認識率やエラー率や交差エントロピーなどの学習結果をマネージャー11のハイパーパラメータ候補生成部112に返す。
上記構成において、以下にハイパーパラメータの組み合わせ探索処理について説明する。
まず、図4(a)はディープニューラルネットワークの構成を示し、図4(b)はディープニューラルネットワークの各層で処理されるハイパーパラメータの種類を例示している。ディープニューラルネットワークでは、ネットワーク層数が少なく、ハイパーパラメータの種類が3種類でそれぞれのハイパーパラメータの取り得る値が3個ある場合、ハイパーパラメータの組み合わせは33=27通りとなる。しかしながら、ディープニューラルネットワークの層数が図4(a)のように7層で、それぞれのハイパーパラメータの取り得る値が3個ある場合、ハイパーパラメータの組み合わせは37=2,187通りとなる。もし、このディープニューラルネットワークの1回の学習に1時間かかるとしたら、2,187時間(約91日)もかかるため、最適な組み合わせを求めることは非常に困難な問題である。
そこで、実施形態のシステムでは、マネージャーと呼ばれる1台のサーバ11と、ワーカーと呼ばれる複数のサーバ12−iにより構築したクラスタ構成のサーバシステムで、ハイパーパラメータの組み合わせを効率良く高速に探索する。
図5は上記マネージャー11の処理の流れを示すフローチャートである。まず、図5(a)に示す探索の開始が指示されると、ハイパーパラメータ探索範囲格納部111から探索範囲を読み込み(ステップS11)、その探索範囲内で初期ハイパーパラメータの候補を複数個生成する(ステップS12)。この候補生成には、初期値探索となるので、ランダム方式を採用する。生成された候補をタスクとして発行し、任意のワーカー12−iに発送して学習を指示し(ステップS13)、タスク終了を待機する(ステップS14)。ワーカー12−iからタスク終了の応答があった場合には、そのワーカー12−iから送信する学習結果を受信する(ステップS15)。探索の残りがある場合には、ステップS13に戻ってタスク発行から処理を進める(ステップS16)。探索の残りがない場合には、図5(b)に示すAの処理へ進む。
Aの処理ではステップS16までの処理で集まった学習結果を反映させて次のハイパーパラメータの候補を生成する(ステップS17)。このときの候補生成には、過去の探索結果があるので、ベイジアン方式を採用する。生成された候補をタスクとして発行し、任意のワーカー12−iに発送して学習を指示し(ステップS18)、タスク終了を待機する(ステップS19)。ワーカー12−iからタスク終了の応答があった場合には、そのワーカー12−iから送信する学習結果を受信する(ステップS20)。探索の残りがある場合には、ステップS17に戻ってタスク発行から処理を進める(ステップS21)。探索の残りがない場合には、終了する。
このようにベイジアン方式は初期値依存により性能が良いハイパーパラメータが見つからない場合もあるため、最初にランダム方式で探索し、その後ベイジアン方式により探索を継続して行うことで、それぞれの長所を生かして効率よく探索することができる。
図6は上記ワーカー12−iの処理の流れを示すフローチャートである。まず、マネージャー11から送信されたハイパーパラメータ候補のタスクを受信し(ステップS22)、受信したハイパーパラメータ候補のタスクについて学習処理を実行し(ステップS23)、その学習結果をマネージャー11に送信する(ステップS24)。学習結果は性能を示す指標であり、例として認識率、エラー率、交差エントロピーが想定される。
上記の手順により、ディープラーニングのハイパーパラメータを効率的に探索することができる。
以下、上記実施形態において、さらなる効率化を実現する実施例を説明する。
(実施例1)
まず、ニューラルネットワークによるディープラーニングのハイパーパラメータ探索では、固定したニューラルネットワークのハイパーパラメータの値のみを変更して探索するのが一般的である。しかしながら、ハイパーパラメータの値のみの変更ではなく、ニューラルネットワークの層数を変更して探索した方が性能が良い場合がある。
この層数を探索のため、マネージャー11において、ハイパーパラメータ候補生成部112にて層数を変更したパラメータを生成する。ニューラルネットワークのある層のノード数が“0”の場合には、その層はないものとして取り扱う。ワーカー12−i側では、ある層のノード数が“0”の場合には、その層がないニューラルネットワーク構造として学習を行い、その結果をマネージャー11に返す。このようにして層数を変更した探索を行うことができる。
(実施例2)
ニューラルネットワークによるディープラーニングでの学習は、同じデータを数十回以上繰り返し入力して学習を行うことで性能を向上させるため、学習時間が長いことが知られている。素性の良いハイパーパラメータであれば、数十回データを繰り返し入力して性能を上げることに意味がある。しかしながら、素性が悪いハイパーパラメータを数十回もデータを入力して学習しても、性能が悪いハイパーパラメータは使用されないので処理時間が無駄になってしまう。このため、ワーカー12−iにおいて、学習中に認識率などの指標を監視し、学習の途中で素性が悪いと判定したものは学習を中断し、中断した時の学習結果をマネージャー11に送信する。学習中に監視する指標とマネージャー11に返す指標は、前述のように例えば認識率、エラー率、交差エントロピーが想定される。
具体例を図7に示す。図7は、ワーカー12−iにおいて、中断処理機能を備える場合の処理の流れを示すフローチャートである。まず、マネージャー11から送信されたハイパーパラメータ候補のタスクを受信し(ステップS31)、受信したハイパーパラメータ候補のタスクについて学習処理を実行する(ステップS32)。ここで、学習中の処理結果を示す指標を監視して(ステップS33)、その指標が閾値以下か判断する(ステップS34)。この判断で、指標が閾値以下の状態では、学習が完了するまで指標の監視を継続する(ステップS35)。ステップS34で学習の指標が閾値を上回った場合には、直ちに学習を中断する(ステップS36)。ステップS35で学習完了と判定された場合またはステップS36で学習の中断が行われた場合には、学習結果(学習中断の場合は中断情報と中断したときの学習結果)をマネージャー11に送信する(ステップS37)。前述のように、学習結果は性能を示す指標であり、例として認識率、エラー率、交差エントロピーが想定される。
例えばワーカー12−iでの繰り返し学習の回数を100回とするとき、50回学習したときの認識率が90%以下となる場合は中断し、90%以上となる場合には学習を100回まで行うとする。この場合素性の良いハイパーパラメータで50回での認識率が93%となった場合には、100回まで学習を行う。しかし素性が悪いハイパーパラメータで学習を行い、50回での認識率が85%となった場合には、100回まで学習をしないで50回で学習を中断し、中断した時点での学習結果の指標をマネージャー11に送信する。これにより、無駄になる学習時間を削減することができ、全体の効率を向上させることができる。
尚、上記の例では認識率を一定のしきい値90%で判定したが、繰り返し学習を10回行っても認識率が改善しない場合に学習を中断するようにしたり、学習曲線の傾きが一定値以下になったら学習を中断するなど、他の方式でもよい。
上記の処理により、素性の悪いハイパーパラメータの場合には、学習を中断して無駄な学習時間を省き、効率よくハイパーパラメータ探索を行うことができる。
(実施例3)
ニューラルネットワークによるディープラーニングは、学習時間が長いことが知られている。学習時間を短縮するために、ワーカー12−i側での学習時に学習データを1/2に減らして学習を行うようにしてもよい。
(実施例4)
ニューラルネットワークによるディープラーニングは、重みの初期値をランダムに生成しているが、その初期値により学習後の性能が若干異なる。このため、ワーカー12−i側で学習を行うときに、1回学習を行うだけではなく、重みの初期値を複数回変更して学習を行い、平均してマネージャー11に学習結果の指標を送信する。このことにより、安定してハイパーパラメータ探索を行うことができる。
(実施例5)
ニューラルネットワークによるディープラーニングの初期の重みはランダムで生成している。このため、場合によってはランダムで生成した値により若干の性能差が生じることがある。後で同じハイパーパラメータで学習を再び行っても、同じ性能が出ないこともある。このため、ワーカー12−iにおいて、学習を終えた時に、今までで一番性能が良かったモデル(ディープラーニングの学習結果)を保存しておき、学習結果と共にマネージャー11に通知するとよい。
(実施例6)
ニューラルネットワークによるディープラーニングでの学習は、同じデータを数十回以上繰り返し入力して学習を行うことで性能を上げている。しかしながら、一定以上繰り返しても過学習をしてしまい、かえって認識性能などの学習結果の指標が悪化する場合もある。このため、ワーカー12−iにおいて、データを1回入力して学習を行う毎に、認識性能などの学習結果の指標を監視し、最も性能が良いときのモデル(ディープラーニングの学習結果)を保存しておくとよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
11…マネージャー(Manager)、12−i…ワーカー(Worker)、13…ネットワーク、101…CPU(Central Processing Unit)、102…ROM(Read Only Memory)、103…RAM(Random Access Memory)、104…I/O(Input-Output)、105…HDD(Hard Disk Drive)、106…バス、111…ハイパーパラメータ探索範囲格納部、112…ハイパーパラメータ候補生成部、113…タスク発送部、112−1…ランダム方式(Random)、112−2…ベイジアン方式(Bayesian)。

Claims (10)

  1. ディープラーニングを実行するためのニューラルネットワークを構築し、学習の動作を規定するパラメータを探索する第1のサーバと、第2のサーバと、第3のサーバとを備えるシステムの前記第1のサーバであって、
    前記パラメータの探索範囲から前記パラメータの組み合わせの初期候補を一様分布に基づく探索方式で前記パラメータの第1の組み合わせと前記パラメータの第2の組み合わせを生成し、
    前記パラメータの第1の組み合わせを前記第2のサーバへ送信し、
    前記パラメータの第2の組み合わせを前記第3のサーバへ送信し、
    前記パラメータの第1の組み合わせを用いた第1学習結果を前記第2のサーバから受信し、
    前記パラメータの第2の組み合わせを用いた第2学習結果を前記第3のサーバから受信し、
    前記第1学習結果と前記第2学習結果とに基づいて、確率分布に基づく探索方式で前記パラメータの第3の組み合わせを生成し、
    前記パラメータの第3の組み合わせを前記第2のサーバまたは前記第3のサーバへ送信し、
    前記パラメータの第3の組み合わせを用いた第3学習結果を前記第2のサーバまたは前記第3のサーバから受信するサーバ。
  2. 前記一様分布に基づく探索方式とは、ランダム方式であって、
    前記確率分布に基づく探索方式とは、ベイジアン方式である請求項1に記載のサーバ。
  3. 前記第1のサーバは、
    前記パラメータの第4の組み合わせに加えて、前記ニューラルネットワークの第1層数を前記第2のサーバへ送信し、
    前記パラメータの第5の組み合わせに加えて、前記ニューラルネットワークの前記第1層数とは異なる第2層数を前記第2のサーバへ送信し、
    前記パラメータの第4の組み合わせと、前記ニューラルネットワークの第1層数とを用いた第4学習結果を前記第2のサーバから受信し、
    前記パラメータの第5の組み合わせと、前記ニューラルネットワークの第2層数とを用いた第5学習結果を前記第3のサーバから受信する請求項1に記載のサーバ。
  4. 請求項1記載の前記第1のサーバと、前記第2のサーバと、前記第3のサーバとを備えるシステムであって、
    前記第2のサーバは、前記パラメータの第6の組み合わせを用いた学習の回数が第1閾値より大きいにもかかわらず、学習結果の指標が第2閾値に満たない場合に、前記パラメータの第6の組み合わせを用いた学習を中断してその中断結果を第6学習結果として前記第1のサーバへ送信するシステム。
  5. 請求項1記載の前記第1のサーバと、前記第2のサーバと、前記第3のサーバとを備えるシステムであって、
    前記第2のサーバは、学習結果の指標が第3閾値以上のモデルを保存するシステム。
  6. ディープラーニングを実行するためのニューラルネットワークを構築し、学習の動作を規定するパラメータを探索する第1のサーバと、第2のサーバと、第3のサーバとを備えるシステムの前記第1のサーバに用いられる探索方法であって、
    前記パラメータの探索範囲から前記パラメータの組み合わせの初期候補を一様分布に基づく探索方式で前記パラメータの第1の組み合わせと前記パラメータの第2の組み合わせを生成し、
    前記パラメータの第1の組み合わせを前記第2のサーバへ送信し、
    前記パラメータの第2の組み合わせを前記第3のサーバへ送信し、
    前記パラメータの第1の組み合わせを用いた第1学習結果を前記第2のサーバから受信し、
    前記パラメータの第2の組み合わせを用いた第2学習結果を前記第3のサーバから受信し、
    前記第1学習結果と前記第2学習結果とに基づいて、確率分布に基づく探索方式で前記パラメータの第3の組み合わせを生成し、
    前記パラメータの第3の組み合わせを前記第2のサーバまたは前記第3のサーバへ送信し、
    前記パラメータの第3の組み合わせを用いた第3学習結果を前記第2のサーバまたは前記第3のサーバから受信する探索方法。
  7. 前記一様分布に基づく探索方式とは、ランダム方式であって、
    前記確率分布に基づく探索方式とは、ベイジアン方式である請求項6に記載の探索方法。
  8. 前記パラメータの第4の組み合わせに加えて、ニューラルネットワークの第1層数を前記第2のサーバへ送信し、
    前記パラメータの第5の組み合わせに加えて、ニューラルネットワークの前記第1層数とは異なる第2層数を前記第2のサーバへ送信し、
    前記パラメータの第4の組み合わせと、前記ニューラルネットワークの第1層数とを用いた第4学習結果を前記第2のサーバから受信し、
    前記パラメータの第5の組み合わせと、前記ニューラルネットワークの第2層数とを用いた第5学習結果を前記第3のサーバから受信する請求項6に記載の探索方法。
  9. 請求項1記載の前記第1のサーバと、前記第2のサーバと、前記第3のサーバとを備えるシステムに用いられる探索方法であって、
    前記第2のサーバにて、前記パラメータの第6の組み合わせを用いた学習の回数が第1閾値より大きいにもかかわらず、学習結果の指標が第2閾値に満たない場合に、前記パラメータの第6の組み合わせを用いた学習を中断してその中断結果を第6学習結果として前記第1のサーバへ送信する探索方法。
  10. 請求項1記載の前記第1のサーバと、前記第2のサーバと、前記第3のサーバとを備えるシステムに用いられる探索方法であって、
    前記第2のサーバにて、学習結果の指標が第3閾値以上のモデルを保存する探索方法。
JP2015244307A 2015-12-15 2015-12-15 サーバ、システム及び探索方法 Active JP6470165B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015244307A JP6470165B2 (ja) 2015-12-15 2015-12-15 サーバ、システム及び探索方法
US15/214,380 US20170169329A1 (en) 2015-12-15 2016-07-19 Server, system and search method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015244307A JP6470165B2 (ja) 2015-12-15 2015-12-15 サーバ、システム及び探索方法

Publications (2)

Publication Number Publication Date
JP2017111548A JP2017111548A (ja) 2017-06-22
JP6470165B2 true JP6470165B2 (ja) 2019-02-13

Family

ID=59020643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015244307A Active JP6470165B2 (ja) 2015-12-15 2015-12-15 サーバ、システム及び探索方法

Country Status (2)

Country Link
US (1) US20170169329A1 (ja)
JP (1) JP6470165B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12249426B2 (en) 2019-10-23 2025-03-11 Kabushiki Kaisha Toshiba Healthcare support system and recording medium

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202017106532U1 (de) * 2016-10-28 2018-02-05 Google Llc Suche nach einer neuronalen Architektur
JP6974712B2 (ja) * 2017-10-24 2021-12-01 富士通株式会社 探索方法、探索装置および探索プログラム
CN109102157A (zh) * 2018-07-11 2018-12-28 交通银行股份有限公司 一种基于深度学习的银行工单派单方法及系统
US11526799B2 (en) * 2018-08-15 2022-12-13 Salesforce, Inc. Identification and application of hyperparameters for machine learning
KR102261473B1 (ko) * 2018-11-30 2021-06-07 주식회사 딥바이오 세미 슈퍼바이즈드 학습을 이용한 진단 시스템 제공방법 및 이를 이용하는 진단 시스템
CN109816116B (zh) * 2019-01-17 2021-01-29 腾讯科技(深圳)有限公司 机器学习模型中超参数的优化方法及装置
JP7231012B2 (ja) * 2019-03-19 2023-03-01 日本電気株式会社 パラメータ調整装置、パラメータ調整方法、コンピュータプログラム及び記録媒体
JP7208528B2 (ja) * 2019-05-23 2023-01-19 富士通株式会社 情報処理装置、情報処理方法および情報処理プログラム
US11494237B2 (en) * 2019-06-26 2022-11-08 Microsoft Technology Licensing, Llc Managing workloads of a deep neural network processor
US11775878B2 (en) * 2020-12-22 2023-10-03 Sas Institute Inc. Automated machine learning test system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6483667B2 (ja) * 2013-05-30 2019-03-13 プレジデント アンド フェローズ オブ ハーバード カレッジ ベイズの最適化を実施するためのシステムおよび方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12249426B2 (en) 2019-10-23 2025-03-11 Kabushiki Kaisha Toshiba Healthcare support system and recording medium

Also Published As

Publication number Publication date
US20170169329A1 (en) 2017-06-15
JP2017111548A (ja) 2017-06-22

Similar Documents

Publication Publication Date Title
JP6470165B2 (ja) サーバ、システム及び探索方法
Qiu et al. Gag: Global attributed graph neural network for streaming session-based recommendation
US10832087B1 (en) Advanced training of machine-learning models usable in control systems and other systems
US11423082B2 (en) Methods and apparatus for subgraph matching in big data analysis
US10546066B2 (en) End-to-end learning of dialogue agents for information access
KR20210124109A (ko) 정보 처리, 정보 추천의 방법과 장치, 전자 기기, 저장 매체 및 컴퓨터 프로그램 제품
US9251156B2 (en) Information processing devices, method, and recording medium with regard to a distributed file system
US20180039890A1 (en) Adaptive knowledge base construction method and system
JP6907664B2 (ja) 非定常時系列データの予測に用いる方法及び装置
JP2015069461A (ja) 情報処理装置
JP6470209B2 (ja) サーバ、システム及び探索方法
US20230297554A1 (en) Encoder-decoder transformer for table generation
Mohammad et al. An improved self-structuring neural network
Huang et al. Elastic DNN inference with unpredictable exit in edge computing
Mukherjee et al. Distribution-dependent and time-uniform bounds for piecewise iid bandits
JP5555238B2 (ja) ベイジアンネットワーク構造学習のための情報処理装置及びプログラム
WO2021226709A1 (en) Neural architecture search with imitation learning
JP2008226091A (ja) 計算装置
Rungta et al. Two-phase multimodal neural network for app categorization using APK resources
Serhani et al. Quality profile-based cloud service selection for fulfilling big data processing requirements
Sarnovský et al. Grid-based support for different text mining tasks
JP5942998B2 (ja) 線形制約条件生成装置及び方法、半正定値最適化問題求解装置、計量学習装置、並びにコンピュータ・プログラム
JP2009301557A (ja) 学習システム
US12038883B2 (en) Distributed Storage System with machine learning model for selecting a hash function to map a data item to a storage device
Sharifi et al. Adaptive case-based reasoning using support vector regression

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190117

R151 Written notification of patent or utility model registration

Ref document number: 6470165

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151