JP6974712B2 - 探索方法、探索装置および探索プログラム - Google Patents
探索方法、探索装置および探索プログラム Download PDFInfo
- Publication number
- JP6974712B2 JP6974712B2 JP2017204868A JP2017204868A JP6974712B2 JP 6974712 B2 JP6974712 B2 JP 6974712B2 JP 2017204868 A JP2017204868 A JP 2017204868A JP 2017204868 A JP2017204868 A JP 2017204868A JP 6974712 B2 JP6974712 B2 JP 6974712B2
- Authority
- JP
- Japan
- Prior art keywords
- sample size
- hyperparameter
- value
- resource
- learning process
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 215
- 230000008569 process Effects 0.000 claims description 148
- 238000012549 training Methods 0.000 claims description 96
- 238000012545 processing Methods 0.000 claims description 36
- 238000004422 calculation algorithm Methods 0.000 claims description 22
- 238000004148 unit process Methods 0.000 claims 2
- 238000010801 machine learning Methods 0.000 description 104
- 230000006872 improvement Effects 0.000 description 56
- 238000012360 testing method Methods 0.000 description 17
- 239000000284 extract Substances 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000013500 data storage Methods 0.000 description 7
- 230000009467 reduction Effects 0.000 description 7
- 238000012706 support-vector machine Methods 0.000 description 7
- 230000006399 behavior Effects 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 6
- 238000012847 principal component analysis method Methods 0.000 description 6
- 238000007637 random forest analysis Methods 0.000 description 6
- 230000010365 information processing Effects 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 238000010606 normalization Methods 0.000 description 5
- 238000000611 regression analysis Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000003066 decision tree Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000000630 rising effect Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000003111 delayed effect Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000007477 logistic regression Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012417 linear regression Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/906—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/38—Concurrent instruction execution, e.g. pipeline or look ahead
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
例えば、1つの方法として、十分に小さなサンプルサイズで、できる限り多くのハイパーパラメータ値を試行することを優先する方法が考えられる。しかし、この方法では、大きいサンプルサイズの実行が遅れるため、サンプルサイズを大きくすることによる予測性能の向上も遅れることになる。また、他の1つの方法として、少数のハイパーパラメータ値を仮選択し、予測性能の伸び具合を判断できる程度までサンプルサイズを十分に大きくすることを優先する方法も考えられる。しかし、この方法では、仮選択したハイパーパラメータ値が、未試行の他のハイパーパラメータ値と比べて相対的に予測性能の低いものであった場合、大きなサンプルサイズにおける仮選択したハイパーパラメータ値の試行が結果的に無駄になってしまう。
[第1の実施の形態]
第1の実施の形態を説明する。
第1の実施の形態の探索装置10は機械学習の進行を管理する。機械学習では、既知の事例を示す訓練データを分析することで、未知の事例の結果を予測するモデル(学習モデルと言うことがある)を生成する。探索装置10が自ら機械学習を行ってもよいし、探索装置10が他の装置に機械学習を行わせてもよい。探索装置10は、ユーザが操作するクライアントコンピュータでもよいし、クライアントコンピュータからネットワーク経由でアクセスされるサーバコンピュータでもよい。
次に、第2の実施の形態を説明する。
図2は、機械学習装置のハードウェア例を示すブロック図である。
第2の実施の形態の機械学習では、既知の事例を示す複数のデータ単位(レコードやインスタンスと言うことがある)を含むデータセットを予め用意しておく。機械学習装置100または他の情報処理装置が、センサデバイスなどの各種デバイスからネットワーク114経由でレコードを収集してもよい。データセットは「ビッグデータ」と言われるサイズの大きなデータセットであってもよい。各レコードは、1以上の説明変数の値と目的変数の値とを含む。説明変数および目的変数それぞれを属性と言うことがあり、説明変数の値および目的変数の値それぞれを属性値と言うことがある。
図3は、機械学習のパイプラインの例を示す図である。
第2の実施の形態では1つのモデルを生成する1回の学習ステップは、パイプラインと言われる一連の処理手順として定義される。パイプラインはワークフローと言うこともできる。パイプラインは、処理に対応するノードと処理間のデータの引き継ぎに対応する有向エッジとを含む有向非循環グラフ(DAG:Directed Acyclic Graph)として表現することができる。パイプラインの入力はデータセット全体またはそこからサンプリングされたデータ(まとめて以下サンプルデータと呼ぶ)であり、パイプラインの出力はモデルとその予測性能である。パイプラインの最終段の処理は、1つの機械学習アルゴリズムを用いてモデルを生成し当該モデルの予測性能を測定する処理である。最終段以外の処理は、例えば、サンプルデータに対する前処理である。
処理31は、第1段階の前処理であり、サンプルデータに含まれるレコードの値を正規化する。処理31は、サンプルデータを受け取り、正規化したレコードの集合を第1段階の中間データとして処理32に引き渡す。正規化は、レコードに含まれる値の分布を所定範囲の分布に変換することで、サンプルデータによって値の上限や下限が異なることによる機械学習の精度への影響を低減するものである。
機械学習装置100は、1つのハイパーパラメータ値、すなわち、1組のハイパーパラメータ要素値の集合を指定することで、図3のパイプラインに従って1つのモデルを生成し当該モデルの予測性能を測定することができる。ハイパーパラメータ値を変えることで、生成されるモデルや予測性能が変化する。
曲線51は、ハイパーパラメータθの値がθ1である場合のサンプルサイズsと予測性能の関係を示す。曲線52は、ハイパーパラメータθの値がθ2である場合のサンプルサイズsと予測性能の関係を示す。曲線53は、ハイパーパラメータθの値がθ3である場合のサンプルサイズsと予測性能の関係を示す。サンプルサイズsは、訓練データに含まれるレコードの数であり、例えば、100,200,400,800,…のように所定の倍数で指数関数的に増加させる。所定の倍数は、例えば、2倍または4倍である。
ハイパーパラメータ探索では最終的に、十分に大きなサンプルサイズにおける予測性能の上限が高いハイパーパラメータ値を発見したい。一方、様々なハイパーパラメータ値について最初から大きなサンプルサイズの訓練データを用いて学習ステップを実行することは、多大な実行時間を要することになり現実的でない。また、ハイパーパラメータの中に複数のカテゴリカルハイパーパラメータ要素が含まれている場合、近似するハイパーパラメータ値から生成されたモデルが近似する予測性能をもつとは限らない。
1つのシンプルな方法として、小さいサンプルサイズでできる限り多くのハイパーパラメータ値を試行することを優先する方法が考えられる。しかし、サンプルサイズを大きくすると予測性能も大きくなることも多いため、大きいサンプルサイズでの実行が遅れることにより、それにより得られる予測性能の向上も遅れてしまう。この場合、先に幾つかのハイパーパラメータ値についてある程度大きいサンプルサイズを試行した方が、結果的にハイパーパラメータ値の絞り込みを効率化できることがある。
図7は、リソース係数テーブルの例を示す図である。
ここでは、まずシンプルなリソース係数の設定方法を示すリソース係数テーブル131a,131bを説明し、その後に好ましいリソース係数の設定方法を示すリソース係数テーブル131を説明する。リソース係数テーブル131,131a,131bは同じ構造を有しており、複数のサンプルサイズと複数のリソース係数とを対応付ける。図7では、リソース係数テーブル131,131a,131bはサンプルサイズに対応する試行回数比を含んでいる。試行回数比は、試行されたハイパーパラメータ値の数である。ただし、試行回数比はリソース係数の意味の理解を容易にするために記載された情報であり、機械学習装置100が使用するリソース係数テーブルに含まれていなくてもよい。
この方法では、サンプルサイズがN段階存在するとき、小さい方からm番目のリソース係数をN/N+N/(N−1)+…+N/(N−m+1)と算出する。N=5と仮定すると、s=100のリソース係数は5/5=1である。s=200のリソース係数は5/5+5/4=2.25である。s=400のリソース係数は5/5+5/4+5/3=3.92である。s=800のリソース係数は5/5+5/4+5/3+5/2=6.42である。s=1600のリソース係数は5/5+5/4+5/3+5/2+5/1=11.42である。この場合、サンプルサイズs=100,200,400,800,1600の試行回数比は3.53:3.83:3.14:2.35:1.69となる。
図8は、機械学習装置の機能例を示すブロック図である。
機械学習装置100は、データ記憶部121、探索履歴記憶部122およびリソース係数記憶部123を有する。また、機械学習装置100は、制御部124、学習部125、既存ハイパーパラメータ値選択部126、改善速度推定部127および新規ハイパーパラメータ値選択部128を有する。データ記憶部121、探索履歴記憶部122およびリソース係数記憶部123は、例えば、RAM102またはHDD103の記憶領域を用いて実装される。制御部124、学習部125、既存ハイパーパラメータ値選択部126、改善速度推定部127および新規ハイパーパラメータ値選択部128は、例えば、CPU101が実行するプログラムを用いて実装される。
探索履歴テーブル132は、探索履歴記憶部122に格納される。探索履歴テーブル132は、ハイパーパラメータ値、サンプルサイズ、予測性能および実行時間の項目を含む。ハイパーパラメータ値の項目には、試行したハイパーパラメータ値が登録される。サンプルサイズの項目には、試行したサンプルサイズが登録される。予測性能の項目には、1つのハイパーパラメータ値と1つのサンプルサイズの組に対応する予測性能の実績値が登録される。実行時間の項目には、1つのハイパーパラメータ値と1つのサンプルサイズの組に対応する実行時間の実績値が登録される。
図10は、機械学習の手順例を示すフローチャートである。
(S10)制御部124は、データセットDと探索範囲Θと制限時間Tを取得する。
(S12)制御部124は、既存ハイパーパラメータ値選択部126にハイパーパラメータ値を問い合わせる。このとき、制御部124は探索履歴Sを既存ハイパーパラメータ値選択部126に渡す。既存ハイパーパラメータ値選択部126の処理手順は後述する。
(S19)制御部124は、機械学習を開始してからの経過時間を確認し、経過時間が制限時間Tを超えたか判断する。経過時間が制限時間Tを超えた場合はステップS20に処理が進み、経過時間が制限時間T以下である場合はステップS12に処理が進む。
ハイパーパラメータ値選択は、上記のステップS12で実行される。
(S30)既存ハイパーパラメータ値選択部126は、探索履歴Sから、各ハイパーパラメータ値について試行済みのサンプルサイズのうち最大のサンプルサイズを判定する。既存ハイパーパラメータ値選択部126は、最大のサンプルサイズがまだ上限に達していないハイパーパラメータ値θ、すなわち、サンプルサイズを1段階大きくする余地があるハイパーパラメータ値θを探索履歴Sから抽出する。
(S34)既存ハイパーパラメータ値選択部126は、集合H=φ(空集合)であるか判断する。集合Hが空集合である場合、改善速度推定部127は選択すべきハイパーパラメータ値が存在しないと判定し、ハイパーパラメータ値選択が終了する。集合Hが空集合でない場合、ステップS35に処理が進む。
(S39)既存ハイパーパラメータ値選択部126は、探索履歴Sを参照して、サンプルサイズsがリソース制約を満たすか判断する。リソース制約の判定方法は後述する。サンプルサイズsがリソース制約を満たす場合はステップS40に処理が進み、リソース制約を満たさない場合はステップS34に処理が進む。
ここで、予測性能改善速度が最大のハイパーパラメータ値θm1が、リソース制約を満たさないために選択されない可能性がある。その場合、上記のステップS37では、予測性能改善速度が次に大きいハイパーパラメータ値θm2が、ハイパーパラメータ値θm1よりも大きいまたは同じサンプルサイズを実行しようとしている場合には、ハイパーパラメータ値θm2も選択しないこととしている。これは、θm2を先に試行すると、リソース制約のために予測性能改善速度が最大のハイパーパラメータ値θm1のこのサンプルサイズでの試行が遅れてしまう可能性があるためである。図11のフローチャートでは、予測性能改善速度が大きいハイパーパラメータ値ができる限り優先的に選択されるようにしている。
リソース制約判定は、上記のステップS39で実行される。
(S50)既存ハイパーパラメータ値選択部126は、ハイパーパラメータ値θとサンプルサイズsiの組(θ,si)を用いた学習ステップの消費リソースr+を推定する。ハイパーパラメータ値θは、上記のステップS35で抽出したものである。サンプルサイズsiは、上記のステップS36で選択したものであり、対象サンプルサイズである。
(S54)既存ハイパーパラメータ値選択部126は、サンプルサイズsjを含むレコードを探索履歴Sから検索し、サンプルサイズsjについて既に消費したリソースを合計した合計消費リソースr(sj)を算出する。リソースの指標がサンプルサイズである場合、r(sj)はサンプルサイズsj×レコード件数となる。リソースの指標が実行時間である場合、r(sj)は検索されたレコードに含まれる実行時間の実績値の和となる。リソースの指標がイテレーション数である場合、r(sj)はサンプルサイズsjに相当するイテレーション数×レコード件数となる。
次に、第3の実施の形態を説明する。第2の実施の形態との違いを中心に説明し、第2の実施の形態と同様の内容については説明を省略することがある。
(S60)既存ハイパーパラメータ値選択部126は、探索履歴Sから、各ハイパーパラメータ値について試行済みのサンプルサイズのうち最大のサンプルサイズを判定する。既存ハイパーパラメータ値選択部126は、最大のサンプルサイズがまだ上限に達していないハイパーパラメータ値θを探索履歴Sから抽出する。
(S62)改善速度推定部127は、ステップS60で抽出されたハイパーパラメータ値θそれぞれに対して、予測性能改善速度v(θ)を算出する。
(S64)既存ハイパーパラメータ値選択部126は、集合H=φ(空集合)であるか判断する。集合Hが空集合である場合、改善速度推定部127は選択すべきハイパーパラメータ値が存在しないと判定し、ハイパーパラメータ値選択が終了する。集合Hが空集合でない場合、ステップS65に処理が進む。
(S70)既存ハイパーパラメータ値選択部126は、探索履歴Sを参照して、サンプルサイズsがリソース制約を満たすか判断する。リソース制約の判定方法は後述する。サンプルサイズsがリソース制約を満たす場合はステップS71に処理が進み、リソース制約を満たさない場合はステップS64に処理が進む。
図14は、リソース制約判定の他の手順例を示すフローチャートである。
11 記憶部
12 処理部
13 探索履歴
14a,14b,14c,14d 学習処理
15 合計リソース
16 閾値
s1,s2 サンプルサイズ
θ1,θ2,θ3 ハイパーパラメータ値
Claims (7)
- コンピュータが実行する探索方法であって、
第1のサンプルサイズの訓練データと第1のハイパーパラメータ値とを用いてモデルを生成する第1の学習処理を実行させ、前記第1のサンプルサイズの訓練データと第2のハイパーパラメータ値とを用いてモデルを生成する第2の学習処理を実行させ、
前記第1のサンプルサイズより大きい第2のサンプルサイズの訓練データと前記第1のハイパーパラメータ値とを用いてモデルを生成する第3の学習処理が未実行である場合、前記第1の学習処理で使用されたリソースおよび前記第2の学習処理で使用されたリソースに基づいて、前記第1のサンプルサイズに対応する合計リソースを算出し、
前記第3の学習処理で使用されるリソースの推定値と、前記第2のサンプルサイズに対応するリソース係数とに基づいて、閾値を算出し、
前記合計リソースが前記閾値を超える場合、前記第3の学習処理の実行を許容し、
前記合計リソースが前記閾値以下である場合、前記第3の学習処理の実行を制限して、前記第1のサンプルサイズ以下の訓練データと第3のハイパーパラメータ値とを用いてモデルを生成する第4の学習処理の実行を許容する、
探索方法。 - 前記第1の学習処理、前記第2の学習処理、前記第3の学習処理および前記第4の学習処理はそれぞれ、複数の単位処理を含むパイプラインであり、
前記第1のハイパーパラメータ値、前記第2のハイパーパラメータ値および前記第3のハイパーパラメータ値はそれぞれ、前記複数の単位処理に対応付けて設定される複数の処理アルゴリズムを示す複数のハイパーパラメータ要素値を含む、
請求項1記載の探索方法。 - コンピュータが実行する探索方法であって、
第1のサンプルサイズの訓練データと第1のハイパーパラメータ値とを用いてモデルを生成する第1の学習処理を実行させ、前記第1のサンプルサイズの訓練データと第2のハイパーパラメータ値とを用いてモデルを生成する第2の学習処理を実行させ、
前記第1のサンプルサイズより大きい第2のサンプルサイズの訓練データと前記第1のハイパーパラメータ値とを用いてモデルを生成する第3の学習処理を含む、ハイパーパラメータ値が異なる未実行の複数の学習処理それぞれの優先度を、生成されるモデルの予測性能の推定値に基づいて決定し、
前記複数の学習処理の中で前記第3の学習処理の優先度が最も高い場合、前記第1の学習処理で使用されたリソースおよび前記第2の学習処理で使用されたリソースに基づいて、前記第1のサンプルサイズに対応する合計リソースを算出し、
前記合計リソースが閾値を超える場合、前記第3の学習処理の実行を許容し、
前記合計リソースが前記閾値以下である場合、前記複数の学習処理のうち前記第3の学習処理を含む、前記第2のサンプルサイズ以上の訓練データを用いる学習処理の実行を制限して、前記第1のサンプルサイズ以下の訓練データと第3のハイパーパラメータ値とを用いてモデルを生成する第4の学習処理の実行を許容する、
探索方法。 - コンピュータが実行する探索方法であって、
複数の第1のサンプルサイズそれぞれの訓練データと第1のハイパーパラメータ値とを用いてモデルを生成する第1の学習処理を実行させ、前記複数の第1のサンプルサイズそれぞれの訓練データと第2のハイパーパラメータ値とを用いてモデルを生成する第2の学習処理を実行させ、
前記複数の第1のサンプルサイズの何れのサンプルサイズより大きい第2のサンプルサイズの訓練データと前記第1のハイパーパラメータ値とを用いてモデルを生成する第3の学習処理が未実行である場合、前記第1の学習処理で使用されたリソースおよび前記第2の学習処理で使用されたリソースに基づいて、前記複数の第1のサンプルサイズそれぞれに対応する合計リソースを算出し、
前記複数の第1のサンプルサイズの全てについて前記合計リソースが閾値を超える場合、前記第3の学習処理の実行を許容し、
前記複数の第1のサンプルサイズの少なくとも1つについて前記合計リソースが前記閾値以下である場合、前記第3の学習処理の実行を制限して、前記複数の第1のサンプルサイズの何れかのサンプルサイズの訓練データと第3のハイパーパラメータ値とを用いてモデルを生成する第4の学習処理の実行を許容する、
探索方法。 - コンピュータが実行する探索方法であって、
複数の第1のサンプルサイズそれぞれの訓練データと第1のハイパーパラメータ値とを用いてモデルを生成する第1の学習処理を実行させ、前記複数の第1のサンプルサイズそれぞれの訓練データと第2のハイパーパラメータ値とを用いてモデルを生成する第2の学習処理を実行させ、
前記複数の第1のサンプルサイズの何れのサンプルサイズより大きい第2のサンプルサイズの訓練データと前記第1のハイパーパラメータ値とを用いてモデルを生成する第3の学習処理が未実行である場合、前記第1の学習処理で使用されたリソースおよび前記第2の学習処理で使用されたリソースに基づいて、前記複数の第1のサンプルサイズそれぞれに対応する合計リソースを算出し、
前記複数の第1のサンプルサイズの少なくとも1つについて前記合計リソースが閾値を超える場合、前記第3の学習処理の実行を許容し、
前記複数の第1のサンプルサイズの全てについて前記合計リソースが前記閾値以下である場合、前記第3の学習処理の実行を制限して、前記複数の第1のサンプルサイズの何れかのサンプルサイズの訓練データと第3のハイパーパラメータ値とを用いてモデルを生成する第4の学習処理の実行を許容する、
探索方法。 - 1つのサンプルサイズの訓練データと1つのハイパーパラメータ値とを用いてモデルを生成する学習処理の履歴を示す探索履歴を記憶する記憶部と、
前記探索履歴から、第1のサンプルサイズの訓練データと第1のハイパーパラメータ値とを用いる第1の学習処理が実行済みであり、前記第1のサンプルサイズの訓練データと第2のハイパーパラメータ値とを用いる第2の学習処理が実行済みであり、前記第1のサンプルサイズより大きい第2のサンプルサイズの訓練データと前記第1のハイパーパラメータ値とを用いる第3の学習処理が未実行であることを検出し、前記第1の学習処理で使用されたリソースおよび前記第2の学習処理で使用されたリソースに基づいて、前記第1のサンプルサイズに対応する合計リソースを算出し、前記第3の学習処理で使用されるリソースの推定値と、前記第2のサンプルサイズに対応するリソース係数とに基づいて、閾値を算出し、前記合計リソースが前記閾値を超える場合、前記第3の学習処理の実行を許容し、前記合計リソースが前記閾値以下である場合、前記第3の学習処理の実行を制限して、前記第1のサンプルサイズ以下の訓練データと第3のハイパーパラメータ値とを用いる第4の学習処理の実行を許容する処理部と、
を有する探索装置。 - コンピュータに、
第1のサンプルサイズの訓練データと第1のハイパーパラメータ値とを用いてモデルを生成する第1の学習処理を実行させ、前記第1のサンプルサイズの訓練データと第2のハイパーパラメータ値とを用いてモデルを生成する第2の学習処理を実行させ、
前記第1のサンプルサイズより大きい第2のサンプルサイズの訓練データと前記第1のハイパーパラメータ値とを用いてモデルを生成する第3の学習処理が未実行である場合、前記第1の学習処理で使用されたリソースおよび前記第2の学習処理で使用されたリソースに基づいて、前記第1のサンプルサイズに対応する合計リソースを算出し、
前記第3の学習処理で使用されるリソースの推定値と、前記第2のサンプルサイズに対応するリソース係数とに基づいて、閾値を算出し、
前記合計リソースが前記閾値を超える場合、前記第3の学習処理の実行を許容し、
前記合計リソースが前記閾値以下である場合、前記第3の学習処理の実行を制限して、前記第1のサンプルサイズ以下の訓練データと第3のハイパーパラメータ値とを用いてモデルを生成する第4の学習処理の実行を許容する、
処理を実行させる探索プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017204868A JP6974712B2 (ja) | 2017-10-24 | 2017-10-24 | 探索方法、探索装置および探索プログラム |
US16/166,203 US11762918B2 (en) | 2017-10-24 | 2018-10-22 | Search method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017204868A JP6974712B2 (ja) | 2017-10-24 | 2017-10-24 | 探索方法、探索装置および探索プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019079214A JP2019079214A (ja) | 2019-05-23 |
JP6974712B2 true JP6974712B2 (ja) | 2021-12-01 |
Family
ID=66169527
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017204868A Active JP6974712B2 (ja) | 2017-10-24 | 2017-10-24 | 探索方法、探索装置および探索プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11762918B2 (ja) |
JP (1) | JP6974712B2 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7325414B2 (ja) * | 2017-11-20 | 2023-08-14 | コーニンクレッカ フィリップス エヌ ヴェ | 第1のニューラルネットワークモデルと第2のニューラルネットワークモデルとの訓練 |
JP7121506B2 (ja) | 2018-03-14 | 2022-08-18 | 株式会社日立ハイテク | 探索装置、探索方法及びプラズマ処理装置 |
JP7137943B2 (ja) | 2018-03-20 | 2022-09-15 | 株式会社日立ハイテク | 探索装置、探索方法及びプラズマ処理装置 |
US11604441B2 (en) | 2018-06-15 | 2023-03-14 | Johnson Controls Tyco IP Holdings LLP | Automatic threshold selection of machine learning/deep learning model for anomaly detection of connected chillers |
US11859846B2 (en) | 2018-06-15 | 2024-01-02 | Johnson Controls Tyco IP Holdings LLP | Cost savings from fault prediction and diagnosis |
US11030484B2 (en) * | 2019-03-22 | 2021-06-08 | Capital One Services, Llc | System and method for efficient generation of machine-learning models |
WO2020250843A1 (ja) * | 2019-06-12 | 2020-12-17 | 株式会社Preferred Networks | ハイパーパラメタチューニング方法、プログラム試行システム及びコンピュータプログラム |
KR102149495B1 (ko) * | 2019-08-19 | 2020-08-28 | 고려대학교 산학협력단 | 환경 예측 모델의 훈련지표 최적화 장치 및 그 동작방법 |
CN110728310B (zh) * | 2019-09-27 | 2023-09-01 | 聚时科技(上海)有限公司 | 一种基于超参数优化的目标检测模型融合方法及融合系统 |
JP7421136B2 (ja) * | 2019-10-17 | 2024-01-24 | 富士通株式会社 | 機械学習プログラム、機械学習方法および機械学習装置 |
US11455561B2 (en) | 2019-11-14 | 2022-09-27 | International Business Machines Corporation | Alerting to model degradation based on distribution analysis using risk tolerance ratings |
JP7148644B2 (ja) | 2019-12-03 | 2022-10-05 | 株式会社日立ハイテク | 探索装置、探索プログラム及びプラズマ処理装置 |
JP2021114085A (ja) | 2020-01-17 | 2021-08-05 | 富士通株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
US11394774B2 (en) * | 2020-02-10 | 2022-07-19 | Subash Sundaresan | System and method of certification for incremental training of machine learning models at edge devices in a peer to peer network |
US11809968B2 (en) * | 2020-02-24 | 2023-11-07 | Capital One Services, Llc | Control of hyperparameter tuning based on machine learning |
JP7500358B2 (ja) * | 2020-09-07 | 2024-06-17 | キオクシア株式会社 | 情報処理装置 |
US20220092470A1 (en) * | 2020-09-24 | 2022-03-24 | Sap Se | Runtime estimation for machine learning data processing pipeline |
US20220138616A1 (en) * | 2020-10-30 | 2022-05-05 | International Business Machines Corporation | Scalable discovery of leaders from dynamic combinatorial search space using incremental pipeline growth approach |
TWI756974B (zh) * | 2020-12-09 | 2022-03-01 | 財團法人工業技術研究院 | 機器學習系統及其資源配置方法 |
CN113010312B (zh) * | 2021-03-11 | 2024-01-23 | 山东英信计算机技术有限公司 | 一种超参数调优方法、装置及存储介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08329032A (ja) * | 1995-05-31 | 1996-12-13 | Sanyo Electric Co Ltd | ニュ−ラルネット型パターン認識装置及びニュ−ラルネットの学習方法 |
AU2002345263A1 (en) * | 2001-07-09 | 2003-01-29 | Anna Elizabeth Gezina Potgieter | Complex adaptive systems |
WO2014194161A2 (en) | 2013-05-30 | 2014-12-04 | President And Fellows Of Harvard College | Systems and methods for performing bayesian optimization |
CN104125615B (zh) * | 2014-08-07 | 2017-12-15 | 华为技术有限公司 | 双频自适应并发的处理方法和装置 |
JP6620422B2 (ja) * | 2015-05-22 | 2019-12-18 | 富士通株式会社 | 設定方法、設定プログラム、及び設定装置 |
JP6536295B2 (ja) | 2015-08-31 | 2019-07-03 | 富士通株式会社 | 予測性能曲線推定プログラム、予測性能曲線推定装置および予測性能曲線推定方法 |
JP6555015B2 (ja) * | 2015-08-31 | 2019-08-07 | 富士通株式会社 | 機械学習管理プログラム、機械学習管理装置および機械学習管理方法 |
CN105554517B (zh) * | 2015-12-03 | 2018-09-28 | 浙江大华技术股份有限公司 | 一种视频流发送方法及装置 |
JP6470165B2 (ja) * | 2015-12-15 | 2019-02-13 | 株式会社東芝 | サーバ、システム及び探索方法 |
US10318346B1 (en) * | 2016-09-23 | 2019-06-11 | Amazon Technologies, Inc. | Prioritized scheduling of data store access requests |
-
2017
- 2017-10-24 JP JP2017204868A patent/JP6974712B2/ja active Active
-
2018
- 2018-10-22 US US16/166,203 patent/US11762918B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11762918B2 (en) | 2023-09-19 |
JP2019079214A (ja) | 2019-05-23 |
US20190122078A1 (en) | 2019-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6974712B2 (ja) | 探索方法、探索装置および探索プログラム | |
JP6703264B2 (ja) | 機械学習管理プログラム、機械学習管理方法および機械学習管理装置 | |
JP6555015B2 (ja) | 機械学習管理プログラム、機械学習管理装置および機械学習管理方法 | |
JP6697159B2 (ja) | 機械学習管理プログラム、機械学習管理装置および機械学習管理方法 | |
JP7071624B2 (ja) | 探索プログラム、探索方法および探索装置 | |
JP2017049674A (ja) | 予測性能曲線推定プログラム、予測性能曲線推定装置および予測性能曲線推定方法 | |
WO2018205881A1 (en) | Estimating the number of samples satisfying a query | |
JP6839342B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP6947981B2 (ja) | 推定方法、推定装置および推定プログラム | |
JP2018173813A (ja) | 比較プログラム、比較方法および比較装置 | |
JP2017228086A (ja) | 機械学習管理プログラム、機械学習管理方法、および機械学習管理装置 | |
JP6821614B2 (ja) | モデル学習装置、モデル学習方法、プログラム | |
US8010535B2 (en) | Optimization of discontinuous rank metrics | |
KR102251807B1 (ko) | 하이퍼파라미터 최적화 알고리즘 추천 방법 및 최적화 알고리즘 추천 시스템 | |
KR20200092989A (ko) | 아웃라이어 감지를 위한 비지도 파라미터 러닝을 이용한 생산용 유기체 식별 | |
CN110716761A (zh) | 信息处理平台上软件应用的执行参数的自动和自优化确定 | |
CA3196321A1 (en) | A computer-implemented method for deriving a data processing and inference pipeline | |
WO2023113946A1 (en) | Hyperparameter selection using budget-aware bayesian optimization | |
JP2023061477A (ja) | プログラム、データ処理方法及びデータ処理装置 | |
CN111026661B (zh) | 一种软件易用性全面测试方法及系统 | |
WO2022157862A1 (ja) | トラフィック変動予測装置、及びトラフィック変動予測方法、並びにトラフィック変動予測プログラム | |
CN114925605A (zh) | 一种用于集成电路设计中选取训练数据的方法 | |
CN112463378A (zh) | 一种服务器资产扫描方法、系统、电子设备及存储介质 | |
US20210319259A1 (en) | Method and apparatus for extracting a pattern of time series data | |
US20230281275A1 (en) | Identification method and information processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200709 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200722 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200722 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210519 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210902 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211018 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6974712 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |