JP2020201870A - Hyper-parameter management device, hyper-parameter management method and hyper-parameter management program product - Google Patents
Hyper-parameter management device, hyper-parameter management method and hyper-parameter management program product Download PDFInfo
- Publication number
- JP2020201870A JP2020201870A JP2019110263A JP2019110263A JP2020201870A JP 2020201870 A JP2020201870 A JP 2020201870A JP 2019110263 A JP2019110263 A JP 2019110263A JP 2019110263 A JP2019110263 A JP 2019110263A JP 2020201870 A JP2020201870 A JP 2020201870A
- Authority
- JP
- Japan
- Prior art keywords
- hyperparameter
- hyperparameters
- model
- processing
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、ハイパーパラメータ管理装置、ハイパーパラメータ管理方法及びハイパーパラメータ管理プログラム製品に関する。 The present invention relates to hyperparameter management devices, hyperparameter management methods and hyperparameter management program products.
機械学習技術は、ヘルスケアや金融、産業などの様々な分野で蓄積されたデータの解析に対して、新しい社会的価値を創出する技術として注目されている。機械学習には、support vector machineやdeep learningといったアルゴリズムの種類、及び各アルゴリズムにおいてモデルを決定するために必要なパラメータがある。事前に設定され、モデルの挙動を制御するこれらのパラメータは「ハイパーパラメータ」と呼ばれる。 Machine learning technology is attracting attention as a technology that creates new social value for the analysis of data accumulated in various fields such as healthcare, finance, and industry. Machine learning has the types of algorithms such as support vector machine and deep learning, and the parameters required to determine the model in each algorithm. These parameters that are preset and control the behavior of the model are called "hyperparameters".
一般的に、ハイパーパラメータの組み合わせは、数万通り以上存在する。このため、解析したい問題に機械学習を適用する際には、ハイパーパラメータの組み合わせをいくつも試行し、最も精度が高くなる組み合わせを特定する必要がある。加えて、ハイパーパラメータの組み合わせは解析する問題ごとに最適な組み合わせが異なるため、問題やデータが変わる度にに行う必要があり、この点が機械学習技術を活用する上での課題となっている。このように、ハイパーパラメータの組み合わせを網羅的に試行して最適解を得るプロセスは「グリッドサーチ」と呼ばれる。 In general, there are tens of thousands or more combinations of hyperparameters. Therefore, when applying machine learning to the problem to be analyzed, it is necessary to try a number of hyperparameter combinations and identify the combination with the highest accuracy. In addition, since the optimum combination of hyperparameters differs depending on the problem to be analyzed, it is necessary to perform it every time the problem or data changes, which is a problem in utilizing machine learning technology. .. In this way, the process of comprehensively trying the combination of hyperparameters to obtain the optimum solution is called "grid search".
最適なハイパーパラメータの特定をより容易に行うための手段がいくつか検討されている。例えば、WO2018223123A1(特許文献1)には、「クラウドサービスを使用して測定可能な状態値および調整可能なパラメータを有する対象システムを最適化するための方法及び装置。クラウドチューニングサービスは、クラウドチューニングサービスプロバイダによって設定及び運用される。クラウドチューニングサービスは、1つまたは複数のクラウドプロバイダから取得したリソースを用いた、1つ以上の機械学習又は人工知能方法を含む。対象システムの状態値及びパラメータは、対象システムの所有者によって識別され、定期的に分析するためにクラウドチューニングサービスに送信される。パラメータ調整命令はクラウドサービスによって生成され、定期的に対象システムに送り返される。」と記載されている。 Several means have been studied to make it easier to identify the optimal hyperparameters. For example, WO2018223123A1 (Patent Document 1) states that "a method and device for optimizing a target system having measurable state values and adjustable parameters using a cloud service. The cloud tuning service is a cloud tuning service. Set and operated by a provider. Cloud tuning services include one or more machine learning or artificial intelligence methods using resources obtained from one or more cloud providers. State values and parameters of the target system are: It is identified by the owner of the target system and sent to the cloud tuning service for periodic analysis. Parameter adjustment instructions are generated by the cloud service and sent back to the target system on a regular basis. "
上記の特許文献1には、クラウドサービスのコンピューティング資源を利用して、ハイパーパラメータをグリッドサーチによって特定する手段が記載されている。しかしながら、これは、ハイパーパラメータを特定する処理負荷をクラウドに転嫁していることに過ぎないため、コンピューティング資源の節約にならない上、クラウドサービスを運用するための膨大な実施コスト及び工数を要する。
The above-mentioned
そこで、本発明は、ハイパーパラメータを強化学習の手法を用いて特定することで、低コストでイベント予測等の分野に適用可能な機械学習モデルを提供することを目的とする。 Therefore, an object of the present invention is to provide a machine learning model that can be applied to fields such as event prediction at low cost by specifying hyperparameters using a method of reinforcement learning.
上記の課題を解決するために、代表的な本発明のハイパーパラメータ管理装置の一つは、処理用ハイパーパラメータとモデル用ハイパーパラメータとを含む第1のハイパーパラメータのセットを、候補ハイパーパラメータデータベースに格納される候補ハイパーパラメータ空間に基づいて生成する強化学習部と、前記処理用ハイパーパラメータに基づいて、対象データを処理し、訓練用情報及びテスト用情報を生成する処理部と、前記訓練用情報を用いて、前記モデル用ハイパーパラメータに基づいて機械学習モデルを作成するモデル作成部と、前記テスト用情報を用いて前記機械学習モデルを検証し、前記第1のハイパーパラメータのセットについての評価点数を計算する評価部と、所定の評価基準を達成するハイパーパラメータを格納する上位ハイパーパラメータデータベースと、前記上位ハイパーパラメータデータベースに格納されているハイパーパラメータに基づいて、第2のハイパーパラメータのセットを生成する変更部とを含む。 In order to solve the above problems, one of the representative hyperparameter management devices of the present invention puts a first set of hyperparameters including a processing hyperparameter and a model hyperparameter into a candidate hyperparameter database. An enhanced learning unit that generates based on the stored candidate hyperparameter space, a processing unit that processes target data based on the processing hyperparameters and generates training information and test information, and the training information. A model creation unit that creates a machine learning model based on the hyperparameters for the model, and the machine learning model is verified using the test information, and the evaluation score for the first hyperparameter set is obtained. Generates a second set of hyperparameters based on the evaluation unit that calculates the data, the hyperparameter database that stores the hyperparameters that achieve the predetermined evaluation criteria, and the hyperparameters that are stored in the hyperparameter database. Includes changes to be made.
本発明によれば、ハイパーパラメータを強化学習の手法を用いて特定することで、低コストでイベント予測等の分野に適用可能な機械学習モデルを提供することができる。
上記した以外の課題、構成及び効果は、以下の発明を実施するための形態における説明により明らかにされる。
According to the present invention, by specifying hyperparameters using a method of reinforcement learning, it is possible to provide a machine learning model applicable to fields such as event prediction at low cost.
Issues, configurations and effects other than those described above will be clarified by the following description of the embodiments for carrying out the invention.
以下、図面を参照して、従来例及び本発明の実施形態について説明する。なお、この実施形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
(概要)
Hereinafter, conventional examples and embodiments of the present invention will be described with reference to the drawings. The present invention is not limited to this embodiment. Further, in the description of the drawings, the same parts are indicated by the same reference numerals.
(Overview)
上述したように、本発明は、ハイパーパラメータの最適化に関する。ここでのハイパーパラメータとは、機械学習アルゴリズムの挙動を制御するパラメータである。ハイパーパラメータは、例えば、学習率やバッチサイズ、学習イテレーション数等、機械学習アルゴリズムにおける様々な特性を規定するものを含む。 As mentioned above, the present invention relates to hyperparameter optimization. The hyperparameters here are parameters that control the behavior of the machine learning algorithm. Hyperparameters include those that define various characteristics of a machine learning algorithm, such as learning rate, batch size, number of learning iterations, and so on.
解析したい問題に機械学習を適用する際には、その問題を最も効率的に解決できる機械学習モデルを構築するためには、そのモデルの最適なハイパーパラメータを特定することが望ましい。ハイパーパラメータを特定するために、従来から使用されていた、グリッドサーチ等のような手段では、解析したい問題に機械学習を適用する際には、使用可能なハイパーパラメータを定義するハイパーパラメータ空間におけるハイパーパラメータの組み合わせをいくつも試行し、対象の機械学習モデルの精度が最も高くなる組み合わせを特定する必要があった。 When applying machine learning to a problem to be analyzed, it is desirable to identify the optimal hyperparameters of the model in order to build a machine learning model that can solve the problem most efficiently. By means such as grid search, which have been conventionally used to identify hyperparameters, when applying machine learning to the problem to be analyzed, hyperparameters in the hyperparameter space that define the hyperparameters that can be used. It was necessary to try a number of parameter combinations and identify the combination with the highest accuracy of the target machine learning model.
また、機械学習モデルの設計変更などによりハイパーパラメータ空間が広がると、ハイパーパラメータの組み合わせの数が指数関数的に増加する。特に、ハイパーパラメータ空間が広く、コンピューティング資源が限られている場合には、グリッドサーチのような従来のハイパーパラメータ特定手法では、最適なハイパーパラメータを実用的な時間以内に特定することが難しい。そのため、最適なハイパーパラメータをより効率的に特定する手段が求められている。 Moreover, when the hyperparameter space expands due to a design change of a machine learning model or the like, the number of hyperparameter combinations increases exponentially. In particular, when the hyperparameter space is wide and computing resources are limited, it is difficult to identify the optimum hyperparameters within a practical time by a conventional hyperparameter identification method such as grid search. Therefore, there is a need for a means for more efficiently identifying the optimum hyperparameters.
従って、本発明は、ハイパーパラメータを強化学習の手法を用いて特定することで、低コストでイベント予測等の分野に適用可能な機械学習モデルを提供する。
なお、強化学習とは、ある環境におけるエージェントが、現在の状態を観測し、取るべき行動を決定する問題を扱う機械学習の一種である。そして、エージェントは行動を選択することで環境から報酬を得ることとなっている。このため、強化学習においては、一連の行動を通じて報酬が最も多く得られるような方策(policy)を学習することとなる。
強化学習の代表的な手法として、例えばTD(Temporal Difference)学習やQ学習等が知られている。後述するように、強化学習モデルと、再帰型ニューラルネットワーク(Recurrent Neural Network)とを組み合わせることで、最適なハイパーパラメータをより効率的に特定するシステムが可能となる。
Therefore, the present invention provides a machine learning model that can be applied to fields such as event prediction at low cost by specifying hyperparameters using a reinforcement learning method.
Reinforcement learning is a type of machine learning that deals with the problem that an agent in a certain environment observes the current state and decides the action to be taken. The agent is then to be rewarded by the environment by choosing an action. Therefore, in reinforcement learning, it is necessary to learn a policy that gives the most reward through a series of actions.
As typical methods of reinforcement learning, for example, TD (Temporal Difference) learning and Q-learning are known. As will be described later, by combining the reinforcement learning model and the recurrent neural network, a system for more efficiently specifying the optimum hyperparameters becomes possible.
本発明は、例えばローンのデフォルト、不正の金融取引、病気の進行等のイベントを予測するための機械学習モデルにおけるハイパーパラメータを特定することに関する。ここでのハイパーパラメータは、例えば、対象のデータをどのように処理すればよいかを規定する処理用ハイパーパラメータと、機械学習モデルの設計上の条件を規定するモデル用ハイパーパラメータとを含む。 The present invention relates to identifying hyperparameters in machine learning models for predicting events such as loan defaults, fraudulent financial transactions, disease progression and the like. The hyperparameters here include, for example, a processing hyperparameter that defines how the target data should be processed, and a model hyperparameter that defines the design conditions of the machine learning model.
まず、本発明に係る強化学習部は、候補ハイパーパラメータデータベースに格納される候補ハイパーパラメータ空間に基づいて、処理用ハイパーパラメータとモデル用ハイパーパラメータとを含む第1のハイパーパラメータのセットを生成する。次に、本発明に係る処理部は、生成された処理用ハイパーパラメータに基づいて、対象データを処理し、訓練用情報及びテスト用情報を生成する。次に、本発明に係るモデル作成部は、生成されたモデル用ハイパーパラメータに基づいて、訓練用情報を用いて機械学習モデルを作成する。次に、本発明に係る評価部は、テスト用情報を用いて機械学習モデルを検証し、第1のハイパーパラメータについての評価点数を計算する。次に、所定の評価基準を達成するハイパーパラメータが上位ハイパーパラメータデータベースに格納される。次に、本発明に係る変更部は、上位ハイパーパラメータデータベースに格納されているハイパーパラメータに基づいて、第2のハイパーパラメータのセットを生成する。 First, the reinforcement learning unit according to the present invention generates a first set of hyperparameters including a processing hyperparameter and a model hyperparameter based on the candidate hyperparameter space stored in the candidate hyperparameter database. Next, the processing unit according to the present invention processes the target data based on the generated processing hyperparameters, and generates training information and test information. Next, the model creation unit according to the present invention creates a machine learning model using the training information based on the generated model hyperparameters. Next, the evaluation unit according to the present invention verifies the machine learning model using the test information and calculates the evaluation score for the first hyperparameter. Next, the hyperparameters that achieve the predetermined evaluation criteria are stored in the upper hyperparameter database. Next, the modification part according to the present invention generates a second set of hyperparameters based on the hyperparameters stored in the upper hyperparameter database.
これにより、最適なハイパーパラメータを効率よく特定することができ、イベント予測に適用可能な機械学習モデルを提供することが可能となる。
(ハードウエア構成)
As a result, the optimum hyperparameters can be efficiently identified, and a machine learning model applicable to event prediction can be provided.
(Hardware configuration)
まず、図1を参照して、本開示の実施形態を実施するためのコンピュータシステム300について説明する。本明細書で開示される様々な実施形態の機構及び装置は、任意の適切なコンピューティングシステムに適用されてもよい。コンピュータシステム300の主要コンポーネントは、1つ以上のプロセッサ302、メモリ304、端末インターフェース312、ストレージインタフェース314、I/O(入出力)デバイスインタフェース316、及びネットワークインターフェース318を含む。これらのコンポーネントは、メモリバス306、I/Oバス308、バスインターフェースユニット309、及びI/Oバスインターフェースユニット310を介して、相互的に接続されてもよい。
First, a
コンピュータシステム300は、プロセッサ302と総称される1つ又は複数の汎用プログラマブル中央処理装置(CPU)302A及び302Bを含んでもよい。ある実施形態では、コンピュータシステム300は複数のプロセッサを備えてもよく、また別の実施形態では、コンピュータシステム300は単一のCPUシステムであってもよい。各プロセッサ302は、メモリ304に格納された命令を実行し、オンボードキャッシュを含んでもよい。
The
ある実施形態では、メモリ304は、データ及びプログラムを記憶するためのランダムアクセス半導体メモリ、記憶装置、又は記憶媒体(揮発性又は不揮発性のいずれか)を含んでもよい。メモリ304は、本明細書で説明する機能を実施するプログラム、モジュール、及びデータ構造のすべて又は一部を格納してもよい。例えば、メモリ304は、ハイパーパラメータ管理アプリケーション350を格納していてもよい。ある実施形態では、ハイパーパラメータ管理アプリケーション350は、後述する機能をプロセッサ302上で実行する命令又は記述を含んでもよい。
In certain embodiments,
ある実施形態では、ハイパーパラメータ管理アプリケーション350は、プロセッサベースのシステムの代わりに、またはプロセッサベースのシステムに加えて、半導体デバイス、チップ、論理ゲート、回路、回路カード、および/または他の物理ハードウェアデバイスを介してハードウエアで実施されてもよい。ある実施形態では、ハイパーパラメータ管理アプリケーション350は、命令又は記述以外のデータを含んでもよい。ある実施形態では、カメラ、センサ、または他のデータ入力デバイス(図示せず)が、バスインターフェースユニット309、プロセッサ302、またはコンピュータシステム300の他のハードウエアと直接通信するように提供されてもよい。
In certain embodiments, the
コンピュータシステム300は、プロセッサ302、メモリ304、表示システム324、及びI/Oバスインターフェースユニット310間の通信を行うバスインターフェースユニット309を含んでもよい。I/Oバスインターフェースユニット310は、様々なI/Oユニットとの間でデータを転送するためのI/Oバス308と連結していてもよい。I/Oバスインターフェースユニット310は、I/Oバス308を介して、I/Oプロセッサ(IOP)又はI/Oアダプタ(IOA)としても知られる複数のI/Oインタフェースユニット312,314,316、及び318と通信してもよい。
The
表示システム324は、表示コントローラ、表示メモリ、又はその両方を含んでもよい。表示コントローラは、ビデオ、オーディオ、又はその両方のデータを表示装置326に提供することができる。また、コンピュータシステム300は、データを収集し、プロセッサ302に当該データを提供するように構成された1つまたは複数のセンサ等のデバイスを含んでもよい。
The
例えば、コンピュータシステム300は、心拍数データやストレスレベルデータ等を収集するバイオメトリックセンサ、湿度データ、温度データ、圧力データ等を収集する環境センサ、及び加速度データ、運動データ等を収集するモーションセンサ等を含んでもよい。これ以外のタイプのセンサも使用可能である。表示システム324は、単独のディスプレイ画面、テレビ、タブレット、又は携帯型デバイスなどの表示装置326に接続されてもよい。
For example, the
I/Oインタフェースユニットは、様々なストレージ又はI/Oデバイスと通信する機能を備える。例えば、端末インタフェースユニット312は、ビデオ表示装置、スピーカテレビ等のユーザ出力デバイスや、キーボード、マウス、キーパッド、タッチパッド、トラックボール、ボタン、ライトペン、又は他のポインティングデバイス等のユーザ入力デバイスのようなユーザI/Oデバイス320の取り付けが可能である。ユーザは、ユーザインターフェースを使用して、ユーザ入力デバイスを操作することで、ユーザI/Oデバイス320及びコンピュータシステム300に対して入力データや指示を入力し、コンピュータシステム300からの出力データを受け取ってもよい。ユーザインターフェースは例えば、ユーザI/Oデバイス320を介して、表示装置に表示されたり、スピーカによって再生されたり、プリンタを介して印刷されたりしてもよい。
The I / O interface unit has the ability to communicate with various storage or I / O devices. For example, the
ストレージインタフェース314は、1つ又は複数のディスクドライブや直接アクセスストレージ装置322(通常は磁気ディスクドライブストレージ装置であるが、単一のディスクドライブとして見えるように構成されたディスクドライブのアレイ又は他のストレージ装置であってもよい)の取り付けが可能である。ある実施形態では、ストレージ装置322は、任意の二次記憶装置として実装されてもよい。メモリ304の内容は、ストレージ装置322に記憶され、必要に応じてストレージ装置322から読み出されてもよい。I/Oデバイスインタフェース316は、プリンタ、ファックスマシン等の他のI/Oデバイスに対するインターフェースを提供してもよい。ネットワークインターフェース318は、コンピュータシステム300と他のデバイスが相互的に通信できるように、通信経路を提供してもよい。この通信経路は、例えば、ネットワーク330であってもよい。
The
ある実施形態では、コンピュータシステム300は、マルチユーザメインフレームコンピュータシステム、シングルユーザシステム、又はサーバコンピュータ等の、直接的ユーザインターフェースを有しない、他のコンピュータシステム(クライアント)からの要求を受信するデバイスであってもよい。他の実施形態では、コンピュータシステム300は、デスクトップコンピュータ、携帯型コンピュータ、ノートパソコン、タブレットコンピュータ、ポケットコンピュータ、電話、スマートフォン、又は任意の他の適切な電子機器であってもよい。
In certain embodiments, the
図2を参照して、本発明の実施例1に係るハイパーパラメータ管理システムの構成について説明する。 The configuration of the hyperparameter management system according to the first embodiment of the present invention will be described with reference to FIG.
図2は、本発明の実施例1に係るハイパーパラメータ管理システム150の構成を示す図である。図2に示すように、ハイパーパラメータ管理システム150は、ハイパーパラメータ管理サーバ100と、クライアント端末135A,135Bと、通信ネットワーク225とからなる。ハイパーパラメータ管理サーバ100は、通信ネットワーク225を介して、クライアント端末135A,135Bに接続される。この通信ネットワーク225は、例えばLAN(Local Area Network)やインターネット等であってもよい。
FIG. 2 is a diagram showing a configuration of a
ハイパーパラメータ管理サーバ100は、本発明の実施例に係る各種機能を実施するためのサーバ装置である。図2に示すように、ハイパーパラメータ管理サーバ100は、プロセッサ110と、メモリ120と、記憶部130とを含む。
The
プロセッサ110は、必要に応じてメモリ120に格納されている各種プログラムを読み出して、プログラムからの命令に応じて処理を実行するプロセッサである。例えば、後述する処理部121、モデル作成部122、変更部123、強化学習部124、及び評価部125の機能は、プロセッサ110が実行する処理によって実現されてもよい。
The
メモリ120は、データ及びプログラムを記憶するためのランダムアクセス半導体メモリ、記憶装置、又は記憶媒体(揮発性又は不揮発性のいずれか)である。メモリ120は、本明細書で説明する機能を実施するプログラム、モジュール、及びデータ構造のすべて又は一部を格納してもよい。例えば、メモリ304は、後述する処理部121、モデル作成部122、変更部123、強化学習部124、及び評価部125の機能を、プロセッサ110上で実行する命令又は記述を含んでもよい。
強化学習部124は、所定のハイパーパラメータ空間に基づいて、処理用ハイパーパラメータ及びモデル用ハイパーパラメータを含む第1のハイパーパラメータセットを生成する機能部である。強化学習部124は、ハイパーパラメータを生成するために、再帰型ニューラルネットワークを用いてもよい。この再帰型ニューラルネットワークは、後述する評価点数を報酬として、よりよいハイパーパラメータを生成するように、ポリシー勾配法によって訓練される。
The
処理部121は、強化学習部124によって生成される処理用ハイパーパラメータを用いて、対象データの前処理を行う機能部である。ここでの前処理は、対象データを後続の機能部によって解釈可能な形式に変換したり、対象データにおいて抜けている値を補充したり、冗長的な対象データを削除したりすることを含む。処理部121が実行する前処理は、処理用ハイパーパラメータによって規定される。処理部121は、処理用ハイパーパラメータに基づいて対象データを処理することで、機械学習モデルを訓練するための訓練用情報と、訓練済みの機械学習モデルをテストするためのテスト用情報とを生成する。
The
モデル作成部122は、強化学習部124によって生成されるモデル用ハイパーパラメータに基づいて機械学習モデルを作成し、処理部121からの訓練用情報を用いて当該機械学習モデルを訓練する機能部である。ここでの機械学習モデルは、例えばローンのデフォルト、不正の金融取引、病気の進行等のイベントを予測するための機械学習モデルであってもよい。
The
評価部125は、テスト用情報を用いてモデル作成部122によって作成された機械学習モデルを検証し、第1のハイパーパラメータセットについての評価点数を計算する。この評価点数は、それぞれのハイパーパラメータの性能を定量的に示す尺度であり、例えば0〜1の数字で表されてもよい。原則として、より高い評価点数を有するハイパーパラメータは、機械学習モデルを検証した際に、より優れた精度・性能・効率等を発揮したことを意味する。所定の評価基準を達成するハイパーパラメータは、後述する上位ハイパーパラメータデータベース132に格納される。
なお、説明の便宜上、所定の評価基準を達成するハイパーパラメータは、「上位ハイパーパラメータ」ともいう。
The
For convenience of explanation, hyperparameters that achieve a predetermined evaluation criterion are also referred to as "upper-level hyperparameters".
変更部123は、上位ハイパーパラメータに基づいて、第2のハイパーパラメータのセットを生成する機能部である。機械学習モデル用のハイパーパラメータを、ハイパーパラメータ空間全体ではなく、既に性能が高いと判定されている上位ハイパーパラメータに基づいて生成することで、高い性能を有するハイパーパラメータが得られる可能性が高い。このため、グリッドサーチ等のような従来のハイパーパラメータ生成手段に比べて、優れたハイパーパラメータを効率的に特定することができる。
具体的には、変更部123は、例えば上位ハイパーパラメータの値を交換したり、上位ハイパーパラメータを合成させたりすることで第2のハイパーパラメータのセットを生成してもよい。
The
Specifically, the
記憶部130は、上述した機能部が用いる各種データを格納するためのストレージ装置である。記憶部130は、例えばフラッシュメモリ、ハードディスクドライブ等、任意の記憶媒体であってもよい。また、図2に示すように、記憶部130は、候補ハイパーパラメータデータベース131と、上位ハイパーパラメータデータベース132を含んでもよい。
The
候補ハイパーパラメータデータベース131は、所定のハイパーパラメータ空間を定義するデータベースである。ここでのハイパーパラメータ空間とは、ある分野や課題に対して、使用可能なハイパーパラメータの範囲を規定し、使用可能なハイパーパラメータを全て含む論理的な空間である。このハイパーパラメータ空間は、ユーザによって予め定義されてもよい。また、候補ハイパーパラメータデータベース131が有するハイパーパラメータ空間は、処理用ハイパーパラメータ及びモデル用ハイパーパラメータの両方について、使用可能なハイパーパラメータの範囲を定義してもよい。
The
上位ハイパーパラメータデータベース132は、上位のハイパーパラメータを格納するためのデータベースである。上述したように、上位ハイパーパラメータデータベース132は、テスト用情報を用いて機械学習モデルを検証した際に、第1のハイパーパラメータのセットのうち、所定の評価基準を達成したハイパーパラメータであってもよい。この評価基準は、「良い」と「悪い」のハイパーパラメータの敷居を定義する基準であり、所定の評価点数(例えば0.85以上)、所定のパーセンテージ(上位10%)、所定の数(上位20個)等として表現されてもよい。
The
クライアント端末135A、135Bは、機械学習モデルの解析の対象となる対象データを、通信ネットワーク225を介してハイパーパラメータ管理サーバ100に送信する端末である。ハイパーパラメータ管理装置205による解析(例えば、イベント予測)が終了した後、解析の結果を示す情報がクライアント端末135A、135Bに返送される。これらのクライアント端末135A、135Bは、例えば、デスクトップパソコン、ノートパソコン、タブレット、スマートフォン等、任意のデバイスであってもよい。
The
ハイパーパラメータ管理サーバ100に含まれるそれぞれの機能部は、図1に示すハイパーパラメータ管理アプリケーション350を構成するソフトウエアモジュールであってもよく、独立した専用ハードウェアデバイスであってもよい。また、上記の機能部は、同一のコンピューティング環境に実施されてもよく、分散されたコンピューティング環境に実施されてもよい。
Each functional unit included in the
次に、図3を参照して、本発明の実施例1に係るハイパーパラメータ管理システムの機能的構成について説明する。 Next, the functional configuration of the hyperparameter management system according to the first embodiment of the present invention will be described with reference to FIG.
図3は、本発明の実施例1に係るハイパーパラメータ管理システムの機能的構成250を示すブロック図である。図3に示すように、この機能的構成250は、上述した処理部121、モデル作成部122、変更部123、強化学習部124、評価部125、候補ハイパーパラメータデータベース131、及び上位ハイパーパラメータデータベース132の間のデータの送受信を示す。
FIG. 3 is a block diagram showing a
まず、強化学習部124は、候補ハイパーパラメータデータベース131に格納される候補ハイパーパラメータ空間に基づいて、処理用ハイパーパラメータとモデル用ハイパーパラメータとを含む第1のハイパーパラメータのセットを生成する。具体的には、強化学習部124は、いわゆるEpsilon−Greedy法を用いて、第1のハイパーパラメータのセットを探索(exploration)で生成するか、搾取(exploitation)で生成するかを判定する。
搾取の場合には、強化学習部124は、順伝播の計算を用いて、ハイパーパラメータのシーケンスを第1のハイパーパラメータのセットとして生成する。探索の場合には、強化学習部124は、候補ハイパーパラメータデータベース131の候補ハイパーパラメータ空間から一様に抽出したハイパーパラメータを第1のハイパーパラメータのセットとして生成する。その後、強化学習部124は、生成した第1のハイパーパラメータのセットを処理部121及びモデル作成部122に送信する。
また、後の段階で、強化学習部124は、第1のハイパーパラメータのセットについて計算される評価点数に基づいて、ポリシー勾配法を用いたバックプロパゲーションによって訓練される。これにより、強化学習部124は、よりよいハイパーパラメータを生成できるように学習する。
First, the
In the case of exploitation, the
Also, at a later stage, the
次に、処理部121は、第1のハイパーパラメータのセットに含まれる処理用ハイパーパラメータに基づいて、任意の対象データを処理する。ここでの対象データは、例えば図2に示すクライアント端末(135A,135B)から受信した解析対象のデータ(解析対象者の金融取引に関するデータ等)であってもよい。処理部121が対象データに対して行う処理の具体的な工程は、処理ハイパーパラメータによって規定される。
例えば、処理ハイパーパラメータが「average_filling」の値を有する場合には、処理部121は、対象データにおいて抜けている値を、類似しているデータの値の平均値で埋めてもよく、処理ハイパーパラメータが「median_filling」の値を有する場合には、処理部121は、対象データにおいて抜けている値を、類似しているデータの値の中央値で埋めてもよい。
Next, the
For example, when the processing hyperparameter has a value of "avage_filling", the
対象データに対する処理が終了した後、処理部121は、訓練用情報と、テスト用情報とを生成する。具体的には、処理部121は、受信した対象データを、機械学習モデルを訓練するための訓練用情報と、訓練済みの機械学習モデルをテストするためのテスト用情報とに分割してもよい。対象データを訓練用情報とテスト用情報とに分割することで、機械学習モデルの訓練とテストを個別に行うことができ、訓練用情報に対して学習されているが、未知のテスト用情報に対しては適合できていない過剰適合を避けることができる。例えば、対象データが2000年〜2010年の間に行われた金融取引を示すデータである場合には、処理部121は、2000年〜2005年のデータを訓練用情報とし、2005年〜2010年のデータをテスト用情報としてもよい。
After the processing for the target data is completed, the
次に、モデル作成部122は、第1のハイパーパラメータのセットに含まれるモデル用ハイパーパラメータに基づいて機械学習モデルを作成する。ここで作成する機械学習モデルの種類は、ユーザに予め設定されてもよく、モデル用ハイパーパラメータによって指定されてもよい。この機械学習モデルは、例えばローンのデフォルト、不正の金融取引、病気の進行等のイベントを予測するためのイベント予測機械学習モデルであってもよい。また、機械学習モデルの特性や設定は、モデル用ハイパーパラメータによって規定される。
例えば、モデル用ハイパーパラメータが「number_of_layers=3」、「number_of_nodes=3」、「learning_rate=0.001」、及び「activation_function=linear_activation」の値を有する場合には、モデル作成部122は、これらの条件に従って機械学習モデルを構築する。
機械学習モデルをモデル用ハイパーパラメータに基づいて作成した後、モデル作成部122は、処理部121から受信した訓練用情報を用いて当該機械学習モデルを訓練する。この訓練の方法は、機械学習モデルの種類に合わせて適宜に選択されてもよい。
Next, the
For example, when the model hyperparameters have the values of "number_of_layers = 3", "number_of_nodes = 3", "learning_rate = 0.001", and "activation_function = linear_activation", the
After creating the machine learning model based on the model hyperparameters, the
次に、評価部125は、処理部121から受信したテスト用情報を用いて、モデル作成部122によって作成された機械学習モデルを検証し、第1のハイパーパラメータについての評価点数を計算する。上述したように、この評価点数は、第1のハイパーパラメータの性能を定量的に示す尺度であり、例えば0〜1の数字で表されてもよい。原則として、より高い評価点数を有するハイパーパラメータは、検証した機械学習モデルにおいてより優れた精度・性能・効率等を発揮したことを意味する。所定の評価基準を達成するハイパーパラメータは、後述する上位ハイパーパラメータデータベース132に格納される。
Next, the
次に、変更部123は、上位ハイパーパラメータデータベース132に格納されている上位ハイパーパラメータに基づいて、第2のハイパーパラメータのセットを生成する。変更部123は、例えば、複数の上位ハイパーパラメータの値を交換することで第2のハイパーパラメータのセットを生成してもよく、複数の上位ハイパーパラメータを合成することで第2のハイパーパラメータのセットを生成してもよい。
ここで生成された第2のハイパーパラメータのセットは、強化学習部124を訓練するために用いられてもよく、機械学習モデルに設定されてもよく、上位ハイパーパラメータデータベース132に格納されてもよい。
なお、ここでは、第2のハイパーパラメータのセットを生成する方法として、上位ハイパーパラメータの値を交換することや、上位ハイパーパラメータを合成することを例として説明したが、本発明はこれに限定されず、上位ハイパーパラメータを用いて新たなハイパーパラメータを生成する他の手段も可能である。
Next, the
The second set of hyperparameters generated here may be used for training the
Here, as a method of generating the second hyperparameter set, exchanging the values of the upper hyperparameters and synthesizing the upper hyperparameters have been described as examples, but the present invention is limited to this. However, other means of generating new hyperparameters using higher-level hyperparameters are also possible.
次に、図4を参照して、本発明の実施例1に係る候補ハイパーパラメータデータベースの一例について説明する。 Next, an example of the candidate hyperparameter database according to the first embodiment of the present invention will be described with reference to FIG.
図4は、本発明の実施例1に係る候補ハイパーパラメータデータベース131の一例を示す図である。図4に示すように、候補ハイパーパラメータデータベース131は、パラメータ名351、第1のオプション352、第2のオプション353、及びその他のオプション354を含む。
なお、説明の便宜上、候補ハイパーパラメータデータベース131の内容を省略しているが、候補ハイパーパラメータデータベース131は数多くのハイパーパラメータの情報を格納してもよい。これらのハイパーパラメータは、上述したハイパーパラメータ空間を構成する。
FIG. 4 is a diagram showing an example of the
Although the contents of the
パラメータ名351は、ハイパーパラメータの種類を指定するものである。例えば、「missing_value」は、抜けている値を埋めるための方法を示す処理用ハイパーパラメータを指し、「number_of_layers」は、機械学習モデルのレイヤ数を指定するモデル用ハイパーパラメータデータを指す。
The
第1のオプション352、第2のオプション353、及びその他のオプション354は、それぞれのハイパーパラメータの有効性又は可能な値の範囲を指定するものである。例えば、「missing_value」の第1のオプション352が「True」の場合には、抜けている値を埋めるための処理が処理部によって行われ、「False」の場合には行われない。また、「number_of_layers」の第2のオプション353が「3」の場合には、モデル作成部は3つのレイヤを有する機械学習モデルを構築する。
The
上述したように、強化学習部は、当該候補ハイパーパラメータデータベース131から無作為又は一様に選択したハイパーパラメータを第1のハイパーパラメータのセットとして生成してもよい。
As described above, the reinforcement learning unit may generate hyperparameters randomly or uniformly selected from the
次に、図5を参照して、本発明の実施例1に係る上位ハイパーパラメータデータベースについて説明する。 Next, the upper hyperparameter database according to the first embodiment of the present invention will be described with reference to FIG.
図5は、本発明の実施例1に係る上位ハイパーパラメータデータベース132の一例を示す図である。図5に示すように、上位ハイパーパラメータデータベース132は、セットID401、パラメータ名402、値403、及び評価点数404を含む。
上述したように、上位ハイパーパラメータデータベース132は、所定の評価基準を達成する上位ハイパーパラメータを格納するデータベースである。
FIG. 5 is a diagram showing an example of the
As described above, the
セットID401は、パラメータが属するセットの識別子である。ここでのセットとは、1つの処理用ハイパーパラメータと、1つのモデル用ハイパーパラメータとからなる。例えば、同じセットID401が付与されているハイパーパラメータは、同じセットに属し、一対となる。
The
パラメータ名402は、ハイパーパラメータの種類を指定するものである。パラメータ名402は、図4を参照して説明したパラメータ名351と実質的に同様であるため、その説明は省略する。
The
値403は、ハイパーパラメータの値を指定するものである。ここでの値403は、可能な値を示す第1オプションや第2オプション等と異なり、実際に処理部又はモデル作成部に使用された際の値を示す。
The
評価点数404は、当該ハイパーパラメータの性能を定量的に示す尺度であり、例えば0〜1の数字で表されてもよい。原則として、より高い評価点数を有するハイパーパラメータは、機械学習モデルにおいてより優れた精度・性能・効率等を発揮したことを意味する。この評価点数404は、特定のハイパーパラメータのセットに基づいて訓練・検証された機械学習モデルを評価する際に、上述した評価部125によって定められる値である。
The
次に、図6を参照して、本発明の実施例1に係る処理部による処理について説明する。 Next, with reference to FIG. 6, the processing by the processing unit according to the first embodiment of the present invention will be described.
図6は、本発明の実施例1に係る処理部による処理500を示すフローチャートである。この処理500は、処理用ハイパーパラメータに基づいて、処理部が対象データに対して行う処理の各工程を示す。
FIG. 6 is a
まず、ステップ501では、処理部(例えば図2に示す処理部121)は、強化学習部から、処理用のハイパーパラメータ及びモデル用のハイパーパラメータを含む第1のハイパーパラメータのセットを受信する。
First, in
次に、ステップ502では、処理部は、第1のハイパーパラメータのセットに含まれる処理用のハイパーパラメータに基づいて対象データを処理する。例えば、処理ハイパーパラメータが「average_filling」の値を有する場合には、処理部は、対象データにおいて抜けている値を、類似しているデータの値の平均値で埋めてもよい。
Next, in
次に、ステップ503では、処理部は、処理後のデータをモデル作成部に出力する。この処理後のデータは、処理用のハイパーパラメータに基づいて処理された訓練用情報とテスト用情報とを含む。
Next, in
次に、図7を参照して、本発明の実施例1に係るモデル作成部による処理について説明する。 Next, with reference to FIG. 7, the processing by the model creation unit according to the first embodiment of the present invention will be described.
図7は、本発明の実施例1に係るモデル作成部による処理600を示すフローチャートである。この処理600は、モデル用ハイパーパラメータに基づいて機械学習モデルを作成する処理を示す。
FIG. 7 is a flowchart showing the
まず、ステップ601では、モデル作成部は、強化学習部からの処理用のハイパーパラメータ及びモデル用のハイパーパラメータを含む第1のハイパーパラメータのセットと、処理部からの訓練用情報及びテスト用情報とを受信する。
First, in
次に、ステップ602では、モデル作成部は、第1のハイパーパラメータのセットに含まれるモデル用ハイパーパラメータに基づいて機械学習モデルを作成する。例えば、モデル作成部は、モデル用ハイパーパラメータによって規定されるモデル種類(例えば「Support Vector Machine」や「Deep Neural Network」)、レイヤの数、及び隠れレイヤにおけるノードの数等に従って機械学習モデルを作成してもよい。
Next, in
次に、ステップ603では、機械学習モデルをモデル用ハイパーパラメータに基づいて作成した後、モデル作成部122は、処理部121から受信した訓練用情報を用いて当該機械学習モデルを訓練する。この訓練の方法として、例えば線形回帰、ロジスティック回帰、単純ベイズ分類及びk近傍法が挙げられる。この訓練により、機械学習モデルは、ローンのデフォルトや病気の進行等の特定のイベントを正確に予測する精度が向上する。
Next, in
次に、図8を参照して、本発明の実施例1に係る評価部による処理について説明する。 Next, the process by the evaluation unit according to the first embodiment of the present invention will be described with reference to FIG.
図8は、本発明の実施例1に係る評価部による処理700を示す図である。この処理700は、モデル作成部によって作成された機械学習モデルを検証して、第1のハイパーパラメータのセットを評価する処理を示す。
FIG. 8 is a diagram showing a
まず、ステップ703では、評価部は、処理部から受信したテスト用情報を用いて、モデル作成部によって作成された機械学習モデルを検証する。例えば、機械学習モデルがローンのデフォルトを予測するモデルである場合、評価部は、解析対象者の金融取引、年収、クレジットスコア等の金融情報を示すテスト用情報を分析し、当該解析対象者がデフォルトする確率を計算する。その後、機械学習モデルが計算した確率と、当該解析対象者が実際にデフォルトしたかどうかを示す結果に比較することで、機械学習モデルの精度を検証することができる。
First, in
次に、ステップ704では、評価部は、検証の結果に基づいて、第1のハイパーパラメータについての評価点数を計算する。この評価点数の形式は、機械学習モデルの種類によって選択されてもよい。例えば、機械学習モデルが分類・予測を行う場合には、精度やF1スコアをこの評価点数として使用してもよく、機械学習モデルが回帰のモデルである場合には、R2スコアをこの評価点数として使用してもよい。
一例として、この評価点数は、例えば0〜1の数字で表されてもよい。原則として、より高い評価点数を有するハイパーパラメータは、検証した機械学習モデルにおいてより優れた精度・性能・効率等を発揮したことを意味する。
Next, in
As an example, this evaluation score may be represented by a number from 0 to 1, for example. As a general rule, hyperparameters with higher evaluation scores mean that they exhibited better accuracy, performance, efficiency, etc. in the verified machine learning model.
次に、ステップ705では、評価部は、所定の評価基準を達成するハイパーパラメータを、上述した上位ハイパーパラメータデータベースに格納してもよい。この評価基準は、「良い」と「悪い」のハイパーパラメータの敷居を定義する基準であり、所定の評価点数(例えば0.85以上)、所定のパーセンテージ(上位10%)、所定の数(上位20個)等として表現されてもよい。
Next, in
次に、図9を参照して、本発明の実施例1に係る変更部による処理について説明する。 Next, with reference to FIG. 9, the processing by the modified portion according to the first embodiment of the present invention will be described.
図9は、本発明の実施例1に係る変更部による処理800を示すフローチャートである。この処理800は、上位ハイパーパラメータに基づいて、第2のハイパーパラメータを生成する処理を示す。
FIG. 9 is a flowchart showing the
まず、ステップ801では、変更部は、上位ハイパーパラメータデータベースに格納されている上位ハイパーパラメータのうち、任意の数K個のハイパーパラメータのセットを読み出す。
なお、ここでは、Kは、2以上の数字である。これは、ハイパーパラメータのセットが1つしかない場合には、値の交換や後述する合成ができないからである。
First, in
Here, K is a number of 2 or more. This is because if there is only one set of hyperparameters, values cannot be exchanged and synthesis described later cannot be performed.
次に、ステップ802では、変更部は、K個のハイパーパラメータのセットの値を交換することで、第2のハイパーパラメータのセットを生成する。
例えば、上位ハイパーパラメータデータベースには、{“missing_value”:“median”,“number_of_layers”:2}及び{“missing_value”:“average”,“number_of_layers”:3}の上位ハイパーパラメータデータベースがある場合には、変更部123は、それぞれのハイパーパラメータの値を交換し{“missing_value”:“average”,“number_of_layers”:2}及び{“missing_value”:“median”,“number_of_layers”:3}を生成する。
なお、説明の便宜上、上位ハイパーパラメータデータベースに2つのハイパーパラメータがある場合について説明したが、本発明はそれに限定されず、3つ以上のハイパーパラメータがある場合にも適用可能であるというまでもない。この場合には、変更部は、上位ハイパーパラメータデータベースに格納されるハイパーパラメータデータの全ての順列を生成してもよい。
また、ここでは、複数の上位ハイパーパラメータの値を交換することで第2のハイパーパラメータのセットを生成する一例を説明したが、本発明はこれに限定されず、後述するように、複数の上位ハイパーパラメータを合成することで第2のハイパーパラメータのセットを生成することもできる。
Next, in
For example, if the upper hyperparameter database has {"missing_value": "median", "number_of_layers": 2} and {"missing_value": "average", "number_of_layers": 3} , The
For convenience of explanation, the case where there are two hyperparameters in the upper hyperparameter database has been described, but the present invention is not limited to this, and it goes without saying that it can be applied even when there are three or more hyperparameters. .. In this case, the change part may generate all permutations of hyperparameter data stored in the upper hyperparameter database.
Further, here, an example of generating a second hyperparameter set by exchanging the values of a plurality of hyperparameters has been described, but the present invention is not limited to this, and as will be described later, a plurality of hyperparameters are described. It is also possible to generate a second set of hyperparameters by synthesizing hyperparameters.
次に、ステップ803では、変更部は、第2のハイパーパラメータのセットの中から、任意のハイパーパラメータをランダムに選択し、出力する。ここで選択されたハイパーパラメータは、強化学習部を訓練するために用いられてもよく、機械学習モデルに設定されてもよく、上位ハイパーパラメータデータベースに格納されてもよい。
Next, in
次に、図10を参照して、本発明の実施例1に係る強化学習部による処理について説明する。 Next, with reference to FIG. 10, the processing by the reinforcement learning unit according to the first embodiment of the present invention will be described.
図10は、本発明の実施例1に係る強化学習部による処理900を示すフローチャートである。この処理900は、ハイパーパラメータを生成し、ハイパーパラメータの評価点数に基づいて強化学習部を訓練する処理を示す。
FIG. 10 is a flowchart showing the
まず、ステップ901では、強化学習部は、第1のハイパーパラメータのセットを探索(exploration)で生成するか、搾取(exploitation)で生成するかを判定するためには、0以上1未満のランダムな値を生成する。
First, in
次に、ステップ902では、強化学習部は、ランダムに生成した値を第1のエプシロンパラメータε1に比較する。ランダムに生成した値が第1のエプシロンパラメータε1以上の場合には、本処理はステップ903に進み、ランダムに生成した値が第1のエプシロンパラメータε1未満の場合には、本処理はステップ904に進む。
なお、第1のエプシロンパラメータε1は、予めユーザに設定される値である。
Next, in
The first epsilon parameter ε1 is a value set in advance by the user.
ステップ903では、強化学習部は、いわゆる「搾取」の手段として、再帰型ニューラルネットワークの順伝播計算を用いて、ハイパーパラメータのシーケンスを第1のハイパーパラメータのセットとして生成する。
In
ステップ904では、強化学習部は、探索の手段として、上述した変更部を用いるか、ハイパーパラメータ空間から一様に抽出したハイパーパラメータを用いるかを判定するためには、0以上1未満のランダムな値を生成する。
In
次に、ステップ905では、強化学習部は、ランダムに生成した値を第2のエプシロンパラメータε2に比較する。ランダムに生成した値が第2のエプシロンパラメータε2以上の場合には、本処理はステップ907に進み、ランダムに生成した値が第2のエプシロンパラメータε2未満の場合には、本処理はステップ906に進む。
なお、第2のエプシロンパラメータε2は、予めユーザに設定される値である。
Next, in
The second epsilon parameter ε2 is a value set in advance by the user.
ステップ906では、強化学習部は、変更部を呼び出し、第1のハイパーパラメータのセットに基づいた第2のハイパーパラメータを生成させる。この処理は、上述した処理800に対応する。
In
ステップ907では、強化学習部は、候補ハイパーパラメータデータベースの候補ハイパーパラメータ空間から一様に抽出したハイパーパラメータを第1のハイパーパラメータのセットとして生成する。
In
次に、ステップ908では、強化学習部は、ステップ903、ステップ906、又はステップ907で生成されたハイパーパラメータのセットを処理部及びモデル作成部に送信する。その後、処理部及びモデル作成部はそれぞれ、上述した処理(処理500及び処理600)を行う。
Next, in
次に、ステップ909では、処理部、モデル作成部、及び評価部による処理が終了した後、強化学習部は、ハイパーパラメータのセットについて計算された評価点数を評価部から受信する。
Next, in
次に、ステップ910では、強化学習部は、ポリシー勾配法を用いて、受信した評価点数に基づいて、再帰型ネットワークの重み付けを更新する。例えば、ハイパーパラメータの評価点数が低い(所定の評価基準を達成しない)場合には、強化学習部は、再帰型ネットワークの重み付けを減少してもよい。また、ハイパーパラメータの評価点数が高い(所定の評価基準を達成する)場合には、強化学習部は、再帰型ネットワークの重み付けを増加してもよい。これにより、強化学習部の再帰型ネットワークはよりよいハイパーパラメータを生成するように訓練される。
Next, in
次に、図11を参照して、本発明の実施例2に係るハイパーパラメータ管理システムの構成について説明する。 Next, the configuration of the hyperparameter management system according to the second embodiment of the present invention will be described with reference to FIG.
図11は、本発明の実施例2に係るハイパーパラメータ管理システム1150の構成を示す図である。図11に示すハイパーパラメータ管理システム1150は、図2を参照して説明したハイパーパラメータ管理システム150の構成要素の他に、予測調整部126を備える点において、ハイパーパラメータ管理システム150と異なる。この点以外、ハイパーパラメータ管理システム1150の構成はハイパーパラメータ管理システム150の構成と実質的に同様であるため、その説明は省略する。
FIG. 11 is a diagram showing the configuration of the
機械学習モデルの中には、出力となる確率分布が二極化する等、汎用性に欠けるモデルがある。例えば、ローンがデフォルトされる確率を予測する機械学習モデルの確率分布では、ローンがデフォルトされる確率がほぼ100%又はほぼ0%等のような極端の2択に分かれるものがある。このような二極化した結果では、有意義な結論を導出することが難しいため、「100%」と「0%」の間をより滑らかな確率分布で示す機械学習モデルが望ましい。 Some machine learning models lack versatility, such as the polarization of the output probability distribution. For example, in the probability distribution of a machine learning model that predicts the probability that a loan will be defaulted, the probability that a loan will be defaulted may be divided into two extreme options such as almost 100% or almost 0%. Since it is difficult to draw meaningful conclusions from such polarized results, a machine learning model that shows a smoother probability distribution between "100%" and "0%" is desirable.
従って、本発明の実施例2に係るハイパーパラメータ管理システム1150は、所望の確率分布に応じてハイパーパラメータの評価点数を調整する予測調整部126を含む。これにより、モデル作成部122によって作成される機械学習モデルは、より有意義な確率分布を有する予測結果を生成するように訓練される。
なお、予測調整部126の機能については後述する。
Therefore, the
The function of the
次に、図12を参照して、本発明の実施例2に係るハイパーパラメータ管理システムの機能的構成について説明する。 Next, with reference to FIG. 12, the functional configuration of the hyperparameter management system according to the second embodiment of the present invention will be described.
図12は、本発明の実施例2に係るハイパーパラメータ管理システムの機能的構成1250を示すブロック図である。図12に示す機能的構成1250は、図3を参照して説明した機能的構成250の構成要素の他に、予測調整部126を備える点において、機能的構成250と異なる。この点以外、機能的構成1250の構成は機能的構成250と実質的に同様であるため、その説明は省略する。
FIG. 12 is a block diagram showing a
予測調整部126は、モデル作成部122の機械学習モデル(図示せず)によって生成された予測結果と、ハイパーパラメータの評価点数とを受信する。ここでの予測結果とは、例えば対象データに基づいて生成された、ローンのデフォルト、不正の金融取引、病気の進行等のイベントに関する確率分布であってもよい。
The
次に、予測調整部126は、機械学習モデルによって生成された予測結果を、予め入力された所望の予測分布に比較し、この比較の結果に基づいて、ハイパーパラメータの評価点数を調整する。この所望の予測分布は、例えばユーザが望む確率分布を示す参考用のデータであってもよい。評価点数が調整されたハイパーパラメータのうち、所定の評価基準を達成するハイパーパラメータは上位ハイパーパラメータデータベース132に格納される。
なお、ハイパーパラメータ調整の詳細については後述する。
Next, the
The details of hyperparameter adjustment will be described later.
次に、図13を参照して、本発明の実施例2に係る予測調整部による処理について説明する。 Next, with reference to FIG. 13, the processing by the prediction adjustment unit according to the second embodiment of the present invention will be described.
図13は、本発明の実施例2に係る予測調整部による処理1300を示すフローチャートである。この処理1300は、機械学習モデルの予測結果と所望の予測分布との比較に基づいて、ハイパーパラメータの評価点数を調整する処理の各工程を示す。
FIG. 13 is a flowchart showing the
まず、ステップ1301では、予測調整部は、モデル作成部122の機械学習モデル(図示せず)によって生成された予測結果を受信する。この予測結果は、例えば、複数のテスト用データに基づいて生成された予測を1つの予測分布に集約したものであってもよい。
First, in
次に、ステップ1302では、予測調整部は、機械学習モデルの予測結果と、予め入力された所望の予測分布を比較し、予測結果と所望の予測分布の差異を示す距離を計算する。この距離は、例えばカルバック・ライブラー距離の計算手段によって計算されてもよい。
Next, in
次に、ステップ1303では、予測調整部は、予測結果と所望の予測分布の距離に基づいて、ハイパーパラメータの評価点数を調整する。具体的には、予測結果が、予測結果分布に対する所定の類似度基準を達成する場合には、予測調整部はハイパーパラメータの評価点数を増加させる。一方、予測結果が、予測結果分布に対する所定の類似度基準を達成しない場合には、予測調整部はハイパーパラメータの評価点数を現象させてもよい。ここでの類似度基準は、例えば所定の距離の値を指定する基準である。
Next, in
次に、ステップ1304では、予測調整部は、評価点数を調整したハイパーパラメータを出力する。例えば、上述したように、予測調整部は、評価点数が調整されたハイパーパラメータのうち、所定の評価基準を達成するハイパーパラメータを上位ハイパーパラメータデータベースに格納してもよい。
Next, in
このように、所望の予測分布に類似した予測結果の生成を促すハイパーパラメータが高い評価点数となり、所望の予測分布に類似しない予測結果の生成を促すハイパーパラメータが低い評価点数となる。これにより、モデル作成部が機械学習モデルを作成する際に、高い評価点数のハイパーパラメータを用いることで、ユーザが望む予測分布を有する予測結果が生成できる機械学習モデルを実現することができる。 As described above, the hyperparameters that promote the generation of prediction results similar to the desired prediction distribution have a high evaluation score, and the hyperparameters that promote the generation of prediction results that do not resemble the desired prediction distribution have a low evaluation score. As a result, when the model creation unit creates a machine learning model, it is possible to realize a machine learning model that can generate a prediction result having a prediction distribution desired by the user by using a hyperparameter with a high evaluation score.
次に、図14を参照して、本発明の実施例3に係るハイパーパラメータ管理システムの構成について説明する。 Next, the configuration of the hyperparameter management system according to the third embodiment of the present invention will be described with reference to FIG.
図14は、本発明の実施例3に係るハイパーパラメータ管理システム1400の構成を示す図である。以上説明した実施例1及び実施例2では、上位の処理用ハイパーパラメータ及びモデル用ハイパーパラメータを共に生成する構成について説明したが、本発明はそれに限定されず、上位の処理用ハイパーパラメータ及びモデル用ハイパーパラメータを個別に生成する構成も可能である。そのため、本発明の実施例3に係るハイパーパラメータ管理システム1400は、上位の処理用ハイパーパラメータと、モデル用ハイパーパラメータとを並行に生成する構成について説明する。
なお、ここでは、「上位の処理用ハイパーパラメータ及びモデル用ハイパーパラメータを個別に生成する」との表現は、上位の処理用ハイパーパラメータと、上位のモデル用ハイパーパラメータとを独立した機械学習パイプラインで生成することを意味する。これにより、上位の処理用ハイパーパラメータ及びモデル用ハイパーパラメータを同じ機械学習パイプラインで生成することに比べて、より評価点数の高いハイパーパラメータが得られやすくなる。
FIG. 14 is a diagram showing the configuration of the
Here, the expression "generate higher-level processing hyperparameters and model hyperparameters individually" is a machine learning pipeline in which higher-level processing hyperparameters and higher-level model hyperparameters are independent. It means to generate with. This makes it easier to obtain hyperparameters with a higher evaluation score than generating higher-level processing hyperparameters and model hyperparameters in the same machine learning pipeline.
図14に示すように、処理用ハイパーパラメータ及びモデル用ハイパーパラメータの生成を並行に行うためには、ハイパーパラメータ管理システム1400のハイパーパラメータ管理サーバ100は、2つのプロセッサ110、210、2つのメモリ110、220、及び2つの記憶部130、230を含んでもよい。プロセッサ110、210は、物理的に独立されているプロセッサであってもよく、同一のプロセッサの異なるコアであってもよい。同様に、メモリ120、220及び記憶部130、230は、物理的に独立されているものであってもよく、同一の記憶媒体の異なるパーティションであってもよい。
As shown in FIG. 14, in order to generate the hyperparameters for processing and the hyperparameters for models in parallel, the
上述したように、実施例2では、処理用ハイパーパラメータを生成する処理と、モデル用ハイパーパラメータを生成する処理とが個別に行われる。そのため、処理用ハイパーパラメータを生成する処理では、強化学習部124は、モデル用ハイパーパラメータを生成しない。しかし、処理用ハイパーパラメータを生成する処理において、機械学習モデルを作成するためには、モデル用ハイパーパラメータが必要となる。同様に、モデル用ハイパーパラメータを生成する処理において、対象データの前処理を行うためには、処理用ハイパーパラメータが必要となる。
従って、本実施形態に係るハイパーパラメータ管理システム1400は、処理用ハイパーパラメータを生成する処理において用いられるモデル用ハイパーパラメータが事前に格納されている固定のモデル用ハイパーパラメータデータベース135と、モデル用ハイパーパラメータを生成するする処理において用いられる処理用ハイパーパラメータが事前に格納されている固定の処理用ハイパーパラメータデータベース235とを含む。
これにより、処理用ハイパーパラメータ又はモデル用ハイパーパラメータを生成する処理において、他の種類のハイパーパラメータが必要になった際に、当該ハイパーパラメータが該当するデータベースから読み出され、適宜に使用される。なお、これらの固定のハイパーパラメータの値が固定されているため、評価部125や変更部123の処理によって変更されない。
As described above, in the second embodiment, the process of generating the hyperparameters for processing and the process of generating the hyperparameters for the model are individually performed. Therefore, in the process of generating the hyperparameters for processing, the
Therefore, the
As a result, when other types of hyperparameters are required in the process of generating the processing hyperparameters or the model hyperparameters, the hyperparameters are read from the corresponding database and used as appropriate. Since the values of these fixed hyperparameters are fixed, they are not changed by the processing of the
図14に示すように、記憶部130は、処理用ハイパーパラメータを生成する候補処理用ハイパーパラメータデータベース133と、所定の評価基準を達成する処理用ハイパーパラメータを格納する上位処理用ハイパーパラメータデータベース134と、機械学習モデルを作成する際に用いる固定のモデル用ハイパーパラメータを格納する固定のモデル用ハイパーパラメータデータベース135とを含む。
また、記憶部230は、モデル用ハイパーパラメータを生成する候補モデル用ハイパーパラメータデータベース233と、所定の評価基準を達成するモデル用ハイパーパラメータを格納する上位モデル用ハイパーパラメータデータベース234と、対象データを処理する際に用いる処理用ハイパーパラメータを格納する固定の処理用ハイパーパラメータデータベース235とを含む。
As shown in FIG. 14, the
Further, the
なお、以上説明した点以外、ハイパーパラメータ管理システム1400の構成は上述したハイパーパラメータ管理システム150と実施的に同様であるため、その説明は省略する。
Other than the points described above, the configuration of the
次に、図15を参照して、本発明の実施例3に係るハイパーパラメータ管理システムの機能的構成について説明する。 Next, with reference to FIG. 15, the functional configuration of the hyperparameter management system according to the third embodiment of the present invention will be described.
図15は、本発明の実施例3に係るハイパーパラメータ管理システムの機能的構成1450を示すブロック図である。上述したように、本発明の実施例3では、処理用ハイパーパラメータと、モデル用ハイパーパラメータとが個別の処理で生成される。従って、図15に示すように、上述した強化学習部、処理部、モデル作成部、変更部及び評価部の機能が、処理用ハイパーパラメータ及びモデル用ハイパーパラメータ毎に、並行に実行される。具体的な処理手順や、機能部間のデータの送受信は、図3を参照して説明したとの実施的に同様であるため、ここではその説明を省略する。
FIG. 15 is a block diagram showing a
次に、図16を参照して、本発明の実施例4に係るハイパーパラメータ管理システムの構成について説明する。 Next, the configuration of the hyperparameter management system according to the fourth embodiment of the present invention will be described with reference to FIG.
図16は、本発明の実施例4に係るハイパーパラメータ管理システム1600の構成を示す図である。図16に示すハイパーパラメータ管理システム1600は、上述したハイパーパラメータ管理システム1400と同様に、処理用ハイパーパラメータと、モデル用ハイパーパラメータを並行に処理する構成である。ただし、ハイパーパラメータ管理システム1600は、固定のハイパーパラメータデータベースに格納されているハイパーパラメータを更新するハイパーパラメータ更新部321を含む点において、ハイパーパラメータ管理システム1400と異なる。この点以外、ハイパーパラメータ管理システム1600の構成はハイパーパラメータ管理システム1400の構成と実質的に同様であるため、その説明は省略する。
FIG. 16 is a diagram showing the configuration of the
処理用ハイパーパラメータと、モデル用ハイパーパラメータを独立して最適化する場合には、1種のハイパーパラメータを固定した状態で、もう1種のハイパーパラメータが最適化される。そのため、処理用ハイパーパラメータとモデル用ハイパーパラメータの両方が最適化されたハイパーパラメータセットを実現するためには、固定したハイパーパラメータを、別の機械学習パイプラインにおいて最適化されたハイパーパラメータに基づいて更新することが望ましい。 When the processing hyperparameter and the model hyperparameter are optimized independently, one type of hyperparameter is fixed and the other type of hyperparameter is optimized. Therefore, in order to realize a hyperparameter set in which both the processing hyperparameters and the model hyperparameters are optimized, fixed hyperparameters are based on the hyperparameters optimized in another machine learning pipeline. It is desirable to update.
図16に示すように、ハイパーパラメータ管理システム1600は、第3のプロセッサ313と、メモリ323と、ハイパーパラメータ更新部321とを含む。このハイパーパラメータ更新部321は、所定の頻度で、上位モデル用ハイパーパラメータデータベース234に格納されている上位モデル用ハイパーパラメータを、固定のモデル用ハイパーパラメータデータベース135に移行し、上位処理用ハイパーパラメータデータベース134に格納されている上位処理用ハイパーパラメータを、固定の処理用ハイパーパラメータデータベース235に移行する機能部である。
これにより、固定のハイパーパラメータが上位ハイパーパラメータに置き換えられるため、最新で最も評価点数の高いハイパーパラメータがそれぞれの機械学習パイプラインにおいて使用される。
As shown in FIG. 16, the
This replaces the fixed hyperparameters with the higher-level hyperparameters, so that the latest and highest-rated hyperparameters are used in each machine learning pipeline.
次に、図17を参照して、本発明の実施例4に係るハイパーパラメータ管理システムの機能的構成について説明する。 Next, with reference to FIG. 17, the functional configuration of the hyperparameter management system according to the fourth embodiment of the present invention will be described.
図17は、本発明の実施例4に係るハイパーパラメータ管理システムの機能的構成1750を示す図である。図17に示すように、ハイパーパラメータ更新部321は、所定の頻度で、上位モデル用ハイパーパラメータデータベース234に格納されている上位モデル用ハイパーパラメータを、固定のモデル用ハイパーパラメータデータベース135に移行し、上位処理用ハイパーパラメータデータベース134に格納されている上位処理用ハイパーパラメータを、固定の処理用ハイパーパラメータデータベース235に移行する。
なお、この点以外、図17に示すハイパーパラメータ管理システムの機能的構成1750は、図3に示すハイパーパラメータ管理システムの機能的構成250と実質的に同様であるため、ここではその説明を省略する。
FIG. 17 is a diagram showing a
Other than this point, the
次に、図18を参照して、本発明の実施例4に係るハイパーパラメータ更新部による処理について説明する。 Next, the process by the hyperparameter update unit according to the fourth embodiment of the present invention will be described with reference to FIG.
図18は、本発明の実施例4に係るハイパーパラメータ更新部による処理1800を示すフローチャートである。この処理1800は、固定のハイパーパラメータデータベースに格納されているハイパーパラメータを、上位のハイパーパラメータで更新する処理を示す。
FIG. 18 is a
まず、ステップ1601では、ハイパーパラメータ更新部は、所定のハイパーパラメータ更新条件が満たされているか否かを判定する。このハイパーパラメータ更新条件は、ハイパーパラメータを更新する時間や状況を定める条件である。このハイパーパラメータ更新条件は、例えば前回の更新からの所定時間の経過(1時間、1日、1週間)、訓練された機械学習モデルの数、上位ハイパーパラメータの数等、任意の条件であってもよい。ハイパーパラメータ更新条件が満たされている場合には、本処理はステップ1602に進み、ハイパーパラメータ更新条件が満たされていない場合には、本処理は終了する。
First, in
次に、ステップ1602では、ハイパーパラメータ更新部は、上位処理用ハイパーパラメータデータベースに格納されている上位処理用ハイパーパラメータを、固定の処理用ハイパーパラメータデータベースに移行する。この際、固定の処理用ハイパーパラメータデータベースに格納されているハイパーパラメータは、上位処理用ハイパーパラメータによって上書きされてもよく、予備のハイパーパラメータとして保管されてもよい。
Next, in
次に、ステップ1603では、ハイパーパラメータ更新部は、上位モデル用ハイパーパラメータデータベースに格納されている上位モデル用ハイパーパラメータを、固定のモデル用ハイパーパラメータデータベースに移行する。また、上述したように、この際には、固定のモデル用ハイパーパラメータデータベースに格納されているハイパーパラメータは、上位モデル用ハイパーパラメータによって上書きされてもよく、予備のハイパーパラメータとして保管されてもよい。
Next, in
次に、図19を参照して、本発明の実施例5に係るハイパーパラメータ管理システムの構成について説明する。 Next, the configuration of the hyperparameter management system according to the fifth embodiment of the present invention will be described with reference to FIG.
図19は、本発明の実施例5に係るハイパーパラメータ管理システム1900の構成を示す図である。図19に示すハイパーパラメータ管理システム1900は、上述したハイパーパラメータ管理システム1400と同様に、処理用ハイパーパラメータと、モデル用ハイパーパラメータとを並行に生成する構成である。ただし、ハイパーパラメータ管理システム1900は、独立して生成された上位処理用ハイパーパラメータ及び上位モデル用ハイパーパラメータを合成するハイパーパラメータ合成部325を含む点において、ハイパーパラメータ管理システム1400と異なる。この点以外、ハイパーパラメータ管理システム1900の構成はハイパーパラメータ管理システム1400の構成と実質的に同様であるため、その説明は省略する。
FIG. 19 is a diagram showing a configuration of a
処理用ハイパーパラメータと、モデル用ハイパーパラメータを独立して最適化する場合には、上位処理用ハイパーパラメータ及び上位モデル用ハイパーパラメータはそれぞれ別のデータベースに格納される。そのため、処理用ハイパーパラメータとモデル用ハイパーパラメータの両方が最適化されたハイパーパラメータセットを実現するためには、上位処理用ハイパーパラメータと、上位モデル用ハイパーパラメータとを合成することが望ましい。 When the processing hyperparameters and the model hyperparameters are optimized independently, the higher-level processing hyperparameters and the higher-level model hyperparameters are stored in separate databases. Therefore, in order to realize a hyperparameter set in which both the processing hyperparameters and the model hyperparameters are optimized, it is desirable to synthesize the upper processing hyperparameters and the upper model hyperparameters.
図19に示すように、ハイパーパラメータ管理システム1900は、第3のプロセッサ313と、メモリ323と、ハイパーパラメータ合成部325とを含む。このハイパーパラメータ合成部325は、上位処理用ハイパーパラメータを上位処理用ハイパーパラメータデータベース134から抽出し、上位モデル用ハイパーパラメータを上位モデル用ハイパーパラメータデータベース234から抽出し、当該抽出した上位処理用ハイパーパラメータ及び上位モデル用ハイパーパラメータを合成することで、第2のハイパーパラメータのセットを生成する。ここで合成した第2のハイパーパラメータのセットは、図19に示す記憶部333の上位合成ハイパーパラメータデータベース335に格納される。
As shown in FIG. 19, the
次に、図20を参照して、本発明の実施例5に係るハイパーパラメータ管理システムの機能的構成について説明する。 Next, with reference to FIG. 20, the functional configuration of the hyperparameter management system according to the fifth embodiment of the present invention will be described.
図20は、本発明の実施例5に係るハイパーパラメータ管理システムの機能的構成2050を示す図である。上述したように、本発明の実施例5では、独立して生成された上位処理用ハイパーパラメータ及び上位モデル用ハイパーパラメータを合成することで第2のハイパーパラメータのセットが生成される。
FIG. 20 is a diagram showing a
図20に示すように、ハイパーパラメー合成部325は、上位処理用ハイパーパラメータを上位処理用ハイパーパラメータデータベース134から抽出し、上位モデル用ハイパーパラメータを上位モデル用ハイパーパラメータデータベース234から抽出し、当該抽出した上位処理用ハイパーパラメータ及び上位モデル用ハイパーパラメータを合成することで、第2のハイパーパラメータのセットを生成する。
As shown in FIG. 20, the
その後、第2のハイパーパラメータのセットは、処理部121及びモデル作成部122に送信され、対象データの処理及び機械学習モデルの作成に用いられる。その後、評価部125は、第2のハイパーパラメータのセットについての評価点数を計算し、所定の評価基準を達成するハイパーパラメータを上位合成ハイパーパラメータデータベース335に格納する。
なお、この点以外、図20に示すハイパーパラメータ管理システムの機能的構成2050は、図3に示すハイパーパラメータ管理システムの機能的構成250と実質的に同様であるため、ここではその説明を省略する。
After that, the second hyperparameter set is transmitted to the
Other than this point, the
次に、図21を参照して、本発明の実施例5に係るハイパーパラメータ合成部による処理について説明する。 Next, with reference to FIG. 21, the process by the hyperparameter synthesizer according to the fifth embodiment of the present invention will be described.
図21は、本発明の実施例5に係るハイパーパラメータ合成部による処理2100を示すフローチャートである。この処理2100は、独立して生成された上位処理用ハイパーパラメータ及び上位モデル用ハイパーパラメータを合成する処理を示す。
FIG. 21 is a flowchart showing the
まず、ステップ1901では、合成部は、合成を行うためには必要な数の処理用ハイパーパラメータ及びモデル用ハイパーパラメータがあるか否かを判定する。原則として、合成を行うためには、少なくとも1つの上位処理用ハイパーパラメータと、少なくとも1つの上位モデル用ハイパーパラメータが必要である。
そのため、合成部は、上述した上位処理用ハイパーパラメータデータベース及び上位モデル用ハイパーパラメータデータベースを参照し、十分な数のハイパーパラメータが格納されているかを確認する。十分な数のハイパーパラメータがある場合には、本処理はステップ1902に進み、十分な数のハイパーパラメータがある場合には、本処理は終了する。
First, in
Therefore, the synthesis unit refers to the hyperparameter database for upper processing and the hyperparameter database for upper models described above, and confirms whether a sufficient number of hyperparameters are stored. If there are a sufficient number of hyperparameters, this process proceeds to step 1902, and if there are a sufficient number of hyperparameters, this process ends.
次に、ステップ1902では、合成部は、上位処理用ハイパーパラメータを上位処理用ハイパーパラメータデータベースから抽出し、上位モデル用ハイパーパラメータを上位モデル用ハイパーパラメータデータベースから抽出し、当該抽出した上位処理用ハイパーパラメータ及び上位モデル用ハイパーパラメータを合成する。
一例として、上位処理用ハイパーパラメータデータベースに{“missing_value”:“median”}の上位処理用ハイパーパラメータがあり、上位モデル用ハイパーパラメータデータベースには、{“number_of_layers”:2}の上位モデル用ハイパーパラメータがある場合には、合成部は、これらのハイパーパラメータを合成し、{“missing_value”:“median”,“number_of_layers”:2}のハイパーパラメータを、第2のハイパーパラメータのセットとして生成する。
なお、説明の便宜上、上位処理用ハイパーパラメータが1つ、上位モデル用ハイパーパラメータが1つある場合について説明したが、本発明はそれに限定されず、それぞれの種類のハイパーパラメータが複数存在する場合にも適用可能であるというまでもない。この場合には、合成部は、上位処理用ハイパーパラメータ及び上位モデル用ハイパーパラメータの全ての順列を生成してもよい。
Next, in
As an example, the hyperparameter database for higher processing has {"missing_value": "media"} hyperparameters for higher processing, and the hyperparameter database for upper model has {"number_of_layers": 2} hyperparameters for higher model. If there is, the synthesizer synthesizes these hyperparameters and generates the hyperparameters of {"missing_value": "media", "number_of_layers": 2} as a second set of hyperparameters.
For convenience of explanation, the case where there is one hyperparameter for higher processing and one hyperparameter for higher model has been described, but the present invention is not limited to this, and when there are a plurality of hyperparameters of each type. Needless to say that is also applicable. In this case, the synthesis unit may generate all the permutations of the hyperparameters for higher processing and the hyperparameters for higher models.
次に、ステップ1903では、合成部は、生成した第2のハイパーパラメータのセットを処理部及びモデル作成部に送信する。その後、上述したように、処理部は、第2のハイパーパラメータのセットに含まれる処理用ハイパーパラメータを用いて対象データを処理し、モデル作成部は、第2のハイパーパラメータのセットに含まれるモデル用ハイパーパラメータを用いて機械学習モデルを生成する。
Next, in
以上説明した本発明に係る実施形態の機能は、プログラム製品として実現されてもよい。ここでのプログラム製品とは、コンピュータプログラムが記録されたコ ンピュータが読み取り可能な媒体である。プログラムコードを記録するための記憶媒体としては、例えばフレキシブルディスク、CD-ROM、DVD-ROM、ハードディスク、光ディスク、光磁気ディスク、CD-R、磁気テープ、不揮発性メモリカード、ROM等がある。 The functions of the embodiments according to the present invention described above may be realized as a program product. The program product here is a medium that can be read by a computer on which a computer program is recorded. Examples of the storage medium for recording the program code include flexible disks, CD-ROMs, DVD-ROMs, hard disks, optical disks, magneto-optical disks, CD-Rs, magnetic tapes, non-volatile memory cards, ROMs, and the like.
以上、本発明の実施の形態について説明したが、本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention.
100 ハイパーパラメータ管理サーバ
110 プロセッサ
120 メモリ
121 処理部
122 モデル作成部
123 変更部
124 強化学習部
125 評価部
130 記憶部
131 候補ハイパーパラメータデータベース
132 上位ハイパーパラメータデータベース
135A,135B クライアント端末
225 通信ネットワーク
100
Claims (8)
処理用ハイパーパラメータとモデル用ハイパーパラメータとを含む第1のハイパーパラメータのセットを、候補ハイパーパラメータデータベースに格納される候補ハイパーパラメータ空間に基づいて生成する強化学習部と、
前記処理用ハイパーパラメータに基づいて、対象データを処理し、訓練用情報及びテスト用情報を生成する処理部と、
前記訓練用情報を用いて、前記モデル用ハイパーパラメータに基づいて機械学習モデルを作成するモデル作成部と、
前記テスト用情報を用いて前記機械学習モデルを検証し、前記第1のハイパーパラメータのセットについての評価点数を計算する評価部と、
所定の評価基準を達成するハイパーパラメータを格納する上位ハイパーパラメータデータベースと、
前記上位ハイパーパラメータデータベースに格納されている上位ハイパーパラメータに基づいて、第2のハイパーパラメータのセットを生成する変更部と、
を特徴とするハイパーパラメータ管理装置。 It is a hyperparameter management device
A reinforcement learning unit that generates a first set of hyperparameters including processing hyperparameters and model hyperparameters based on the candidate hyperparameter space stored in the candidate hyperparameter database.
A processing unit that processes target data based on the processing hyperparameters and generates training information and test information.
A model creation unit that creates a machine learning model based on the hyperparameters for the model using the training information.
An evaluation unit that verifies the machine learning model using the test information and calculates an evaluation score for the first hyperparameter set.
A high-level hyperparameter database that stores hyperparameters that meet certain evaluation criteria,
A change part that generates a second hyperparameter set based on the upper hyperparameters stored in the upper hyperparameter database, and
A hyperparameter management device characterized by.
前記上位ハイパーパラメータデータベースに格納されているハイパーパラメータのうち、
第1のハイパーパラメータの値と、第2のハイパーパラメータの値とを交換することで前記第2のハイパーパラメータのセットを生成する、
ことを特徴とする請求項1に記載のハイパーパラメータ管理装置。 The changed part
Among the hyperparameters stored in the upper hyperparameter database
By exchanging the value of the first hyperparameter with the value of the second hyperparameter, the set of the second hyperparameter is generated.
The hyperparameter management device according to claim 1.
前記上位ハイパーパラメータデータベースに格納されているハイパーパラメータのうち、
処理用ハイパーパラメータと、モデル用ハイパーパラメータとを合成することで前記第2のハイパーパラメータのセットを生成する、
ことを特徴とする請求項1に記載のハイパーパラメータ管理装置。 The changed part
Among the hyperparameters stored in the upper hyperparameter database
The second hyperparameter set is generated by synthesizing the processing hyperparameters and the model hyperparameters.
The hyperparameter management device according to claim 1.
前記第2のハイパーパラメータのセットに基づいて第2の機械学習モデルを作成し、
前記第2の機械学習モデルは、対象データに基づいた予測結果を生成する、
ことを特徴とする請求項1に記載のハイパーパラメータ管理装置。 The model creation unit
Create a second machine learning model based on the second set of hyperparameters.
The second machine learning model generates a prediction result based on the target data.
The hyperparameter management device according to claim 1.
前記予測結果を所望の予測結果分布に比較し、
前記予測結果が、前記所望の予測結果分布に対する類似度基準を達成する場合には、前記第2のハイパーパラメータのセットの評価点数を増加させ、
前記予測結果が、前記所望の予測結果分布に対する類似度基準を達成しない場合には、前記第2のハイパーパラメータのセットの評価点数を減少させる予測調整部、
を更に特徴とする請求項4に記載のハイパーパラメータ管理装置。 The hyperparameter management device
The prediction result is compared with the desired prediction result distribution, and
When the prediction result achieves the similarity criterion with respect to the desired prediction result distribution, the evaluation score of the second hyperparameter set is increased.
A prediction adjustment unit that reduces the evaluation score of the second hyperparameter set when the prediction result does not achieve the similarity criterion with respect to the desired prediction result distribution.
The hyperparameter management device according to claim 4, further comprising.
前記第2のハイパーパラメータのセットに基づいて、ポリシー勾配法を用いて訓練される、
ことを特徴とする請求項1に記載のハイパーパラメータ管理装置。 The reinforcement learning department
Based on the second set of hyperparameters, trained using the policy gradient method,
The hyperparameter management device according to claim 1.
処理用ハイパーパラメータとモデル用ハイパーパラメータとを含む第1のハイパーパラメータのセットを、候補ハイパーパラメータ空間に基づいて生成する工程と、
前記処理用ハイパーパラメータに基づいて、対象データを処理し、訓練用情報及びテスト用情報を生成する工程と、
前記訓練用情報を用いて、前記モデル用ハイパーパラメータに基づいて機械学習モデルを作成する工程と、
前記テスト用情報を用いて前記機械学習モデルを検証し、前記第1のハイパーパラメータのセットについての評価点数を計算する工程と、
所定の評価基準を達成上位ハイパーパラメータデータベースに基づいて、第2のハイパーパラメータのセットを生成する工程と、
を含むハイパーパラメータ管理方法。 It is a hyperparameter management method
A process of generating a first set of hyperparameters including processing hyperparameters and model hyperparameters based on the candidate hyperparameter space, and
A process of processing target data based on the processing hyperparameters and generating training information and test information, and
The process of creating a machine learning model based on the hyperparameters for the model using the training information, and
The process of verifying the machine learning model using the test information and calculating the evaluation score for the first hyperparameter set, and
Achieve certain evaluation criteria The process of generating a second set of hyperparameters based on the upper hyperparameter database, and
Hyperparameter management methods including.
前記ハイパーパラメータ管理プログラム製品は、
処理用ハイパーパラメータとモデル用ハイパーパラメータとを含む第1のハイパーパラメータのセットを、候補ハイパーパラメータ空間に基づいて生成する工程と、
前記処理用ハイパーパラメータに基づいて、対象データを処理し、訓練用情報及びテスト用情報を生成する工程と、
前記訓練用情報を用いて、前記モデル用ハイパーパラメータに基づいて機械学習モデルを作成する工程と、
前記テスト用情報を用いて前記機械学習モデルを検証し、前記第1のハイパーパラメータのセットについての評価点数を計算する工程と、
所定の評価基準を達成上位ハイパーパラメータデータベースに基づいて、第2のハイパーパラメータのセットを生成する工程と、
を実行させるためのコンピュータプログラムを記録したプログラム製品。 It is a hyperparameter management program product
The hyperparameter management program product
A process of generating a first set of hyperparameters including processing hyperparameters and model hyperparameters based on the candidate hyperparameter space, and
A process of processing target data based on the processing hyperparameters and generating training information and test information, and
The process of creating a machine learning model based on the hyperparameters for the model using the training information, and
The process of verifying the machine learning model using the test information and calculating the evaluation score for the first hyperparameter set, and
Achieve certain evaluation criteria The process of generating a second set of hyperparameters based on the upper hyperparameter database, and
A program product that records computer programs for executing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019110263A JP7215966B2 (en) | 2019-06-13 | 2019-06-13 | Hyperparameter management device, hyperparameter management method and hyperparameter management program product |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019110263A JP7215966B2 (en) | 2019-06-13 | 2019-06-13 | Hyperparameter management device, hyperparameter management method and hyperparameter management program product |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020201870A true JP2020201870A (en) | 2020-12-17 |
JP7215966B2 JP7215966B2 (en) | 2023-01-31 |
Family
ID=73742673
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019110263A Active JP7215966B2 (en) | 2019-06-13 | 2019-06-13 | Hyperparameter management device, hyperparameter management method and hyperparameter management program product |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7215966B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210390352A1 (en) * | 2020-06-10 | 2021-12-16 | Toyota Research Institute, Inc. | Confidence-estimated domain adaptation |
WO2023214582A1 (en) * | 2022-05-02 | 2023-11-09 | 三菱重工業株式会社 | Learning device, learning method, and learning program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05282269A (en) * | 1992-04-01 | 1993-10-29 | Hitachi Ltd | Method and device for learning/recollection |
WO2019084560A1 (en) * | 2017-10-27 | 2019-05-02 | Google Llc | Neural architecture search |
-
2019
- 2019-06-13 JP JP2019110263A patent/JP7215966B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05282269A (en) * | 1992-04-01 | 1993-10-29 | Hitachi Ltd | Method and device for learning/recollection |
WO2019084560A1 (en) * | 2017-10-27 | 2019-05-02 | Google Llc | Neural architecture search |
Non-Patent Citations (1)
Title |
---|
佐藤怜、外2名: "貢献度分配を導入した方策勾配によるNeural Architecture Searchの高速化", 2019年度人工知能学会全国大会(第33回), JPN6022045064, 1 June 2019 (2019-06-01), ISSN: 0004903930 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210390352A1 (en) * | 2020-06-10 | 2021-12-16 | Toyota Research Institute, Inc. | Confidence-estimated domain adaptation |
US11741698B2 (en) * | 2020-06-10 | 2023-08-29 | Toyota Research Institute, Inc. | Confidence-estimated domain adaptation for training machine learning models |
WO2023214582A1 (en) * | 2022-05-02 | 2023-11-09 | 三菱重工業株式会社 | Learning device, learning method, and learning program |
Also Published As
Publication number | Publication date |
---|---|
JP7215966B2 (en) | 2023-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | One-class graph neural networks for anomaly detection in attributed networks | |
Patel et al. | A hybrid CNN-LSTM model for predicting server load in cloud computing | |
Miao et al. | Lasagne: A multi-layer graph convolutional network framework via node-aware deep architecture | |
Kazemi et al. | IGANI: Iterative generative adversarial networks for imputation with application to traffic data | |
Cortez et al. | Multi-step time series prediction intervals using neuroevolution | |
Knudde et al. | Active learning for feasible region discovery | |
JP7215966B2 (en) | Hyperparameter management device, hyperparameter management method and hyperparameter management program product | |
US20210241115A1 (en) | Techniques to perform global attribution mappings to provide insights in neural networks | |
Shehab et al. | Toward feature selection in big data preprocessing based on hybrid cloud-based model | |
US11468352B2 (en) | Method and system for predictive modeling of geographic income distribution | |
Pishgoo et al. | A dynamic feature selection and intelligent model serving for hybrid batch-stream processing | |
Fan et al. | A repetitive feature selection method based on improved ReliefF for missing data | |
Ma et al. | One-shot relational learning for extrapolation reasoning on temporal knowledge graphs | |
Montevechi et al. | Advancing credit risk modelling with Machine Learning: A comprehensive review of the state-of-the-art | |
KR102499435B1 (en) | Method for generating credit evaluation model based on artificial intelligence and apparatus performing the method | |
US20240249337A1 (en) | Systems and methods for multi-task and multi-scene unified ranking | |
US20230229735A1 (en) | Training and implementing machine-learning models utilizing model container workflows | |
Sagaama et al. | Automatic parameter tuning for big data pipelines with deep reinforcement learning | |
Hoseininejad et al. | A fast algorithm for local feature selection in data classification | |
US20230052255A1 (en) | System and method for optimizing a machine learning model | |
Pölsterl et al. | Scalable, axiomatic explanations of deep alzheimer’s diagnosis from heterogeneous data | |
Crankshaw | The design and implementation of low-latency prediction serving systems | |
US20210256374A1 (en) | Method and apparatus with neural network and training | |
Skënduli et al. | Implementing scalable machine learning algorithms for mining big data: a state-of-the-art survey | |
Dass et al. | Amelioration of Big Data analytics by employing Big Data tools and techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230117 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230119 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7215966 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |