JP2020201870A - Hyper-parameter management device, hyper-parameter management method and hyper-parameter management program product - Google Patents

Hyper-parameter management device, hyper-parameter management method and hyper-parameter management program product Download PDF

Info

Publication number
JP2020201870A
JP2020201870A JP2019110263A JP2019110263A JP2020201870A JP 2020201870 A JP2020201870 A JP 2020201870A JP 2019110263 A JP2019110263 A JP 2019110263A JP 2019110263 A JP2019110263 A JP 2019110263A JP 2020201870 A JP2020201870 A JP 2020201870A
Authority
JP
Japan
Prior art keywords
hyperparameter
hyperparameters
model
processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019110263A
Other languages
Japanese (ja)
Other versions
JP7215966B2 (en
Inventor
グエン フォン
Huong Nguyen
グエン フォン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019110263A priority Critical patent/JP7215966B2/en
Publication of JP2020201870A publication Critical patent/JP2020201870A/en
Application granted granted Critical
Publication of JP7215966B2 publication Critical patent/JP7215966B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To solve the problem that there are more than tens of thousands of combinations of hyper-parameters, and when machine learning is applied to a problem to be solved, it is required that many combinations having higher precision are put in operation and a combination with the highest precision is specified.SOLUTION: A hyper-parameter management device according to the present invention includes: a reinforced learning part which generates a set of first hyper-parameters including a hyper-parameter for processing and a hyper-parameter for model; a processing part which processes object data based upon the hyper-parameter for processing to generate information for training and information for test; a model generation part which uses the information for training to generate a machine learning model based upon the hyper-parameter for model; an evaluation part which uses the information for test to verify a machine learning model to calculate evaluation points as to the first hyper-parameters; and a modification part which generates a set of second hyper-parameters based upon high-order hyper-parameters stored in the high-order hyper-parameter database.SELECTED DRAWING: Figure 2

Description

本発明は、ハイパーパラメータ管理装置、ハイパーパラメータ管理方法及びハイパーパラメータ管理プログラム製品に関する。 The present invention relates to hyperparameter management devices, hyperparameter management methods and hyperparameter management program products.

機械学習技術は、ヘルスケアや金融、産業などの様々な分野で蓄積されたデータの解析に対して、新しい社会的価値を創出する技術として注目されている。機械学習には、support vector machineやdeep learningといったアルゴリズムの種類、及び各アルゴリズムにおいてモデルを決定するために必要なパラメータがある。事前に設定され、モデルの挙動を制御するこれらのパラメータは「ハイパーパラメータ」と呼ばれる。 Machine learning technology is attracting attention as a technology that creates new social value for the analysis of data accumulated in various fields such as healthcare, finance, and industry. Machine learning has the types of algorithms such as support vector machine and deep learning, and the parameters required to determine the model in each algorithm. These parameters that are preset and control the behavior of the model are called "hyperparameters".

一般的に、ハイパーパラメータの組み合わせは、数万通り以上存在する。このため、解析したい問題に機械学習を適用する際には、ハイパーパラメータの組み合わせをいくつも試行し、最も精度が高くなる組み合わせを特定する必要がある。加えて、ハイパーパラメータの組み合わせは解析する問題ごとに最適な組み合わせが異なるため、問題やデータが変わる度にに行う必要があり、この点が機械学習技術を活用する上での課題となっている。このように、ハイパーパラメータの組み合わせを網羅的に試行して最適解を得るプロセスは「グリッドサーチ」と呼ばれる。 In general, there are tens of thousands or more combinations of hyperparameters. Therefore, when applying machine learning to the problem to be analyzed, it is necessary to try a number of hyperparameter combinations and identify the combination with the highest accuracy. In addition, since the optimum combination of hyperparameters differs depending on the problem to be analyzed, it is necessary to perform it every time the problem or data changes, which is a problem in utilizing machine learning technology. .. In this way, the process of comprehensively trying the combination of hyperparameters to obtain the optimum solution is called "grid search".

最適なハイパーパラメータの特定をより容易に行うための手段がいくつか検討されている。例えば、WO2018223123A1(特許文献1)には、「クラウドサービスを使用して測定可能な状態値および調整可能なパラメータを有する対象システムを最適化するための方法及び装置。クラウドチューニングサービスは、クラウドチューニングサービスプロバイダによって設定及び運用される。クラウドチューニングサービスは、1つまたは複数のクラウドプロバイダから取得したリソースを用いた、1つ以上の機械学習又は人工知能方法を含む。対象システムの状態値及びパラメータは、対象システムの所有者によって識別され、定期的に分析するためにクラウドチューニングサービスに送信される。パラメータ調整命令はクラウドサービスによって生成され、定期的に対象システムに送り返される。」と記載されている。 Several means have been studied to make it easier to identify the optimal hyperparameters. For example, WO2018223123A1 (Patent Document 1) states that "a method and device for optimizing a target system having measurable state values and adjustable parameters using a cloud service. The cloud tuning service is a cloud tuning service. Set and operated by a provider. Cloud tuning services include one or more machine learning or artificial intelligence methods using resources obtained from one or more cloud providers. State values and parameters of the target system are: It is identified by the owner of the target system and sent to the cloud tuning service for periodic analysis. Parameter adjustment instructions are generated by the cloud service and sent back to the target system on a regular basis. "

WO2018223123A1WO20182223123A1

上記の特許文献1には、クラウドサービスのコンピューティング資源を利用して、ハイパーパラメータをグリッドサーチによって特定する手段が記載されている。しかしながら、これは、ハイパーパラメータを特定する処理負荷をクラウドに転嫁していることに過ぎないため、コンピューティング資源の節約にならない上、クラウドサービスを運用するための膨大な実施コスト及び工数を要する。 The above-mentioned Patent Document 1 describes a means for identifying hyperparameters by grid search by utilizing the computing resources of a cloud service. However, since this merely shifts the processing load for specifying hyperparameters to the cloud, it does not save computing resources and requires enormous implementation costs and man-hours for operating the cloud service.

そこで、本発明は、ハイパーパラメータを強化学習の手法を用いて特定することで、低コストでイベント予測等の分野に適用可能な機械学習モデルを提供することを目的とする。 Therefore, an object of the present invention is to provide a machine learning model that can be applied to fields such as event prediction at low cost by specifying hyperparameters using a method of reinforcement learning.

上記の課題を解決するために、代表的な本発明のハイパーパラメータ管理装置の一つは、処理用ハイパーパラメータとモデル用ハイパーパラメータとを含む第1のハイパーパラメータのセットを、候補ハイパーパラメータデータベースに格納される候補ハイパーパラメータ空間に基づいて生成する強化学習部と、前記処理用ハイパーパラメータに基づいて、対象データを処理し、訓練用情報及びテスト用情報を生成する処理部と、前記訓練用情報を用いて、前記モデル用ハイパーパラメータに基づいて機械学習モデルを作成するモデル作成部と、前記テスト用情報を用いて前記機械学習モデルを検証し、前記第1のハイパーパラメータのセットについての評価点数を計算する評価部と、所定の評価基準を達成するハイパーパラメータを格納する上位ハイパーパラメータデータベースと、前記上位ハイパーパラメータデータベースに格納されているハイパーパラメータに基づいて、第2のハイパーパラメータのセットを生成する変更部とを含む。 In order to solve the above problems, one of the representative hyperparameter management devices of the present invention puts a first set of hyperparameters including a processing hyperparameter and a model hyperparameter into a candidate hyperparameter database. An enhanced learning unit that generates based on the stored candidate hyperparameter space, a processing unit that processes target data based on the processing hyperparameters and generates training information and test information, and the training information. A model creation unit that creates a machine learning model based on the hyperparameters for the model, and the machine learning model is verified using the test information, and the evaluation score for the first hyperparameter set is obtained. Generates a second set of hyperparameters based on the evaluation unit that calculates the data, the hyperparameter database that stores the hyperparameters that achieve the predetermined evaluation criteria, and the hyperparameters that are stored in the hyperparameter database. Includes changes to be made.

本発明によれば、ハイパーパラメータを強化学習の手法を用いて特定することで、低コストでイベント予測等の分野に適用可能な機械学習モデルを提供することができる。
上記した以外の課題、構成及び効果は、以下の発明を実施するための形態における説明により明らかにされる。
According to the present invention, by specifying hyperparameters using a method of reinforcement learning, it is possible to provide a machine learning model applicable to fields such as event prediction at low cost.
Issues, configurations and effects other than those described above will be clarified by the following description of the embodiments for carrying out the invention.

本発明の実施例を実施するためのコンピュータシステムのブロック図である。It is a block diagram of the computer system for carrying out the Example of this invention. 本発明の実施例1に係るハイパーパラメータ管理システムの構成を示す図である。It is a figure which shows the structure of the hyperparameter management system which concerns on Example 1 of this invention. 本発明の実施例1に係るハイパーパラメータ管理システムの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the hyperparameter management system which concerns on Example 1 of this invention. 本発明の実施例1に係る候補ハイパーパラメータデータベースの一例を示す図である。It is a figure which shows an example of the candidate hyperparameter database which concerns on Example 1 of this invention. 本発明の実施例1に係る上位ハイパーパラメータデータベースの一例を示す図である。It is a figure which shows an example of the upper hyperparameter database which concerns on Example 1 of this invention. 本発明の実施例1に係る処理部による処理を示すフローチャートである。It is a flowchart which shows the processing by the processing part which concerns on Example 1 of this invention. 本発明の実施例1に係るモデル作成部による処理を示すフローチャートである。It is a flowchart which shows the process by the model making part which concerns on Example 1 of this invention. 本発明の実施例1に係る評価部による処理を示す図である。It is a figure which shows the process by the evaluation part which concerns on Example 1 of this invention. 本発明の実施例1に係る変更部による処理を示すフローチャートである。It is a flowchart which shows the process by the change part which concerns on Example 1 of this invention. 本発明の実施例1に係る強化学習部による処理を示すフローチャートである。It is a flowchart which shows the process by the reinforcement learning part which concerns on Example 1 of this invention. 本発明の実施例2に係るハイパーパラメータ管理システムの構成を示す図である。It is a figure which shows the structure of the hyperparameter management system which concerns on Example 2 of this invention. 本発明の実施例2に係るハイパーパラメータ管理システムの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the hyperparameter management system which concerns on Example 2 of this invention. 本発明の実施例2に係る予測調整部による処理を示すフローチャートである。It is a flowchart which shows the process by the prediction adjustment part which concerns on Example 2 of this invention. 本発明の実施例3に係るハイパーパラメータ管理システムの構成を示す図である。It is a figure which shows the structure of the hyperparameter management system which concerns on Example 3 of this invention. 本発明の実施例3に係るハイパーパラメータ管理システムの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the hyperparameter management system which concerns on Example 3 of this invention. 本発明の実施例4に係るハイパーパラメータ管理システムの構成を示す図である。It is a figure which shows the structure of the hyperparameter management system which concerns on Example 4 of this invention. 本発明の実施例4に係るハイパーパラメータ管理システムの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the hyperparameter management system which concerns on Example 4 of this invention. 本発明の実施例4に係るハイパーパラメータ更新部による処理を示すフローチャートである。It is a flowchart which shows the process by the hyperparameter update part which concerns on Example 4 of this invention. 本発明の実施例5に係るハイパーパラメータ管理システムの構成を示す図である。It is a figure which shows the structure of the hyperparameter management system which concerns on Example 5 of this invention. 本発明の実施例5に係るハイパーパラメータ管理システムの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the hyperparameter management system which concerns on Example 5 of this invention. 本発明の実施例5に係るハイパーパラメータ合成部による処理を示すフローチャートである。It is a flowchart which shows the process by the hyperparameter synthesis part which concerns on Example 5 of this invention.

以下、図面を参照して、従来例及び本発明の実施形態について説明する。なお、この実施形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
(概要)
Hereinafter, conventional examples and embodiments of the present invention will be described with reference to the drawings. The present invention is not limited to this embodiment. Further, in the description of the drawings, the same parts are indicated by the same reference numerals.
(Overview)

上述したように、本発明は、ハイパーパラメータの最適化に関する。ここでのハイパーパラメータとは、機械学習アルゴリズムの挙動を制御するパラメータである。ハイパーパラメータは、例えば、学習率やバッチサイズ、学習イテレーション数等、機械学習アルゴリズムにおける様々な特性を規定するものを含む。 As mentioned above, the present invention relates to hyperparameter optimization. The hyperparameters here are parameters that control the behavior of the machine learning algorithm. Hyperparameters include those that define various characteristics of a machine learning algorithm, such as learning rate, batch size, number of learning iterations, and so on.

解析したい問題に機械学習を適用する際には、その問題を最も効率的に解決できる機械学習モデルを構築するためには、そのモデルの最適なハイパーパラメータを特定することが望ましい。ハイパーパラメータを特定するために、従来から使用されていた、グリッドサーチ等のような手段では、解析したい問題に機械学習を適用する際には、使用可能なハイパーパラメータを定義するハイパーパラメータ空間におけるハイパーパラメータの組み合わせをいくつも試行し、対象の機械学習モデルの精度が最も高くなる組み合わせを特定する必要があった。 When applying machine learning to a problem to be analyzed, it is desirable to identify the optimal hyperparameters of the model in order to build a machine learning model that can solve the problem most efficiently. By means such as grid search, which have been conventionally used to identify hyperparameters, when applying machine learning to the problem to be analyzed, hyperparameters in the hyperparameter space that define the hyperparameters that can be used. It was necessary to try a number of parameter combinations and identify the combination with the highest accuracy of the target machine learning model.

また、機械学習モデルの設計変更などによりハイパーパラメータ空間が広がると、ハイパーパラメータの組み合わせの数が指数関数的に増加する。特に、ハイパーパラメータ空間が広く、コンピューティング資源が限られている場合には、グリッドサーチのような従来のハイパーパラメータ特定手法では、最適なハイパーパラメータを実用的な時間以内に特定することが難しい。そのため、最適なハイパーパラメータをより効率的に特定する手段が求められている。 Moreover, when the hyperparameter space expands due to a design change of a machine learning model or the like, the number of hyperparameter combinations increases exponentially. In particular, when the hyperparameter space is wide and computing resources are limited, it is difficult to identify the optimum hyperparameters within a practical time by a conventional hyperparameter identification method such as grid search. Therefore, there is a need for a means for more efficiently identifying the optimum hyperparameters.

従って、本発明は、ハイパーパラメータを強化学習の手法を用いて特定することで、低コストでイベント予測等の分野に適用可能な機械学習モデルを提供する。
なお、強化学習とは、ある環境におけるエージェントが、現在の状態を観測し、取るべき行動を決定する問題を扱う機械学習の一種である。そして、エージェントは行動を選択することで環境から報酬を得ることとなっている。このため、強化学習においては、一連の行動を通じて報酬が最も多く得られるような方策(policy)を学習することとなる。
強化学習の代表的な手法として、例えばTD(Temporal Difference)学習やQ学習等が知られている。後述するように、強化学習モデルと、再帰型ニューラルネットワーク(Recurrent Neural Network)とを組み合わせることで、最適なハイパーパラメータをより効率的に特定するシステムが可能となる。
Therefore, the present invention provides a machine learning model that can be applied to fields such as event prediction at low cost by specifying hyperparameters using a reinforcement learning method.
Reinforcement learning is a type of machine learning that deals with the problem that an agent in a certain environment observes the current state and decides the action to be taken. The agent is then to be rewarded by the environment by choosing an action. Therefore, in reinforcement learning, it is necessary to learn a policy that gives the most reward through a series of actions.
As typical methods of reinforcement learning, for example, TD (Temporal Difference) learning and Q-learning are known. As will be described later, by combining the reinforcement learning model and the recurrent neural network, a system for more efficiently specifying the optimum hyperparameters becomes possible.

本発明は、例えばローンのデフォルト、不正の金融取引、病気の進行等のイベントを予測するための機械学習モデルにおけるハイパーパラメータを特定することに関する。ここでのハイパーパラメータは、例えば、対象のデータをどのように処理すればよいかを規定する処理用ハイパーパラメータと、機械学習モデルの設計上の条件を規定するモデル用ハイパーパラメータとを含む。 The present invention relates to identifying hyperparameters in machine learning models for predicting events such as loan defaults, fraudulent financial transactions, disease progression and the like. The hyperparameters here include, for example, a processing hyperparameter that defines how the target data should be processed, and a model hyperparameter that defines the design conditions of the machine learning model.

まず、本発明に係る強化学習部は、候補ハイパーパラメータデータベースに格納される候補ハイパーパラメータ空間に基づいて、処理用ハイパーパラメータとモデル用ハイパーパラメータとを含む第1のハイパーパラメータのセットを生成する。次に、本発明に係る処理部は、生成された処理用ハイパーパラメータに基づいて、対象データを処理し、訓練用情報及びテスト用情報を生成する。次に、本発明に係るモデル作成部は、生成されたモデル用ハイパーパラメータに基づいて、訓練用情報を用いて機械学習モデルを作成する。次に、本発明に係る評価部は、テスト用情報を用いて機械学習モデルを検証し、第1のハイパーパラメータについての評価点数を計算する。次に、所定の評価基準を達成するハイパーパラメータが上位ハイパーパラメータデータベースに格納される。次に、本発明に係る変更部は、上位ハイパーパラメータデータベースに格納されているハイパーパラメータに基づいて、第2のハイパーパラメータのセットを生成する。 First, the reinforcement learning unit according to the present invention generates a first set of hyperparameters including a processing hyperparameter and a model hyperparameter based on the candidate hyperparameter space stored in the candidate hyperparameter database. Next, the processing unit according to the present invention processes the target data based on the generated processing hyperparameters, and generates training information and test information. Next, the model creation unit according to the present invention creates a machine learning model using the training information based on the generated model hyperparameters. Next, the evaluation unit according to the present invention verifies the machine learning model using the test information and calculates the evaluation score for the first hyperparameter. Next, the hyperparameters that achieve the predetermined evaluation criteria are stored in the upper hyperparameter database. Next, the modification part according to the present invention generates a second set of hyperparameters based on the hyperparameters stored in the upper hyperparameter database.

これにより、最適なハイパーパラメータを効率よく特定することができ、イベント予測に適用可能な機械学習モデルを提供することが可能となる。
(ハードウエア構成)
As a result, the optimum hyperparameters can be efficiently identified, and a machine learning model applicable to event prediction can be provided.
(Hardware configuration)

まず、図1を参照して、本開示の実施形態を実施するためのコンピュータシステム300について説明する。本明細書で開示される様々な実施形態の機構及び装置は、任意の適切なコンピューティングシステムに適用されてもよい。コンピュータシステム300の主要コンポーネントは、1つ以上のプロセッサ302、メモリ304、端末インターフェース312、ストレージインタフェース314、I/O(入出力)デバイスインタフェース316、及びネットワークインターフェース318を含む。これらのコンポーネントは、メモリバス306、I/Oバス308、バスインターフェースユニット309、及びI/Oバスインターフェースユニット310を介して、相互的に接続されてもよい。 First, a computer system 300 for implementing the embodiments of the present disclosure will be described with reference to FIG. The mechanisms and devices of the various embodiments disclosed herein may be applied to any suitable computing system. The main components of the computer system 300 include one or more processors 302, memory 304, terminal interface 312, storage interface 314, I / O (input / output) device interface 316, and network interface 318. These components may be interconnected via memory bus 306, I / O bus 308, bus interface unit 309, and I / O bus interface unit 310.

コンピュータシステム300は、プロセッサ302と総称される1つ又は複数の汎用プログラマブル中央処理装置(CPU)302A及び302Bを含んでもよい。ある実施形態では、コンピュータシステム300は複数のプロセッサを備えてもよく、また別の実施形態では、コンピュータシステム300は単一のCPUシステムであってもよい。各プロセッサ302は、メモリ304に格納された命令を実行し、オンボードキャッシュを含んでもよい。 The computer system 300 may include one or more general purpose programmable central processing units (CPUs) 302A and 302B collectively referred to as processors 302. In one embodiment, the computer system 300 may include a plurality of processors, and in another embodiment, the computer system 300 may be a single CPU system. Each processor 302 may execute an instruction stored in memory 304 and include an onboard cache.

ある実施形態では、メモリ304は、データ及びプログラムを記憶するためのランダムアクセス半導体メモリ、記憶装置、又は記憶媒体(揮発性又は不揮発性のいずれか)を含んでもよい。メモリ304は、本明細書で説明する機能を実施するプログラム、モジュール、及びデータ構造のすべて又は一部を格納してもよい。例えば、メモリ304は、ハイパーパラメータ管理アプリケーション350を格納していてもよい。ある実施形態では、ハイパーパラメータ管理アプリケーション350は、後述する機能をプロセッサ302上で実行する命令又は記述を含んでもよい。 In certain embodiments, memory 304 may include a random access semiconductor memory, storage device, or storage medium (either volatile or non-volatile) for storing data and programs. The memory 304 may store all or part of the programs, modules, and data structures that perform the functions described herein. For example, the memory 304 may store the hyperparameter management application 350. In certain embodiments, the hyperparameter management application 350 may include instructions or descriptions that perform functions described below on the processor 302.

ある実施形態では、ハイパーパラメータ管理アプリケーション350は、プロセッサベースのシステムの代わりに、またはプロセッサベースのシステムに加えて、半導体デバイス、チップ、論理ゲート、回路、回路カード、および/または他の物理ハードウェアデバイスを介してハードウエアで実施されてもよい。ある実施形態では、ハイパーパラメータ管理アプリケーション350は、命令又は記述以外のデータを含んでもよい。ある実施形態では、カメラ、センサ、または他のデータ入力デバイス(図示せず)が、バスインターフェースユニット309、プロセッサ302、またはコンピュータシステム300の他のハードウエアと直接通信するように提供されてもよい。 In certain embodiments, the hyperparameter management application 350 replaces or in addition to a processor-based system, semiconductor devices, chips, logic gates, circuits, circuit cards, and / or other physical hardware. It may be implemented in hardware via a device. In certain embodiments, the hyperparameter management application 350 may include data other than instructions or descriptions. In certain embodiments, a camera, sensor, or other data input device (not shown) may be provided to communicate directly with the bus interface unit 309, processor 302, or other hardware of the computer system 300. ..

コンピュータシステム300は、プロセッサ302、メモリ304、表示システム324、及びI/Oバスインターフェースユニット310間の通信を行うバスインターフェースユニット309を含んでもよい。I/Oバスインターフェースユニット310は、様々なI/Oユニットとの間でデータを転送するためのI/Oバス308と連結していてもよい。I/Oバスインターフェースユニット310は、I/Oバス308を介して、I/Oプロセッサ(IOP)又はI/Oアダプタ(IOA)としても知られる複数のI/Oインタフェースユニット312,314,316、及び318と通信してもよい。 The computer system 300 may include a processor 302, a memory 304, a display system 324, and a bus interface unit 309 that communicates between the I / O bus interface unit 310. The I / O bus interface unit 310 may be connected to an I / O bus 308 for transferring data to and from various I / O units. The I / O bus interface unit 310, via the I / O bus 308, is a plurality of I / O interface units 312, 314, 316, also known as I / O processors (IOPs) or I / O adapters (IOAs). And 318 may be communicated.

表示システム324は、表示コントローラ、表示メモリ、又はその両方を含んでもよい。表示コントローラは、ビデオ、オーディオ、又はその両方のデータを表示装置326に提供することができる。また、コンピュータシステム300は、データを収集し、プロセッサ302に当該データを提供するように構成された1つまたは複数のセンサ等のデバイスを含んでもよい。 The display system 324 may include a display controller, display memory, or both. The display controller can provide video, audio, or both data to the display device 326. The computer system 300 may also include devices such as one or more sensors configured to collect the data and provide the data to the processor 302.

例えば、コンピュータシステム300は、心拍数データやストレスレベルデータ等を収集するバイオメトリックセンサ、湿度データ、温度データ、圧力データ等を収集する環境センサ、及び加速度データ、運動データ等を収集するモーションセンサ等を含んでもよい。これ以外のタイプのセンサも使用可能である。表示システム324は、単独のディスプレイ画面、テレビ、タブレット、又は携帯型デバイスなどの表示装置326に接続されてもよい。 For example, the computer system 300 includes a biometric sensor that collects heart rate data, stress level data, an environmental sensor that collects humidity data, temperature data, pressure data, etc., and a motion sensor that collects acceleration data, exercise data, etc. May include. Other types of sensors can also be used. The display system 324 may be connected to a stand-alone display screen, a display device 326 such as a television, tablet, or portable device.

I/Oインタフェースユニットは、様々なストレージ又はI/Oデバイスと通信する機能を備える。例えば、端末インタフェースユニット312は、ビデオ表示装置、スピーカテレビ等のユーザ出力デバイスや、キーボード、マウス、キーパッド、タッチパッド、トラックボール、ボタン、ライトペン、又は他のポインティングデバイス等のユーザ入力デバイスのようなユーザI/Oデバイス320の取り付けが可能である。ユーザは、ユーザインターフェースを使用して、ユーザ入力デバイスを操作することで、ユーザI/Oデバイス320及びコンピュータシステム300に対して入力データや指示を入力し、コンピュータシステム300からの出力データを受け取ってもよい。ユーザインターフェースは例えば、ユーザI/Oデバイス320を介して、表示装置に表示されたり、スピーカによって再生されたり、プリンタを介して印刷されたりしてもよい。 The I / O interface unit has the ability to communicate with various storage or I / O devices. For example, the terminal interface unit 312 may be a user output device such as a video display device or a speaker TV, or a user input device such as a keyboard, mouse, keypad, touchpad, trackball, button, light pen, or other pointing device. It is possible to attach such a user I / O device 320. The user inputs input data and instructions to the user I / O device 320 and the computer system 300 by operating the user input device using the user interface, and receives the output data from the computer system 300. May be good. The user interface may be displayed on the display device via the user I / O device 320, reproduced by the speaker, or printed via the printer, for example.

ストレージインタフェース314は、1つ又は複数のディスクドライブや直接アクセスストレージ装置322(通常は磁気ディスクドライブストレージ装置であるが、単一のディスクドライブとして見えるように構成されたディスクドライブのアレイ又は他のストレージ装置であってもよい)の取り付けが可能である。ある実施形態では、ストレージ装置322は、任意の二次記憶装置として実装されてもよい。メモリ304の内容は、ストレージ装置322に記憶され、必要に応じてストレージ装置322から読み出されてもよい。I/Oデバイスインタフェース316は、プリンタ、ファックスマシン等の他のI/Oデバイスに対するインターフェースを提供してもよい。ネットワークインターフェース318は、コンピュータシステム300と他のデバイスが相互的に通信できるように、通信経路を提供してもよい。この通信経路は、例えば、ネットワーク330であってもよい。 The storage interface 314 is an array of disk drives or other storage devices configured to appear as a single disk drive, although one or more disk drives or a direct access storage device 322 (usually a magnetic disk drive storage device). It may be). In certain embodiments, the storage device 322 may be implemented as any secondary storage device. The contents of the memory 304 are stored in the storage device 322 and may be read out from the storage device 322 as needed. The I / O device interface 316 may provide an interface to other I / O devices such as printers and fax machines. The network interface 318 may provide a communication path so that the computer system 300 and other devices can communicate with each other. This communication path may be, for example, network 330.

ある実施形態では、コンピュータシステム300は、マルチユーザメインフレームコンピュータシステム、シングルユーザシステム、又はサーバコンピュータ等の、直接的ユーザインターフェースを有しない、他のコンピュータシステム(クライアント)からの要求を受信するデバイスであってもよい。他の実施形態では、コンピュータシステム300は、デスクトップコンピュータ、携帯型コンピュータ、ノートパソコン、タブレットコンピュータ、ポケットコンピュータ、電話、スマートフォン、又は任意の他の適切な電子機器であってもよい。 In certain embodiments, the computer system 300 is a device that receives a request from another computer system (client) that does not have a direct user interface, such as a multi-user mainframe computer system, a single user system, or a server computer. There may be. In other embodiments, the computer system 300 may be a desktop computer, a portable computer, a laptop computer, a tablet computer, a pocket computer, a telephone, a smartphone, or any other suitable electronic device.

図2を参照して、本発明の実施例1に係るハイパーパラメータ管理システムの構成について説明する。 The configuration of the hyperparameter management system according to the first embodiment of the present invention will be described with reference to FIG.

図2は、本発明の実施例1に係るハイパーパラメータ管理システム150の構成を示す図である。図2に示すように、ハイパーパラメータ管理システム150は、ハイパーパラメータ管理サーバ100と、クライアント端末135A,135Bと、通信ネットワーク225とからなる。ハイパーパラメータ管理サーバ100は、通信ネットワーク225を介して、クライアント端末135A,135Bに接続される。この通信ネットワーク225は、例えばLAN(Local Area Network)やインターネット等であってもよい。 FIG. 2 is a diagram showing a configuration of a hyperparameter management system 150 according to a first embodiment of the present invention. As shown in FIG. 2, the hyperparameter management system 150 includes a hyperparameter management server 100, client terminals 135A and 135B, and a communication network 225. The hyperparameter management server 100 is connected to the client terminals 135A and 135B via the communication network 225. The communication network 225 may be, for example, a LAN (Local Area Network), the Internet, or the like.

ハイパーパラメータ管理サーバ100は、本発明の実施例に係る各種機能を実施するためのサーバ装置である。図2に示すように、ハイパーパラメータ管理サーバ100は、プロセッサ110と、メモリ120と、記憶部130とを含む。 The hyperparameter management server 100 is a server device for carrying out various functions according to the embodiment of the present invention. As shown in FIG. 2, the hyperparameter management server 100 includes a processor 110, a memory 120, and a storage unit 130.

プロセッサ110は、必要に応じてメモリ120に格納されている各種プログラムを読み出して、プログラムからの命令に応じて処理を実行するプロセッサである。例えば、後述する処理部121、モデル作成部122、変更部123、強化学習部124、及び評価部125の機能は、プロセッサ110が実行する処理によって実現されてもよい。 The processor 110 is a processor that reads various programs stored in the memory 120 as needed and executes processing in response to instructions from the programs. For example, the functions of the processing unit 121, the model creation unit 122, the changing unit 123, the reinforcement learning unit 124, and the evaluation unit 125, which will be described later, may be realized by the processing executed by the processor 110.

メモリ120は、データ及びプログラムを記憶するためのランダムアクセス半導体メモリ、記憶装置、又は記憶媒体(揮発性又は不揮発性のいずれか)である。メモリ120は、本明細書で説明する機能を実施するプログラム、モジュール、及びデータ構造のすべて又は一部を格納してもよい。例えば、メモリ304は、後述する処理部121、モデル作成部122、変更部123、強化学習部124、及び評価部125の機能を、プロセッサ110上で実行する命令又は記述を含んでもよい。 Memory 120 is a random access semiconductor memory, storage device, or storage medium (either volatile or non-volatile) for storing data and programs. The memory 120 may store all or part of the programs, modules, and data structures that perform the functions described herein. For example, the memory 304 may include an instruction or description that executes the functions of the processing unit 121, the model creation unit 122, the change unit 123, the reinforcement learning unit 124, and the evaluation unit 125, which will be described later, on the processor 110.

強化学習部124は、所定のハイパーパラメータ空間に基づいて、処理用ハイパーパラメータ及びモデル用ハイパーパラメータを含む第1のハイパーパラメータセットを生成する機能部である。強化学習部124は、ハイパーパラメータを生成するために、再帰型ニューラルネットワークを用いてもよい。この再帰型ニューラルネットワークは、後述する評価点数を報酬として、よりよいハイパーパラメータを生成するように、ポリシー勾配法によって訓練される。 The reinforcement learning unit 124 is a functional unit that generates a first hyperparameter set including a processing hyperparameter and a model hyperparameter based on a predetermined hyperparameter space. Reinforcement learning unit 124 may use a recurrent neural network to generate hyperparameters. This recurrent neural network is trained by the policy gradient method to generate better hyperparameters with the evaluation score described later as a reward.

処理部121は、強化学習部124によって生成される処理用ハイパーパラメータを用いて、対象データの前処理を行う機能部である。ここでの前処理は、対象データを後続の機能部によって解釈可能な形式に変換したり、対象データにおいて抜けている値を補充したり、冗長的な対象データを削除したりすることを含む。処理部121が実行する前処理は、処理用ハイパーパラメータによって規定される。処理部121は、処理用ハイパーパラメータに基づいて対象データを処理することで、機械学習モデルを訓練するための訓練用情報と、訓練済みの機械学習モデルをテストするためのテスト用情報とを生成する。 The processing unit 121 is a functional unit that preprocesses the target data using the processing hyperparameters generated by the reinforcement learning unit 124. The preprocessing here includes converting the target data into a format that can be interpreted by the subsequent functional unit, supplementing the missing value in the target data, and deleting the redundant target data. The preprocessing executed by the processing unit 121 is defined by the processing hyperparameters. The processing unit 121 generates training information for training the machine learning model and test information for testing the trained machine learning model by processing the target data based on the processing hyperparameters. To do.

モデル作成部122は、強化学習部124によって生成されるモデル用ハイパーパラメータに基づいて機械学習モデルを作成し、処理部121からの訓練用情報を用いて当該機械学習モデルを訓練する機能部である。ここでの機械学習モデルは、例えばローンのデフォルト、不正の金融取引、病気の進行等のイベントを予測するための機械学習モデルであってもよい。 The model creation unit 122 is a functional unit that creates a machine learning model based on the model hyperparameters generated by the reinforcement learning unit 124 and trains the machine learning model using the training information from the processing unit 121. .. The machine learning model here may be a machine learning model for predicting events such as loan defaults, fraudulent financial transactions, and disease progression.

評価部125は、テスト用情報を用いてモデル作成部122によって作成された機械学習モデルを検証し、第1のハイパーパラメータセットについての評価点数を計算する。この評価点数は、それぞれのハイパーパラメータの性能を定量的に示す尺度であり、例えば0〜1の数字で表されてもよい。原則として、より高い評価点数を有するハイパーパラメータは、機械学習モデルを検証した際に、より優れた精度・性能・効率等を発揮したことを意味する。所定の評価基準を達成するハイパーパラメータは、後述する上位ハイパーパラメータデータベース132に格納される。
なお、説明の便宜上、所定の評価基準を達成するハイパーパラメータは、「上位ハイパーパラメータ」ともいう。
The evaluation unit 125 verifies the machine learning model created by the model creation unit 122 using the test information, and calculates the evaluation score for the first hyperparameter set. This evaluation score is a scale that quantitatively indicates the performance of each hyperparameter, and may be represented by a number of 0 to 1, for example. As a general rule, hyperparameters with higher evaluation scores mean that they exhibited better accuracy, performance, efficiency, etc. when verifying machine learning models. Hyperparameters that achieve a predetermined evaluation criterion are stored in the upper hyperparameter database 132 described later.
For convenience of explanation, hyperparameters that achieve a predetermined evaluation criterion are also referred to as "upper-level hyperparameters".

変更部123は、上位ハイパーパラメータに基づいて、第2のハイパーパラメータのセットを生成する機能部である。機械学習モデル用のハイパーパラメータを、ハイパーパラメータ空間全体ではなく、既に性能が高いと判定されている上位ハイパーパラメータに基づいて生成することで、高い性能を有するハイパーパラメータが得られる可能性が高い。このため、グリッドサーチ等のような従来のハイパーパラメータ生成手段に比べて、優れたハイパーパラメータを効率的に特定することができる。
具体的には、変更部123は、例えば上位ハイパーパラメータの値を交換したり、上位ハイパーパラメータを合成させたりすることで第2のハイパーパラメータのセットを生成してもよい。
The change unit 123 is a functional unit that generates a second hyperparameter set based on the upper hyperparameters. By generating hyperparameters for machine learning models based on higher-level hyperparameters that have already been determined to have high performance, rather than the entire hyperparameter space, it is highly possible that hyperparameters with high performance can be obtained. Therefore, it is possible to efficiently identify excellent hyperparameters as compared with conventional hyperparameter generation means such as grid search.
Specifically, the change unit 123 may generate a second hyperparameter set by exchanging the values of the upper hyperparameters or synthesizing the upper hyperparameters, for example.

記憶部130は、上述した機能部が用いる各種データを格納するためのストレージ装置である。記憶部130は、例えばフラッシュメモリ、ハードディスクドライブ等、任意の記憶媒体であってもよい。また、図2に示すように、記憶部130は、候補ハイパーパラメータデータベース131と、上位ハイパーパラメータデータベース132を含んでもよい。 The storage unit 130 is a storage device for storing various data used by the above-mentioned functional unit. The storage unit 130 may be any storage medium such as a flash memory or a hard disk drive. Further, as shown in FIG. 2, the storage unit 130 may include the candidate hyperparameter database 131 and the upper hyperparameter database 132.

候補ハイパーパラメータデータベース131は、所定のハイパーパラメータ空間を定義するデータベースである。ここでのハイパーパラメータ空間とは、ある分野や課題に対して、使用可能なハイパーパラメータの範囲を規定し、使用可能なハイパーパラメータを全て含む論理的な空間である。このハイパーパラメータ空間は、ユーザによって予め定義されてもよい。また、候補ハイパーパラメータデータベース131が有するハイパーパラメータ空間は、処理用ハイパーパラメータ及びモデル用ハイパーパラメータの両方について、使用可能なハイパーパラメータの範囲を定義してもよい。 The candidate hyperparameter database 131 is a database that defines a predetermined hyperparameter space. The hyperparameter space here is a logical space that defines the range of hyperparameters that can be used for a certain field or problem and includes all the hyperparameters that can be used. This hyperparameter space may be predefined by the user. Further, the hyperparameter space included in the candidate hyperparameter database 131 may define a range of hyperparameters that can be used for both the processing hyperparameters and the model hyperparameters.

上位ハイパーパラメータデータベース132は、上位のハイパーパラメータを格納するためのデータベースである。上述したように、上位ハイパーパラメータデータベース132は、テスト用情報を用いて機械学習モデルを検証した際に、第1のハイパーパラメータのセットのうち、所定の評価基準を達成したハイパーパラメータであってもよい。この評価基準は、「良い」と「悪い」のハイパーパラメータの敷居を定義する基準であり、所定の評価点数(例えば0.85以上)、所定のパーセンテージ(上位10%)、所定の数(上位20個)等として表現されてもよい。 The upper hyperparameter database 132 is a database for storing upper hyperparameters. As described above, the upper hyperparameter database 132 may be a hyperparameter of the first set of hyperparameters that achieves a predetermined evaluation criterion when the machine learning model is verified using the test information. Good. This evaluation standard is a standard that defines the threshold of hyperparameters of "good" and "bad", and has a predetermined evaluation score (for example, 0.85 or more), a predetermined percentage (top 10%), and a predetermined number (top). It may be expressed as 20) or the like.

クライアント端末135A、135Bは、機械学習モデルの解析の対象となる対象データを、通信ネットワーク225を介してハイパーパラメータ管理サーバ100に送信する端末である。ハイパーパラメータ管理装置205による解析(例えば、イベント予測)が終了した後、解析の結果を示す情報がクライアント端末135A、135Bに返送される。これらのクライアント端末135A、135Bは、例えば、デスクトップパソコン、ノートパソコン、タブレット、スマートフォン等、任意のデバイスであってもよい。 The client terminals 135A and 135B are terminals that transmit target data to be analyzed by the machine learning model to the hyperparameter management server 100 via the communication network 225. After the analysis (for example, event prediction) by the hyperparameter management device 205 is completed, the information indicating the analysis result is returned to the client terminals 135A and 135B. These client terminals 135A and 135B may be any device such as a desktop personal computer, a laptop computer, a tablet, or a smartphone.

ハイパーパラメータ管理サーバ100に含まれるそれぞれの機能部は、図1に示すハイパーパラメータ管理アプリケーション350を構成するソフトウエアモジュールであってもよく、独立した専用ハードウェアデバイスであってもよい。また、上記の機能部は、同一のコンピューティング環境に実施されてもよく、分散されたコンピューティング環境に実施されてもよい。 Each functional unit included in the hyperparameter management server 100 may be a software module constituting the hyperparameter management application 350 shown in FIG. 1, or may be an independent dedicated hardware device. Further, the above-mentioned functional unit may be implemented in the same computing environment, or may be implemented in a distributed computing environment.

次に、図3を参照して、本発明の実施例1に係るハイパーパラメータ管理システムの機能的構成について説明する。 Next, the functional configuration of the hyperparameter management system according to the first embodiment of the present invention will be described with reference to FIG.

図3は、本発明の実施例1に係るハイパーパラメータ管理システムの機能的構成250を示すブロック図である。図3に示すように、この機能的構成250は、上述した処理部121、モデル作成部122、変更部123、強化学習部124、評価部125、候補ハイパーパラメータデータベース131、及び上位ハイパーパラメータデータベース132の間のデータの送受信を示す。 FIG. 3 is a block diagram showing a functional configuration 250 of the hyperparameter management system according to the first embodiment of the present invention. As shown in FIG. 3, this functional configuration 250 includes the above-mentioned processing unit 121, model creation unit 122, change unit 123, reinforcement learning unit 124, evaluation unit 125, candidate hyperparameter database 131, and upper hyperparameter database 132. Indicates the transmission and reception of data between.

まず、強化学習部124は、候補ハイパーパラメータデータベース131に格納される候補ハイパーパラメータ空間に基づいて、処理用ハイパーパラメータとモデル用ハイパーパラメータとを含む第1のハイパーパラメータのセットを生成する。具体的には、強化学習部124は、いわゆるEpsilon−Greedy法を用いて、第1のハイパーパラメータのセットを探索(exploration)で生成するか、搾取(exploitation)で生成するかを判定する。
搾取の場合には、強化学習部124は、順伝播の計算を用いて、ハイパーパラメータのシーケンスを第1のハイパーパラメータのセットとして生成する。探索の場合には、強化学習部124は、候補ハイパーパラメータデータベース131の候補ハイパーパラメータ空間から一様に抽出したハイパーパラメータを第1のハイパーパラメータのセットとして生成する。その後、強化学習部124は、生成した第1のハイパーパラメータのセットを処理部121及びモデル作成部122に送信する。
また、後の段階で、強化学習部124は、第1のハイパーパラメータのセットについて計算される評価点数に基づいて、ポリシー勾配法を用いたバックプロパゲーションによって訓練される。これにより、強化学習部124は、よりよいハイパーパラメータを生成できるように学習する。
First, the reinforcement learning unit 124 generates a first hyperparameter set including a processing hyperparameter and a model hyperparameter based on the candidate hyperparameter space stored in the candidate hyperparameter database 131. Specifically, the reinforcement learning unit 124 uses the so-called Epsilon-Greedy method to determine whether the first hyperparameter set is generated by exploration or exploitation.
In the case of exploitation, the reinforcement learning unit 124 uses the calculation of forward propagation to generate a sequence of hyperparameters as a first set of hyperparameters. In the case of search, the reinforcement learning unit 124 generates hyperparameters uniformly extracted from the candidate hyperparameter space of the candidate hyperparameter database 131 as a first set of hyperparameters. After that, the reinforcement learning unit 124 transmits the generated first hyperparameter set to the processing unit 121 and the model creation unit 122.
Also, at a later stage, the reinforcement learning unit 124 is trained by backpropagation using the policy gradient method based on the evaluation score calculated for the first set of hyperparameters. As a result, the reinforcement learning unit 124 learns so that better hyperparameters can be generated.

次に、処理部121は、第1のハイパーパラメータのセットに含まれる処理用ハイパーパラメータに基づいて、任意の対象データを処理する。ここでの対象データは、例えば図2に示すクライアント端末(135A,135B)から受信した解析対象のデータ(解析対象者の金融取引に関するデータ等)であってもよい。処理部121が対象データに対して行う処理の具体的な工程は、処理ハイパーパラメータによって規定される。
例えば、処理ハイパーパラメータが「average_filling」の値を有する場合には、処理部121は、対象データにおいて抜けている値を、類似しているデータの値の平均値で埋めてもよく、処理ハイパーパラメータが「median_filling」の値を有する場合には、処理部121は、対象データにおいて抜けている値を、類似しているデータの値の中央値で埋めてもよい。
Next, the processing unit 121 processes arbitrary target data based on the processing hyperparameters included in the first hyperparameter set. The target data here may be, for example, data to be analyzed (data related to financial transactions of the analysis target person, etc.) received from the client terminals (135A, 135B) shown in FIG. The specific steps of the processing performed by the processing unit 121 on the target data are defined by the processing hyperparameters.
For example, when the processing hyperparameter has a value of "avage_filling", the processing unit 121 may fill the missing value in the target data with the average value of the values of similar data, and the processing hyperparameter When has a value of "median_filling", the processing unit 121 may fill the missing value in the target data with the median value of the similar data.

対象データに対する処理が終了した後、処理部121は、訓練用情報と、テスト用情報とを生成する。具体的には、処理部121は、受信した対象データを、機械学習モデルを訓練するための訓練用情報と、訓練済みの機械学習モデルをテストするためのテスト用情報とに分割してもよい。対象データを訓練用情報とテスト用情報とに分割することで、機械学習モデルの訓練とテストを個別に行うことができ、訓練用情報に対して学習されているが、未知のテスト用情報に対しては適合できていない過剰適合を避けることができる。例えば、対象データが2000年〜2010年の間に行われた金融取引を示すデータである場合には、処理部121は、2000年〜2005年のデータを訓練用情報とし、2005年〜2010年のデータをテスト用情報としてもよい。 After the processing for the target data is completed, the processing unit 121 generates training information and test information. Specifically, the processing unit 121 may divide the received target data into training information for training the machine learning model and test information for testing the trained machine learning model. .. By dividing the target data into training information and test information, it is possible to train and test the machine learning model separately, and it is learned for the training information, but it is unknown test information. On the other hand, it is possible to avoid over-fitting that is not fit. For example, when the target data is data indicating a financial transaction conducted between 2000 and 2010, the processing unit 121 uses the data from 2000 to 2005 as training information, and from 2005 to 2010. Data may be used as test information.

次に、モデル作成部122は、第1のハイパーパラメータのセットに含まれるモデル用ハイパーパラメータに基づいて機械学習モデルを作成する。ここで作成する機械学習モデルの種類は、ユーザに予め設定されてもよく、モデル用ハイパーパラメータによって指定されてもよい。この機械学習モデルは、例えばローンのデフォルト、不正の金融取引、病気の進行等のイベントを予測するためのイベント予測機械学習モデルであってもよい。また、機械学習モデルの特性や設定は、モデル用ハイパーパラメータによって規定される。
例えば、モデル用ハイパーパラメータが「number_of_layers=3」、「number_of_nodes=3」、「learning_rate=0.001」、及び「activation_function=linear_activation」の値を有する場合には、モデル作成部122は、これらの条件に従って機械学習モデルを構築する。
機械学習モデルをモデル用ハイパーパラメータに基づいて作成した後、モデル作成部122は、処理部121から受信した訓練用情報を用いて当該機械学習モデルを訓練する。この訓練の方法は、機械学習モデルの種類に合わせて適宜に選択されてもよい。
Next, the model creation unit 122 creates a machine learning model based on the model hyperparameters included in the first hyperparameter set. The type of the machine learning model created here may be preset by the user or may be specified by the model hyperparameters. This machine learning model may be an event prediction machine learning model for predicting events such as loan defaults, fraudulent financial transactions, and disease progression. In addition, the characteristics and settings of the machine learning model are defined by the hyperparameters for the model.
For example, when the model hyperparameters have the values of "number_of_layers = 3", "number_of_nodes = 3", "learning_rate = 0.001", and "activation_function = linear_activation", the model creation unit 122 sets these conditions. Build a machine learning model according to.
After creating the machine learning model based on the model hyperparameters, the model creation unit 122 trains the machine learning model using the training information received from the processing unit 121. This training method may be appropriately selected according to the type of machine learning model.

次に、評価部125は、処理部121から受信したテスト用情報を用いて、モデル作成部122によって作成された機械学習モデルを検証し、第1のハイパーパラメータについての評価点数を計算する。上述したように、この評価点数は、第1のハイパーパラメータの性能を定量的に示す尺度であり、例えば0〜1の数字で表されてもよい。原則として、より高い評価点数を有するハイパーパラメータは、検証した機械学習モデルにおいてより優れた精度・性能・効率等を発揮したことを意味する。所定の評価基準を達成するハイパーパラメータは、後述する上位ハイパーパラメータデータベース132に格納される。 Next, the evaluation unit 125 verifies the machine learning model created by the model creation unit 122 using the test information received from the processing unit 121, and calculates the evaluation score for the first hyperparameter. As described above, this evaluation score is a scale that quantitatively indicates the performance of the first hyperparameter, and may be represented by a number of 0 to 1, for example. As a general rule, hyperparameters with higher evaluation scores mean that they exhibited better accuracy, performance, efficiency, etc. in the verified machine learning model. Hyperparameters that achieve a predetermined evaluation criterion are stored in the upper hyperparameter database 132 described later.

次に、変更部123は、上位ハイパーパラメータデータベース132に格納されている上位ハイパーパラメータに基づいて、第2のハイパーパラメータのセットを生成する。変更部123は、例えば、複数の上位ハイパーパラメータの値を交換することで第2のハイパーパラメータのセットを生成してもよく、複数の上位ハイパーパラメータを合成することで第2のハイパーパラメータのセットを生成してもよい。
ここで生成された第2のハイパーパラメータのセットは、強化学習部124を訓練するために用いられてもよく、機械学習モデルに設定されてもよく、上位ハイパーパラメータデータベース132に格納されてもよい。
なお、ここでは、第2のハイパーパラメータのセットを生成する方法として、上位ハイパーパラメータの値を交換することや、上位ハイパーパラメータを合成することを例として説明したが、本発明はこれに限定されず、上位ハイパーパラメータを用いて新たなハイパーパラメータを生成する他の手段も可能である。
Next, the change unit 123 generates a second hyperparameter set based on the upper hyperparameters stored in the upper hyperparameter database 132. For example, the change unit 123 may generate a second hyperparameter set by exchanging the values of a plurality of upper hyperparameters, or may generate a second hyperparameter set by synthesizing a plurality of upper hyperparameters. May be generated.
The second set of hyperparameters generated here may be used for training the reinforcement learning unit 124, may be set in the machine learning model, or may be stored in the upper hyperparameter database 132. ..
Here, as a method of generating the second hyperparameter set, exchanging the values of the upper hyperparameters and synthesizing the upper hyperparameters have been described as examples, but the present invention is limited to this. However, other means of generating new hyperparameters using higher-level hyperparameters are also possible.

次に、図4を参照して、本発明の実施例1に係る候補ハイパーパラメータデータベースの一例について説明する。 Next, an example of the candidate hyperparameter database according to the first embodiment of the present invention will be described with reference to FIG.

図4は、本発明の実施例1に係る候補ハイパーパラメータデータベース131の一例を示す図である。図4に示すように、候補ハイパーパラメータデータベース131は、パラメータ名351、第1のオプション352、第2のオプション353、及びその他のオプション354を含む。
なお、説明の便宜上、候補ハイパーパラメータデータベース131の内容を省略しているが、候補ハイパーパラメータデータベース131は数多くのハイパーパラメータの情報を格納してもよい。これらのハイパーパラメータは、上述したハイパーパラメータ空間を構成する。
FIG. 4 is a diagram showing an example of the candidate hyperparameter database 131 according to the first embodiment of the present invention. As shown in FIG. 4, the candidate hyperparameter database 131 includes parameter name 351, first option 352, second option 353, and other option 354.
Although the contents of the candidate hyperparameter database 131 are omitted for convenience of explanation, the candidate hyperparameter database 131 may store a large number of hyperparameter information. These hyperparameters constitute the hyperparameter space described above.

パラメータ名351は、ハイパーパラメータの種類を指定するものである。例えば、「missing_value」は、抜けている値を埋めるための方法を示す処理用ハイパーパラメータを指し、「number_of_layers」は、機械学習モデルのレイヤ数を指定するモデル用ハイパーパラメータデータを指す。 The parameter name 351 specifies the type of hyperparameter. For example, "missing_value" refers to processing hyperparameters indicating a method for filling in missing values, and "number_of_layers" refers to model hyperparameter data that specifies the number of layers in a machine learning model.

第1のオプション352、第2のオプション353、及びその他のオプション354は、それぞれのハイパーパラメータの有効性又は可能な値の範囲を指定するものである。例えば、「missing_value」の第1のオプション352が「True」の場合には、抜けている値を埋めるための処理が処理部によって行われ、「False」の場合には行われない。また、「number_of_layers」の第2のオプション353が「3」の場合には、モデル作成部は3つのレイヤを有する機械学習モデルを構築する。 The first option 352, the second option 353, and the other option 354 specify the validity or range of possible values of each hyperparameter. For example, when the first option 352 of "missing_value" is "True", the processing for filling the missing value is performed by the processing unit, and when it is "False", it is not performed. Further, when the second option 353 of "number_of_layers" is "3", the model creation unit constructs a machine learning model having three layers.

上述したように、強化学習部は、当該候補ハイパーパラメータデータベース131から無作為又は一様に選択したハイパーパラメータを第1のハイパーパラメータのセットとして生成してもよい。 As described above, the reinforcement learning unit may generate hyperparameters randomly or uniformly selected from the candidate hyperparameter database 131 as a first set of hyperparameters.

次に、図5を参照して、本発明の実施例1に係る上位ハイパーパラメータデータベースについて説明する。 Next, the upper hyperparameter database according to the first embodiment of the present invention will be described with reference to FIG.

図5は、本発明の実施例1に係る上位ハイパーパラメータデータベース132の一例を示す図である。図5に示すように、上位ハイパーパラメータデータベース132は、セットID401、パラメータ名402、値403、及び評価点数404を含む。
上述したように、上位ハイパーパラメータデータベース132は、所定の評価基準を達成する上位ハイパーパラメータを格納するデータベースである。
FIG. 5 is a diagram showing an example of the upper hyperparameter database 132 according to the first embodiment of the present invention. As shown in FIG. 5, the upper hyperparameter database 132 includes a set ID 401, a parameter name 402, a value 403, and an evaluation score 404.
As described above, the upper hyperparameter database 132 is a database that stores upper hyperparameters that achieve a predetermined evaluation criterion.

セットID401は、パラメータが属するセットの識別子である。ここでのセットとは、1つの処理用ハイパーパラメータと、1つのモデル用ハイパーパラメータとからなる。例えば、同じセットID401が付与されているハイパーパラメータは、同じセットに属し、一対となる。 The set ID 401 is an identifier of the set to which the parameter belongs. The set here consists of one processing hyperparameter and one model hyperparameter. For example, hyperparameters to which the same set ID 401 is assigned belong to the same set and are paired.

パラメータ名402は、ハイパーパラメータの種類を指定するものである。パラメータ名402は、図4を参照して説明したパラメータ名351と実質的に同様であるため、その説明は省略する。 The parameter name 402 specifies the type of hyperparameter. Since the parameter name 402 is substantially the same as the parameter name 351 described with reference to FIG. 4, the description thereof will be omitted.

値403は、ハイパーパラメータの値を指定するものである。ここでの値403は、可能な値を示す第1オプションや第2オプション等と異なり、実際に処理部又はモデル作成部に使用された際の値を示す。 The value 403 specifies the value of the hyperparameter. The value 403 here indicates a value when it is actually used in the processing unit or the model creation unit, unlike the first option and the second option that indicate possible values.

評価点数404は、当該ハイパーパラメータの性能を定量的に示す尺度であり、例えば0〜1の数字で表されてもよい。原則として、より高い評価点数を有するハイパーパラメータは、機械学習モデルにおいてより優れた精度・性能・効率等を発揮したことを意味する。この評価点数404は、特定のハイパーパラメータのセットに基づいて訓練・検証された機械学習モデルを評価する際に、上述した評価部125によって定められる値である。 The evaluation score 404 is a scale that quantitatively indicates the performance of the hyperparameter, and may be represented by a number of 0 to 1, for example. As a general rule, hyperparameters with higher evaluation scores mean that they have demonstrated better accuracy, performance, efficiency, etc. in machine learning models. The evaluation score 404 is a value determined by the evaluation unit 125 described above when evaluating a machine learning model trained and verified based on a specific hyperparameter set.

次に、図6を参照して、本発明の実施例1に係る処理部による処理について説明する。 Next, with reference to FIG. 6, the processing by the processing unit according to the first embodiment of the present invention will be described.

図6は、本発明の実施例1に係る処理部による処理500を示すフローチャートである。この処理500は、処理用ハイパーパラメータに基づいて、処理部が対象データに対して行う処理の各工程を示す。 FIG. 6 is a flowchart showing processing 500 by the processing unit according to the first embodiment of the present invention. This process 500 indicates each step of the process performed on the target data by the process unit based on the process hyperparameters.

まず、ステップ501では、処理部(例えば図2に示す処理部121)は、強化学習部から、処理用のハイパーパラメータ及びモデル用のハイパーパラメータを含む第1のハイパーパラメータのセットを受信する。 First, in step 501, the processing unit (for example, the processing unit 121 shown in FIG. 2) receives from the reinforcement learning unit a first set of hyperparameters including hyperparameters for processing and hyperparameters for models.

次に、ステップ502では、処理部は、第1のハイパーパラメータのセットに含まれる処理用のハイパーパラメータに基づいて対象データを処理する。例えば、処理ハイパーパラメータが「average_filling」の値を有する場合には、処理部は、対象データにおいて抜けている値を、類似しているデータの値の平均値で埋めてもよい。 Next, in step 502, the processing unit processes the target data based on the processing hyperparameters included in the first hyperparameter set. For example, when the processing hyperparameter has a value of "average_filling", the processing unit may fill in the missing values in the target data with the average value of the values of similar data.

次に、ステップ503では、処理部は、処理後のデータをモデル作成部に出力する。この処理後のデータは、処理用のハイパーパラメータに基づいて処理された訓練用情報とテスト用情報とを含む。 Next, in step 503, the processing unit outputs the processed data to the model creation unit. This processed data includes training information and test information processed based on the hyperparameters for processing.

次に、図7を参照して、本発明の実施例1に係るモデル作成部による処理について説明する。 Next, with reference to FIG. 7, the processing by the model creation unit according to the first embodiment of the present invention will be described.

図7は、本発明の実施例1に係るモデル作成部による処理600を示すフローチャートである。この処理600は、モデル用ハイパーパラメータに基づいて機械学習モデルを作成する処理を示す。 FIG. 7 is a flowchart showing the process 600 by the model creation unit according to the first embodiment of the present invention. This process 600 shows a process of creating a machine learning model based on the model hyperparameters.

まず、ステップ601では、モデル作成部は、強化学習部からの処理用のハイパーパラメータ及びモデル用のハイパーパラメータを含む第1のハイパーパラメータのセットと、処理部からの訓練用情報及びテスト用情報とを受信する。 First, in step 601 the model creation unit includes a set of first hyperparameters including a hyperparameter for processing from the reinforcement learning unit and a hyperparameter for the model, and training information and test information from the processing unit. To receive.

次に、ステップ602では、モデル作成部は、第1のハイパーパラメータのセットに含まれるモデル用ハイパーパラメータに基づいて機械学習モデルを作成する。例えば、モデル作成部は、モデル用ハイパーパラメータによって規定されるモデル種類(例えば「Support Vector Machine」や「Deep Neural Network」)、レイヤの数、及び隠れレイヤにおけるノードの数等に従って機械学習モデルを作成してもよい。 Next, in step 602, the model creation unit creates a machine learning model based on the model hyperparameters included in the first hyperparameter set. For example, the model creation unit creates a machine learning model according to the model type (for example, "Support Vector Machine" or "Deep Natural Network") defined by the hyperparameters for the model, the number of layers, the number of nodes in the hidden layer, and the like. You may.

次に、ステップ603では、機械学習モデルをモデル用ハイパーパラメータに基づいて作成した後、モデル作成部122は、処理部121から受信した訓練用情報を用いて当該機械学習モデルを訓練する。この訓練の方法として、例えば線形回帰、ロジスティック回帰、単純ベイズ分類及びk近傍法が挙げられる。この訓練により、機械学習モデルは、ローンのデフォルトや病気の進行等の特定のイベントを正確に予測する精度が向上する。 Next, in step 603, after the machine learning model is created based on the model hyperparameters, the model creation unit 122 trains the machine learning model using the training information received from the processing unit 121. Methods of this training include, for example, linear regression, logistic regression, naive Bayes classification and k-nearest neighbors. This training improves the accuracy of machine learning models in accurately predicting specific events such as loan defaults and disease progression.

次に、図8を参照して、本発明の実施例1に係る評価部による処理について説明する。 Next, the process by the evaluation unit according to the first embodiment of the present invention will be described with reference to FIG.

図8は、本発明の実施例1に係る評価部による処理700を示す図である。この処理700は、モデル作成部によって作成された機械学習モデルを検証して、第1のハイパーパラメータのセットを評価する処理を示す。 FIG. 8 is a diagram showing a process 700 by the evaluation unit according to the first embodiment of the present invention. This process 700 shows a process of verifying the machine learning model created by the model creation unit and evaluating the first set of hyperparameters.

まず、ステップ703では、評価部は、処理部から受信したテスト用情報を用いて、モデル作成部によって作成された機械学習モデルを検証する。例えば、機械学習モデルがローンのデフォルトを予測するモデルである場合、評価部は、解析対象者の金融取引、年収、クレジットスコア等の金融情報を示すテスト用情報を分析し、当該解析対象者がデフォルトする確率を計算する。その後、機械学習モデルが計算した確率と、当該解析対象者が実際にデフォルトしたかどうかを示す結果に比較することで、機械学習モデルの精度を検証することができる。 First, in step 703, the evaluation unit verifies the machine learning model created by the model creation unit using the test information received from the processing unit. For example, if the machine learning model is a model that predicts loan defaults, the evaluation department analyzes test information that shows financial information such as financial transactions, annual income, and credit score of the analysis target person, and the analysis target person analyzes it. Calculate the default probability. After that, the accuracy of the machine learning model can be verified by comparing the probability calculated by the machine learning model with the result indicating whether or not the analysis target actually defaults.

次に、ステップ704では、評価部は、検証の結果に基づいて、第1のハイパーパラメータについての評価点数を計算する。この評価点数の形式は、機械学習モデルの種類によって選択されてもよい。例えば、機械学習モデルが分類・予測を行う場合には、精度やF1スコアをこの評価点数として使用してもよく、機械学習モデルが回帰のモデルである場合には、R2スコアをこの評価点数として使用してもよい。
一例として、この評価点数は、例えば0〜1の数字で表されてもよい。原則として、より高い評価点数を有するハイパーパラメータは、検証した機械学習モデルにおいてより優れた精度・性能・効率等を発揮したことを意味する。
Next, in step 704, the evaluation unit calculates the evaluation score for the first hyperparameter based on the verification result. The format of this evaluation score may be selected depending on the type of machine learning model. For example, when the machine learning model classifies and predicts, the accuracy and F1 score may be used as this evaluation score, and when the machine learning model is a regression model, the R2 score is used as this evaluation score. You may use it.
As an example, this evaluation score may be represented by a number from 0 to 1, for example. As a general rule, hyperparameters with higher evaluation scores mean that they exhibited better accuracy, performance, efficiency, etc. in the verified machine learning model.

次に、ステップ705では、評価部は、所定の評価基準を達成するハイパーパラメータを、上述した上位ハイパーパラメータデータベースに格納してもよい。この評価基準は、「良い」と「悪い」のハイパーパラメータの敷居を定義する基準であり、所定の評価点数(例えば0.85以上)、所定のパーセンテージ(上位10%)、所定の数(上位20個)等として表現されてもよい。 Next, in step 705, the evaluation unit may store hyperparameters that achieve a predetermined evaluation criterion in the above-mentioned upper hyperparameter database. This evaluation standard is a standard that defines the threshold of hyperparameters of "good" and "bad", and has a predetermined evaluation score (for example, 0.85 or more), a predetermined percentage (top 10%), and a predetermined number (top). It may be expressed as 20) or the like.

次に、図9を参照して、本発明の実施例1に係る変更部による処理について説明する。 Next, with reference to FIG. 9, the processing by the modified portion according to the first embodiment of the present invention will be described.

図9は、本発明の実施例1に係る変更部による処理800を示すフローチャートである。この処理800は、上位ハイパーパラメータに基づいて、第2のハイパーパラメータを生成する処理を示す。 FIG. 9 is a flowchart showing the process 800 by the modified portion according to the first embodiment of the present invention. This process 800 indicates a process of generating a second hyperparameter based on the upper hyperparameter.

まず、ステップ801では、変更部は、上位ハイパーパラメータデータベースに格納されている上位ハイパーパラメータのうち、任意の数K個のハイパーパラメータのセットを読み出す。
なお、ここでは、Kは、2以上の数字である。これは、ハイパーパラメータのセットが1つしかない場合には、値の交換や後述する合成ができないからである。
First, in step 801, the change unit reads out a set of arbitrary several K hyperparameters among the upper hyperparameters stored in the upper hyperparameter database.
Here, K is a number of 2 or more. This is because if there is only one set of hyperparameters, values cannot be exchanged and synthesis described later cannot be performed.

次に、ステップ802では、変更部は、K個のハイパーパラメータのセットの値を交換することで、第2のハイパーパラメータのセットを生成する。
例えば、上位ハイパーパラメータデータベースには、{“missing_value”:“median”,“number_of_layers”:2}及び{“missing_value”:“average”,“number_of_layers”:3}の上位ハイパーパラメータデータベースがある場合には、変更部123は、それぞれのハイパーパラメータの値を交換し{“missing_value”:“average”,“number_of_layers”:2}及び{“missing_value”:“median”,“number_of_layers”:3}を生成する。
なお、説明の便宜上、上位ハイパーパラメータデータベースに2つのハイパーパラメータがある場合について説明したが、本発明はそれに限定されず、3つ以上のハイパーパラメータがある場合にも適用可能であるというまでもない。この場合には、変更部は、上位ハイパーパラメータデータベースに格納されるハイパーパラメータデータの全ての順列を生成してもよい。
また、ここでは、複数の上位ハイパーパラメータの値を交換することで第2のハイパーパラメータのセットを生成する一例を説明したが、本発明はこれに限定されず、後述するように、複数の上位ハイパーパラメータを合成することで第2のハイパーパラメータのセットを生成することもできる。
Next, in step 802, the change unit generates a second set of hyperparameters by exchanging the values of the set of K hyperparameters.
For example, if the upper hyperparameter database has {"missing_value": "median", "number_of_layers": 2} and {"missing_value": "average", "number_of_layers": 3} , The change unit 123 exchanges the values of the respective hyperparameters to generate {"missing_value": "average", "number_of_layers": 2} and {"missing_value": "median", "number_of_layers": 3}.
For convenience of explanation, the case where there are two hyperparameters in the upper hyperparameter database has been described, but the present invention is not limited to this, and it goes without saying that it can be applied even when there are three or more hyperparameters. .. In this case, the change part may generate all permutations of hyperparameter data stored in the upper hyperparameter database.
Further, here, an example of generating a second hyperparameter set by exchanging the values of a plurality of hyperparameters has been described, but the present invention is not limited to this, and as will be described later, a plurality of hyperparameters are described. It is also possible to generate a second set of hyperparameters by synthesizing hyperparameters.

次に、ステップ803では、変更部は、第2のハイパーパラメータのセットの中から、任意のハイパーパラメータをランダムに選択し、出力する。ここで選択されたハイパーパラメータは、強化学習部を訓練するために用いられてもよく、機械学習モデルに設定されてもよく、上位ハイパーパラメータデータベースに格納されてもよい。 Next, in step 803, the change unit randomly selects an arbitrary hyperparameter from the second set of hyperparameters and outputs it. The hyperparameters selected here may be used for training the reinforcement learning unit, may be set in the machine learning model, or may be stored in the upper hyperparameter database.

次に、図10を参照して、本発明の実施例1に係る強化学習部による処理について説明する。 Next, with reference to FIG. 10, the processing by the reinforcement learning unit according to the first embodiment of the present invention will be described.

図10は、本発明の実施例1に係る強化学習部による処理900を示すフローチャートである。この処理900は、ハイパーパラメータを生成し、ハイパーパラメータの評価点数に基づいて強化学習部を訓練する処理を示す。 FIG. 10 is a flowchart showing the process 900 by the reinforcement learning unit according to the first embodiment of the present invention. This process 900 shows a process of generating hyperparameters and training the reinforcement learning unit based on the evaluation points of the hyperparameters.

まず、ステップ901では、強化学習部は、第1のハイパーパラメータのセットを探索(exploration)で生成するか、搾取(exploitation)で生成するかを判定するためには、0以上1未満のランダムな値を生成する。 First, in step 901, the reinforcement learning unit randomly generates 0 or more and less than 1 in order to determine whether the first hyperparameter set is generated by exploration or exploitation. Generate a value.

次に、ステップ902では、強化学習部は、ランダムに生成した値を第1のエプシロンパラメータε1に比較する。ランダムに生成した値が第1のエプシロンパラメータε1以上の場合には、本処理はステップ903に進み、ランダムに生成した値が第1のエプシロンパラメータε1未満の場合には、本処理はステップ904に進む。
なお、第1のエプシロンパラメータε1は、予めユーザに設定される値である。
Next, in step 902, the reinforcement learning unit compares the randomly generated value with the first epsilon parameter ε1. If the randomly generated value is greater than or equal to the first epsilon parameter ε1, the process proceeds to step 903, and if the randomly generated value is less than the first epsilon parameter ε1, the process proceeds to step 904. move on.
The first epsilon parameter ε1 is a value set in advance by the user.

ステップ903では、強化学習部は、いわゆる「搾取」の手段として、再帰型ニューラルネットワークの順伝播計算を用いて、ハイパーパラメータのシーケンスを第1のハイパーパラメータのセットとして生成する。 In step 903, the reinforcement learning unit uses forward propagation calculation of a recurrent neural network as a means of so-called "exploitation" to generate a sequence of hyperparameters as a first set of hyperparameters.

ステップ904では、強化学習部は、探索の手段として、上述した変更部を用いるか、ハイパーパラメータ空間から一様に抽出したハイパーパラメータを用いるかを判定するためには、0以上1未満のランダムな値を生成する。 In step 904, the reinforcement learning unit randomly determines whether to use the above-mentioned change unit or the hyperparameters uniformly extracted from the hyperparameter space as the search means. Generate a value.

次に、ステップ905では、強化学習部は、ランダムに生成した値を第2のエプシロンパラメータε2に比較する。ランダムに生成した値が第2のエプシロンパラメータε2以上の場合には、本処理はステップ907に進み、ランダムに生成した値が第2のエプシロンパラメータε2未満の場合には、本処理はステップ906に進む。
なお、第2のエプシロンパラメータε2は、予めユーザに設定される値である。
Next, in step 905, the reinforcement learning unit compares the randomly generated value with the second epsilon parameter ε2. If the randomly generated value is greater than or equal to the second epsilon parameter ε2, the process proceeds to step 907, and if the randomly generated value is less than the second epsilon parameter ε2, the process proceeds to step 906. move on.
The second epsilon parameter ε2 is a value set in advance by the user.

ステップ906では、強化学習部は、変更部を呼び出し、第1のハイパーパラメータのセットに基づいた第2のハイパーパラメータを生成させる。この処理は、上述した処理800に対応する。 In step 906, the reinforcement learning unit calls the modification unit to generate a second hyperparameter based on the first hyperparameter set. This process corresponds to process 800 described above.

ステップ907では、強化学習部は、候補ハイパーパラメータデータベースの候補ハイパーパラメータ空間から一様に抽出したハイパーパラメータを第1のハイパーパラメータのセットとして生成する。 In step 907, the reinforcement learning unit generates hyperparameters uniformly extracted from the candidate hyperparameter space of the candidate hyperparameter database as a first set of hyperparameters.

次に、ステップ908では、強化学習部は、ステップ903、ステップ906、又はステップ907で生成されたハイパーパラメータのセットを処理部及びモデル作成部に送信する。その後、処理部及びモデル作成部はそれぞれ、上述した処理(処理500及び処理600)を行う。 Next, in step 908, the reinforcement learning unit transmits the set of hyperparameters generated in step 903, step 906, or step 907 to the processing unit and the model creation unit. After that, the processing unit and the model creation unit perform the above-mentioned processing (processing 500 and processing 600), respectively.

次に、ステップ909では、処理部、モデル作成部、及び評価部による処理が終了した後、強化学習部は、ハイパーパラメータのセットについて計算された評価点数を評価部から受信する。 Next, in step 909, after the processing by the processing unit, the model creation unit, and the evaluation unit is completed, the reinforcement learning unit receives the evaluation score calculated for the hyperparameter set from the evaluation unit.

次に、ステップ910では、強化学習部は、ポリシー勾配法を用いて、受信した評価点数に基づいて、再帰型ネットワークの重み付けを更新する。例えば、ハイパーパラメータの評価点数が低い(所定の評価基準を達成しない)場合には、強化学習部は、再帰型ネットワークの重み付けを減少してもよい。また、ハイパーパラメータの評価点数が高い(所定の評価基準を達成する)場合には、強化学習部は、再帰型ネットワークの重み付けを増加してもよい。これにより、強化学習部の再帰型ネットワークはよりよいハイパーパラメータを生成するように訓練される。 Next, in step 910, the reinforcement learning unit updates the weighting of the recurrent network based on the received evaluation score by using the policy gradient method. For example, when the evaluation score of the hyperparameter is low (the predetermined evaluation standard is not achieved), the reinforcement learning unit may reduce the weighting of the recurrent network. Further, when the evaluation score of the hyperparameter is high (achieving a predetermined evaluation standard), the reinforcement learning unit may increase the weighting of the recurrent network. This trains the recurrent network of the reinforcement learning department to generate better hyperparameters.

次に、図11を参照して、本発明の実施例2に係るハイパーパラメータ管理システムの構成について説明する。 Next, the configuration of the hyperparameter management system according to the second embodiment of the present invention will be described with reference to FIG.

図11は、本発明の実施例2に係るハイパーパラメータ管理システム1150の構成を示す図である。図11に示すハイパーパラメータ管理システム1150は、図2を参照して説明したハイパーパラメータ管理システム150の構成要素の他に、予測調整部126を備える点において、ハイパーパラメータ管理システム150と異なる。この点以外、ハイパーパラメータ管理システム1150の構成はハイパーパラメータ管理システム150の構成と実質的に同様であるため、その説明は省略する。 FIG. 11 is a diagram showing the configuration of the hyperparameter management system 1150 according to the second embodiment of the present invention. The hyperparameter management system 1150 shown in FIG. 11 is different from the hyperparameter management system 150 in that it includes a prediction adjustment unit 126 in addition to the components of the hyperparameter management system 150 described with reference to FIG. Other than this point, the configuration of the hyperparameter management system 1150 is substantially the same as the configuration of the hyperparameter management system 150, and thus the description thereof will be omitted.

機械学習モデルの中には、出力となる確率分布が二極化する等、汎用性に欠けるモデルがある。例えば、ローンがデフォルトされる確率を予測する機械学習モデルの確率分布では、ローンがデフォルトされる確率がほぼ100%又はほぼ0%等のような極端の2択に分かれるものがある。このような二極化した結果では、有意義な結論を導出することが難しいため、「100%」と「0%」の間をより滑らかな確率分布で示す機械学習モデルが望ましい。 Some machine learning models lack versatility, such as the polarization of the output probability distribution. For example, in the probability distribution of a machine learning model that predicts the probability that a loan will be defaulted, the probability that a loan will be defaulted may be divided into two extreme options such as almost 100% or almost 0%. Since it is difficult to draw meaningful conclusions from such polarized results, a machine learning model that shows a smoother probability distribution between "100%" and "0%" is desirable.

従って、本発明の実施例2に係るハイパーパラメータ管理システム1150は、所望の確率分布に応じてハイパーパラメータの評価点数を調整する予測調整部126を含む。これにより、モデル作成部122によって作成される機械学習モデルは、より有意義な確率分布を有する予測結果を生成するように訓練される。
なお、予測調整部126の機能については後述する。
Therefore, the hyperparameter management system 1150 according to the second embodiment of the present invention includes a prediction adjustment unit 126 that adjusts the evaluation points of the hyperparameters according to a desired probability distribution. As a result, the machine learning model created by the model creation unit 122 is trained to generate a prediction result having a more meaningful probability distribution.
The function of the prediction adjustment unit 126 will be described later.

次に、図12を参照して、本発明の実施例2に係るハイパーパラメータ管理システムの機能的構成について説明する。 Next, with reference to FIG. 12, the functional configuration of the hyperparameter management system according to the second embodiment of the present invention will be described.

図12は、本発明の実施例2に係るハイパーパラメータ管理システムの機能的構成1250を示すブロック図である。図12に示す機能的構成1250は、図3を参照して説明した機能的構成250の構成要素の他に、予測調整部126を備える点において、機能的構成250と異なる。この点以外、機能的構成1250の構成は機能的構成250と実質的に同様であるため、その説明は省略する。 FIG. 12 is a block diagram showing a functional configuration 1250 of the hyperparameter management system according to the second embodiment of the present invention. The functional configuration 1250 shown in FIG. 12 differs from the functional configuration 250 in that it includes a predictive adjustment unit 126 in addition to the components of the functional configuration 250 described with reference to FIG. Other than this point, the configuration of the functional configuration 1250 is substantially the same as that of the functional configuration 250, and thus the description thereof will be omitted.

予測調整部126は、モデル作成部122の機械学習モデル(図示せず)によって生成された予測結果と、ハイパーパラメータの評価点数とを受信する。ここでの予測結果とは、例えば対象データに基づいて生成された、ローンのデフォルト、不正の金融取引、病気の進行等のイベントに関する確率分布であってもよい。 The prediction adjustment unit 126 receives the prediction result generated by the machine learning model (not shown) of the model creation unit 122 and the evaluation score of the hyperparameter. The prediction result here may be, for example, a probability distribution regarding events such as loan defaults, fraudulent financial transactions, and disease progression, which are generated based on the target data.

次に、予測調整部126は、機械学習モデルによって生成された予測結果を、予め入力された所望の予測分布に比較し、この比較の結果に基づいて、ハイパーパラメータの評価点数を調整する。この所望の予測分布は、例えばユーザが望む確率分布を示す参考用のデータであってもよい。評価点数が調整されたハイパーパラメータのうち、所定の評価基準を達成するハイパーパラメータは上位ハイパーパラメータデータベース132に格納される。
なお、ハイパーパラメータ調整の詳細については後述する。
Next, the prediction adjustment unit 126 compares the prediction result generated by the machine learning model with the desired prediction distribution input in advance, and adjusts the evaluation score of the hyperparameter based on the result of this comparison. This desired prediction distribution may be, for example, reference data showing a probability distribution desired by the user. Among the hyperparameters whose evaluation points have been adjusted, the hyperparameters that achieve a predetermined evaluation criterion are stored in the upper hyperparameter database 132.
The details of hyperparameter adjustment will be described later.

次に、図13を参照して、本発明の実施例2に係る予測調整部による処理について説明する。 Next, with reference to FIG. 13, the processing by the prediction adjustment unit according to the second embodiment of the present invention will be described.

図13は、本発明の実施例2に係る予測調整部による処理1300を示すフローチャートである。この処理1300は、機械学習モデルの予測結果と所望の予測分布との比較に基づいて、ハイパーパラメータの評価点数を調整する処理の各工程を示す。 FIG. 13 is a flowchart showing the process 1300 by the prediction adjustment unit according to the second embodiment of the present invention. This process 1300 shows each step of the process of adjusting the evaluation score of the hyperparameter based on the comparison between the prediction result of the machine learning model and the desired prediction distribution.

まず、ステップ1301では、予測調整部は、モデル作成部122の機械学習モデル(図示せず)によって生成された予測結果を受信する。この予測結果は、例えば、複数のテスト用データに基づいて生成された予測を1つの予測分布に集約したものであってもよい。 First, in step 1301, the prediction adjustment unit receives the prediction result generated by the machine learning model (not shown) of the model creation unit 122. This prediction result may be, for example, a collection of predictions generated based on a plurality of test data into one prediction distribution.

次に、ステップ1302では、予測調整部は、機械学習モデルの予測結果と、予め入力された所望の予測分布を比較し、予測結果と所望の予測分布の差異を示す距離を計算する。この距離は、例えばカルバック・ライブラー距離の計算手段によって計算されてもよい。 Next, in step 1302, the prediction adjustment unit compares the prediction result of the machine learning model with the desired prediction distribution input in advance, and calculates the distance indicating the difference between the prediction result and the desired prediction distribution. This distance may be calculated, for example, by means of calculating the Kullback-Leibler distance.

次に、ステップ1303では、予測調整部は、予測結果と所望の予測分布の距離に基づいて、ハイパーパラメータの評価点数を調整する。具体的には、予測結果が、予測結果分布に対する所定の類似度基準を達成する場合には、予測調整部はハイパーパラメータの評価点数を増加させる。一方、予測結果が、予測結果分布に対する所定の類似度基準を達成しない場合には、予測調整部はハイパーパラメータの評価点数を現象させてもよい。ここでの類似度基準は、例えば所定の距離の値を指定する基準である。 Next, in step 1303, the prediction adjustment unit adjusts the evaluation score of the hyperparameter based on the distance between the prediction result and the desired prediction distribution. Specifically, when the prediction result achieves a predetermined similarity criterion with respect to the prediction result distribution, the prediction adjustment unit increases the evaluation score of the hyperparameter. On the other hand, if the prediction result does not achieve a predetermined similarity criterion with respect to the prediction result distribution, the prediction adjustment unit may make the evaluation score of the hyperparameter phenomenon. The similarity standard here is, for example, a standard for designating a value of a predetermined distance.

次に、ステップ1304では、予測調整部は、評価点数を調整したハイパーパラメータを出力する。例えば、上述したように、予測調整部は、評価点数が調整されたハイパーパラメータのうち、所定の評価基準を達成するハイパーパラメータを上位ハイパーパラメータデータベースに格納してもよい。 Next, in step 1304, the prediction adjustment unit outputs hyperparameters adjusted for evaluation points. For example, as described above, the prediction adjustment unit may store the hyperparameters whose evaluation points have been adjusted to achieve the predetermined evaluation criteria in the upper hyperparameter database.

このように、所望の予測分布に類似した予測結果の生成を促すハイパーパラメータが高い評価点数となり、所望の予測分布に類似しない予測結果の生成を促すハイパーパラメータが低い評価点数となる。これにより、モデル作成部が機械学習モデルを作成する際に、高い評価点数のハイパーパラメータを用いることで、ユーザが望む予測分布を有する予測結果が生成できる機械学習モデルを実現することができる。 As described above, the hyperparameters that promote the generation of prediction results similar to the desired prediction distribution have a high evaluation score, and the hyperparameters that promote the generation of prediction results that do not resemble the desired prediction distribution have a low evaluation score. As a result, when the model creation unit creates a machine learning model, it is possible to realize a machine learning model that can generate a prediction result having a prediction distribution desired by the user by using a hyperparameter with a high evaluation score.

次に、図14を参照して、本発明の実施例3に係るハイパーパラメータ管理システムの構成について説明する。 Next, the configuration of the hyperparameter management system according to the third embodiment of the present invention will be described with reference to FIG.

図14は、本発明の実施例3に係るハイパーパラメータ管理システム1400の構成を示す図である。以上説明した実施例1及び実施例2では、上位の処理用ハイパーパラメータ及びモデル用ハイパーパラメータを共に生成する構成について説明したが、本発明はそれに限定されず、上位の処理用ハイパーパラメータ及びモデル用ハイパーパラメータを個別に生成する構成も可能である。そのため、本発明の実施例3に係るハイパーパラメータ管理システム1400は、上位の処理用ハイパーパラメータと、モデル用ハイパーパラメータとを並行に生成する構成について説明する。
なお、ここでは、「上位の処理用ハイパーパラメータ及びモデル用ハイパーパラメータを個別に生成する」との表現は、上位の処理用ハイパーパラメータと、上位のモデル用ハイパーパラメータとを独立した機械学習パイプラインで生成することを意味する。これにより、上位の処理用ハイパーパラメータ及びモデル用ハイパーパラメータを同じ機械学習パイプラインで生成することに比べて、より評価点数の高いハイパーパラメータが得られやすくなる。
FIG. 14 is a diagram showing the configuration of the hyperparameter management system 1400 according to the third embodiment of the present invention. In Examples 1 and 2 described above, the configuration for generating both the higher-level processing hyperparameters and the model hyperparameters has been described, but the present invention is not limited thereto, and the higher-level processing hyperparameters and models are used. It is also possible to configure hyperparameters to be generated individually. Therefore, the hyperparameter management system 1400 according to the third embodiment of the present invention describes a configuration in which a hyperparameter for higher processing and a hyperparameter for a model are generated in parallel.
Here, the expression "generate higher-level processing hyperparameters and model hyperparameters individually" is a machine learning pipeline in which higher-level processing hyperparameters and higher-level model hyperparameters are independent. It means to generate with. This makes it easier to obtain hyperparameters with a higher evaluation score than generating higher-level processing hyperparameters and model hyperparameters in the same machine learning pipeline.

図14に示すように、処理用ハイパーパラメータ及びモデル用ハイパーパラメータの生成を並行に行うためには、ハイパーパラメータ管理システム1400のハイパーパラメータ管理サーバ100は、2つのプロセッサ110、210、2つのメモリ110、220、及び2つの記憶部130、230を含んでもよい。プロセッサ110、210は、物理的に独立されているプロセッサであってもよく、同一のプロセッサの異なるコアであってもよい。同様に、メモリ120、220及び記憶部130、230は、物理的に独立されているものであってもよく、同一の記憶媒体の異なるパーティションであってもよい。 As shown in FIG. 14, in order to generate the hyperparameters for processing and the hyperparameters for models in parallel, the hyperparameter management server 100 of the hyperparameter management system 1400 has two processors 110, 210 and two memories 110. , 220, and two storage units 130, 230 may be included. The processors 110 and 210 may be physically independent processors or may be different cores of the same processor. Similarly, the memories 120, 220 and the storage units 130, 230 may be physically independent or may be different partitions of the same storage medium.

上述したように、実施例2では、処理用ハイパーパラメータを生成する処理と、モデル用ハイパーパラメータを生成する処理とが個別に行われる。そのため、処理用ハイパーパラメータを生成する処理では、強化学習部124は、モデル用ハイパーパラメータを生成しない。しかし、処理用ハイパーパラメータを生成する処理において、機械学習モデルを作成するためには、モデル用ハイパーパラメータが必要となる。同様に、モデル用ハイパーパラメータを生成する処理において、対象データの前処理を行うためには、処理用ハイパーパラメータが必要となる。
従って、本実施形態に係るハイパーパラメータ管理システム1400は、処理用ハイパーパラメータを生成する処理において用いられるモデル用ハイパーパラメータが事前に格納されている固定のモデル用ハイパーパラメータデータベース135と、モデル用ハイパーパラメータを生成するする処理において用いられる処理用ハイパーパラメータが事前に格納されている固定の処理用ハイパーパラメータデータベース235とを含む。
これにより、処理用ハイパーパラメータ又はモデル用ハイパーパラメータを生成する処理において、他の種類のハイパーパラメータが必要になった際に、当該ハイパーパラメータが該当するデータベースから読み出され、適宜に使用される。なお、これらの固定のハイパーパラメータの値が固定されているため、評価部125や変更部123の処理によって変更されない。
As described above, in the second embodiment, the process of generating the hyperparameters for processing and the process of generating the hyperparameters for the model are individually performed. Therefore, in the process of generating the hyperparameters for processing, the reinforcement learning unit 124 does not generate the hyperparameters for the model. However, in the process of generating the hyperparameters for processing, the hyperparameters for the model are required to create the machine learning model. Similarly, in the process of generating the model hyperparameters, the process hyperparameters are required in order to perform the preprocessing of the target data.
Therefore, the hyperparameter management system 1400 according to the present embodiment has a fixed model hyperparameter database 135 in which the model hyperparameters used in the process of generating the processing hyperparameters are stored in advance, and the model hyperparameters. It includes a fixed processing hyperparameter database 235 in which processing hyperparameters used in the processing for generating the above are stored in advance.
As a result, when other types of hyperparameters are required in the process of generating the processing hyperparameters or the model hyperparameters, the hyperparameters are read from the corresponding database and used as appropriate. Since the values of these fixed hyperparameters are fixed, they are not changed by the processing of the evaluation unit 125 and the change unit 123.

図14に示すように、記憶部130は、処理用ハイパーパラメータを生成する候補処理用ハイパーパラメータデータベース133と、所定の評価基準を達成する処理用ハイパーパラメータを格納する上位処理用ハイパーパラメータデータベース134と、機械学習モデルを作成する際に用いる固定のモデル用ハイパーパラメータを格納する固定のモデル用ハイパーパラメータデータベース135とを含む。
また、記憶部230は、モデル用ハイパーパラメータを生成する候補モデル用ハイパーパラメータデータベース233と、所定の評価基準を達成するモデル用ハイパーパラメータを格納する上位モデル用ハイパーパラメータデータベース234と、対象データを処理する際に用いる処理用ハイパーパラメータを格納する固定の処理用ハイパーパラメータデータベース235とを含む。
As shown in FIG. 14, the storage unit 130 includes a candidate processing hyperparameter database 133 that generates processing hyperparameters, and a higher-level processing hyperparameter database 134 that stores processing hyperparameters that achieve a predetermined evaluation criterion. , Includes a fixed model hyperparameter database 135 that stores fixed model hyperparameters used when creating machine learning models.
Further, the storage unit 230 processes the target data, the hyperparameter database 233 for the candidate model that generates the hyperparameters for the model, the hyperparameter database 234 for the upper model that stores the hyperparameters for the model that achieves the predetermined evaluation criteria, and the target data. It includes a fixed processing hyperparameter database 235 that stores the processing hyperparameters used in the process.

なお、以上説明した点以外、ハイパーパラメータ管理システム1400の構成は上述したハイパーパラメータ管理システム150と実施的に同様であるため、その説明は省略する。 Other than the points described above, the configuration of the hyperparameter management system 1400 is practically the same as that of the hyperparameter management system 150 described above, and thus the description thereof will be omitted.

次に、図15を参照して、本発明の実施例3に係るハイパーパラメータ管理システムの機能的構成について説明する。 Next, with reference to FIG. 15, the functional configuration of the hyperparameter management system according to the third embodiment of the present invention will be described.

図15は、本発明の実施例3に係るハイパーパラメータ管理システムの機能的構成1450を示すブロック図である。上述したように、本発明の実施例3では、処理用ハイパーパラメータと、モデル用ハイパーパラメータとが個別の処理で生成される。従って、図15に示すように、上述した強化学習部、処理部、モデル作成部、変更部及び評価部の機能が、処理用ハイパーパラメータ及びモデル用ハイパーパラメータ毎に、並行に実行される。具体的な処理手順や、機能部間のデータの送受信は、図3を参照して説明したとの実施的に同様であるため、ここではその説明を省略する。 FIG. 15 is a block diagram showing a functional configuration 1450 of the hyperparameter management system according to the third embodiment of the present invention. As described above, in the third embodiment of the present invention, the processing hyperparameters and the model hyperparameters are generated by separate processing. Therefore, as shown in FIG. 15, the functions of the reinforcement learning unit, the processing unit, the model creating unit, the changing unit, and the evaluation unit described above are executed in parallel for each of the processing hyperparameters and the model hyperparameters. Since the specific processing procedure and the transmission / reception of data between the functional units are substantially the same as those described with reference to FIG. 3, the description thereof will be omitted here.

次に、図16を参照して、本発明の実施例4に係るハイパーパラメータ管理システムの構成について説明する。 Next, the configuration of the hyperparameter management system according to the fourth embodiment of the present invention will be described with reference to FIG.

図16は、本発明の実施例4に係るハイパーパラメータ管理システム1600の構成を示す図である。図16に示すハイパーパラメータ管理システム1600は、上述したハイパーパラメータ管理システム1400と同様に、処理用ハイパーパラメータと、モデル用ハイパーパラメータを並行に処理する構成である。ただし、ハイパーパラメータ管理システム1600は、固定のハイパーパラメータデータベースに格納されているハイパーパラメータを更新するハイパーパラメータ更新部321を含む点において、ハイパーパラメータ管理システム1400と異なる。この点以外、ハイパーパラメータ管理システム1600の構成はハイパーパラメータ管理システム1400の構成と実質的に同様であるため、その説明は省略する。 FIG. 16 is a diagram showing the configuration of the hyperparameter management system 1600 according to the fourth embodiment of the present invention. The hyperparameter management system 1600 shown in FIG. 16 has a configuration in which a processing hyperparameter and a model hyperparameter are processed in parallel, similarly to the hyperparameter management system 1400 described above. However, the hyperparameter management system 1600 is different from the hyperparameter management system 1400 in that it includes a hyperparameter update unit 321 that updates hyperparameters stored in a fixed hyperparameter database. Other than this point, the configuration of the hyperparameter management system 1600 is substantially the same as the configuration of the hyperparameter management system 1400, and thus the description thereof will be omitted.

処理用ハイパーパラメータと、モデル用ハイパーパラメータを独立して最適化する場合には、1種のハイパーパラメータを固定した状態で、もう1種のハイパーパラメータが最適化される。そのため、処理用ハイパーパラメータとモデル用ハイパーパラメータの両方が最適化されたハイパーパラメータセットを実現するためには、固定したハイパーパラメータを、別の機械学習パイプラインにおいて最適化されたハイパーパラメータに基づいて更新することが望ましい。 When the processing hyperparameter and the model hyperparameter are optimized independently, one type of hyperparameter is fixed and the other type of hyperparameter is optimized. Therefore, in order to realize a hyperparameter set in which both the processing hyperparameters and the model hyperparameters are optimized, fixed hyperparameters are based on the hyperparameters optimized in another machine learning pipeline. It is desirable to update.

図16に示すように、ハイパーパラメータ管理システム1600は、第3のプロセッサ313と、メモリ323と、ハイパーパラメータ更新部321とを含む。このハイパーパラメータ更新部321は、所定の頻度で、上位モデル用ハイパーパラメータデータベース234に格納されている上位モデル用ハイパーパラメータを、固定のモデル用ハイパーパラメータデータベース135に移行し、上位処理用ハイパーパラメータデータベース134に格納されている上位処理用ハイパーパラメータを、固定の処理用ハイパーパラメータデータベース235に移行する機能部である。
これにより、固定のハイパーパラメータが上位ハイパーパラメータに置き換えられるため、最新で最も評価点数の高いハイパーパラメータがそれぞれの機械学習パイプラインにおいて使用される。
As shown in FIG. 16, the hyperparameter management system 1600 includes a third processor 313, a memory 323, and a hyperparameter update unit 321. This hyperparameter update unit 321 migrates the hyperparameters for the upper model stored in the hyperparameter database 234 for the upper model to the hyperparameter database 135 for the fixed model at a predetermined frequency, and hyperparameter database for upper processing. It is a functional part that migrates the hyperparameters for higher processing stored in 134 to the fixed hyperparameter database 235 for processing.
This replaces the fixed hyperparameters with the higher-level hyperparameters, so that the latest and highest-rated hyperparameters are used in each machine learning pipeline.

次に、図17を参照して、本発明の実施例4に係るハイパーパラメータ管理システムの機能的構成について説明する。 Next, with reference to FIG. 17, the functional configuration of the hyperparameter management system according to the fourth embodiment of the present invention will be described.

図17は、本発明の実施例4に係るハイパーパラメータ管理システムの機能的構成1750を示す図である。図17に示すように、ハイパーパラメータ更新部321は、所定の頻度で、上位モデル用ハイパーパラメータデータベース234に格納されている上位モデル用ハイパーパラメータを、固定のモデル用ハイパーパラメータデータベース135に移行し、上位処理用ハイパーパラメータデータベース134に格納されている上位処理用ハイパーパラメータを、固定の処理用ハイパーパラメータデータベース235に移行する。
なお、この点以外、図17に示すハイパーパラメータ管理システムの機能的構成1750は、図3に示すハイパーパラメータ管理システムの機能的構成250と実質的に同様であるため、ここではその説明を省略する。
FIG. 17 is a diagram showing a functional configuration 1750 of the hyperparameter management system according to the fourth embodiment of the present invention. As shown in FIG. 17, the hyperparameter update unit 321 migrates the hyperparameters for the upper model stored in the hyperparameter database 234 for the upper model to the hyperparameter database 135 for the fixed model at a predetermined frequency. The hyperparameters for higher processing stored in the hyperparameter database 134 for higher processing are migrated to the fixed hyperparameter database 235 for processing.
Other than this point, the functional configuration 1750 of the hyperparameter management system shown in FIG. 17 is substantially the same as the functional configuration 250 of the hyperparameter management system shown in FIG. 3, and therefore the description thereof will be omitted here. ..

次に、図18を参照して、本発明の実施例4に係るハイパーパラメータ更新部による処理について説明する。 Next, the process by the hyperparameter update unit according to the fourth embodiment of the present invention will be described with reference to FIG.

図18は、本発明の実施例4に係るハイパーパラメータ更新部による処理1800を示すフローチャートである。この処理1800は、固定のハイパーパラメータデータベースに格納されているハイパーパラメータを、上位のハイパーパラメータで更新する処理を示す。 FIG. 18 is a flowchart showing processing 1800 by the hyperparameter update unit according to the fourth embodiment of the present invention. This process 1800 indicates a process of updating the hyperparameters stored in the fixed hyperparameter database with higher-level hyperparameters.

まず、ステップ1601では、ハイパーパラメータ更新部は、所定のハイパーパラメータ更新条件が満たされているか否かを判定する。このハイパーパラメータ更新条件は、ハイパーパラメータを更新する時間や状況を定める条件である。このハイパーパラメータ更新条件は、例えば前回の更新からの所定時間の経過(1時間、1日、1週間)、訓練された機械学習モデルの数、上位ハイパーパラメータの数等、任意の条件であってもよい。ハイパーパラメータ更新条件が満たされている場合には、本処理はステップ1602に進み、ハイパーパラメータ更新条件が満たされていない場合には、本処理は終了する。 First, in step 1601, the hyperparameter update unit determines whether or not a predetermined hyperparameter update condition is satisfied. This hyperparameter update condition is a condition that determines the time and situation for updating the hyperparameter. This hyperparameter update condition is an arbitrary condition such as the elapse of a predetermined time (1 hour, 1 day, 1 week) since the last update, the number of trained machine learning models, the number of upper hyperparameters, and the like. May be good. If the hyperparameter update condition is satisfied, this process proceeds to step 1602, and if the hyperparameter update condition is not satisfied, this process ends.

次に、ステップ1602では、ハイパーパラメータ更新部は、上位処理用ハイパーパラメータデータベースに格納されている上位処理用ハイパーパラメータを、固定の処理用ハイパーパラメータデータベースに移行する。この際、固定の処理用ハイパーパラメータデータベースに格納されているハイパーパラメータは、上位処理用ハイパーパラメータによって上書きされてもよく、予備のハイパーパラメータとして保管されてもよい。 Next, in step 1602, the hyperparameter update unit shifts the hyperparameters for higher processing stored in the hyperparameter database for higher processing to the fixed hyperparameter database for processing. At this time, the hyperparameters stored in the fixed processing hyperparameter database may be overwritten by the higher-level processing hyperparameters, or may be stored as spare hyperparameters.

次に、ステップ1603では、ハイパーパラメータ更新部は、上位モデル用ハイパーパラメータデータベースに格納されている上位モデル用ハイパーパラメータを、固定のモデル用ハイパーパラメータデータベースに移行する。また、上述したように、この際には、固定のモデル用ハイパーパラメータデータベースに格納されているハイパーパラメータは、上位モデル用ハイパーパラメータによって上書きされてもよく、予備のハイパーパラメータとして保管されてもよい。 Next, in step 1603, the hyperparameter update unit shifts the hyperparameters for the upper model stored in the hyperparameter database for the upper model to the hyperparameter database for the fixed model. Further, as described above, in this case, the hyperparameters stored in the fixed model hyperparameter database may be overwritten by the hyperparameters for the upper model, or may be stored as spare hyperparameters. ..

次に、図19を参照して、本発明の実施例5に係るハイパーパラメータ管理システムの構成について説明する。 Next, the configuration of the hyperparameter management system according to the fifth embodiment of the present invention will be described with reference to FIG.

図19は、本発明の実施例5に係るハイパーパラメータ管理システム1900の構成を示す図である。図19に示すハイパーパラメータ管理システム1900は、上述したハイパーパラメータ管理システム1400と同様に、処理用ハイパーパラメータと、モデル用ハイパーパラメータとを並行に生成する構成である。ただし、ハイパーパラメータ管理システム1900は、独立して生成された上位処理用ハイパーパラメータ及び上位モデル用ハイパーパラメータを合成するハイパーパラメータ合成部325を含む点において、ハイパーパラメータ管理システム1400と異なる。この点以外、ハイパーパラメータ管理システム1900の構成はハイパーパラメータ管理システム1400の構成と実質的に同様であるため、その説明は省略する。 FIG. 19 is a diagram showing a configuration of a hyperparameter management system 1900 according to a fifth embodiment of the present invention. The hyperparameter management system 1900 shown in FIG. 19 has a configuration in which a processing hyperparameter and a model hyperparameter are generated in parallel, similarly to the hyperparameter management system 1400 described above. However, the hyperparameter management system 1900 is different from the hyperparameter management system 1400 in that it includes a hyperparameter synthesis unit 325 that synthesizes hyperparameters for higher-level processing and hyperparameters for higher-level models that are independently generated. Other than this point, the configuration of the hyperparameter management system 1900 is substantially the same as the configuration of the hyperparameter management system 1400, and thus the description thereof will be omitted.

処理用ハイパーパラメータと、モデル用ハイパーパラメータを独立して最適化する場合には、上位処理用ハイパーパラメータ及び上位モデル用ハイパーパラメータはそれぞれ別のデータベースに格納される。そのため、処理用ハイパーパラメータとモデル用ハイパーパラメータの両方が最適化されたハイパーパラメータセットを実現するためには、上位処理用ハイパーパラメータと、上位モデル用ハイパーパラメータとを合成することが望ましい。 When the processing hyperparameters and the model hyperparameters are optimized independently, the higher-level processing hyperparameters and the higher-level model hyperparameters are stored in separate databases. Therefore, in order to realize a hyperparameter set in which both the processing hyperparameters and the model hyperparameters are optimized, it is desirable to synthesize the upper processing hyperparameters and the upper model hyperparameters.

図19に示すように、ハイパーパラメータ管理システム1900は、第3のプロセッサ313と、メモリ323と、ハイパーパラメータ合成部325とを含む。このハイパーパラメータ合成部325は、上位処理用ハイパーパラメータを上位処理用ハイパーパラメータデータベース134から抽出し、上位モデル用ハイパーパラメータを上位モデル用ハイパーパラメータデータベース234から抽出し、当該抽出した上位処理用ハイパーパラメータ及び上位モデル用ハイパーパラメータを合成することで、第2のハイパーパラメータのセットを生成する。ここで合成した第2のハイパーパラメータのセットは、図19に示す記憶部333の上位合成ハイパーパラメータデータベース335に格納される。 As shown in FIG. 19, the hyperparameter management system 1900 includes a third processor 313, a memory 323, and a hyperparameter synthesis unit 325. The hyperparameter synthesis unit 325 extracts hyperparameters for higher processing from the hyperparameter database 134 for higher processing, extracts hyperparameters for higher model from hyperparameter database 234 for higher model, and extracts the hyperparameters for higher processing. And by synthesizing the hyperparameters for the upper model, a second hyperparameter set is generated. The second hyperparameter set synthesized here is stored in the higher-level synthetic hyperparameter database 335 of the storage unit 333 shown in FIG.

次に、図20を参照して、本発明の実施例5に係るハイパーパラメータ管理システムの機能的構成について説明する。 Next, with reference to FIG. 20, the functional configuration of the hyperparameter management system according to the fifth embodiment of the present invention will be described.

図20は、本発明の実施例5に係るハイパーパラメータ管理システムの機能的構成2050を示す図である。上述したように、本発明の実施例5では、独立して生成された上位処理用ハイパーパラメータ及び上位モデル用ハイパーパラメータを合成することで第2のハイパーパラメータのセットが生成される。 FIG. 20 is a diagram showing a functional configuration 2050 of the hyperparameter management system according to the fifth embodiment of the present invention. As described above, in the fifth embodiment of the present invention, a second hyperparameter set is generated by synthesizing the independently generated hyperparameters for higher processing and hyperparameters for higher model.

図20に示すように、ハイパーパラメー合成部325は、上位処理用ハイパーパラメータを上位処理用ハイパーパラメータデータベース134から抽出し、上位モデル用ハイパーパラメータを上位モデル用ハイパーパラメータデータベース234から抽出し、当該抽出した上位処理用ハイパーパラメータ及び上位モデル用ハイパーパラメータを合成することで、第2のハイパーパラメータのセットを生成する。 As shown in FIG. 20, the hyperparameter synthesis unit 325 extracts hyperparameters for higher processing from the hyperparameter database 134 for higher processing, extracts hyperparameters for higher model from hyperparameter database 234 for higher model, and extracts the hyperparameters. A second hyperparameter set is generated by synthesizing the hyperparameters for higher processing and the hyperparameters for higher model.

その後、第2のハイパーパラメータのセットは、処理部121及びモデル作成部122に送信され、対象データの処理及び機械学習モデルの作成に用いられる。その後、評価部125は、第2のハイパーパラメータのセットについての評価点数を計算し、所定の評価基準を達成するハイパーパラメータを上位合成ハイパーパラメータデータベース335に格納する。
なお、この点以外、図20に示すハイパーパラメータ管理システムの機能的構成2050は、図3に示すハイパーパラメータ管理システムの機能的構成250と実質的に同様であるため、ここではその説明を省略する。
After that, the second hyperparameter set is transmitted to the processing unit 121 and the model creation unit 122, and is used for processing the target data and creating the machine learning model. After that, the evaluation unit 125 calculates the evaluation points for the second hyperparameter set, and stores the hyperparameters that achieve the predetermined evaluation criteria in the upper synthetic hyperparameter database 335.
Other than this point, the functional configuration 2050 of the hyperparameter management system shown in FIG. 20 is substantially the same as the functional configuration 250 of the hyperparameter management system shown in FIG. 3, and therefore the description thereof will be omitted here. ..

次に、図21を参照して、本発明の実施例5に係るハイパーパラメータ合成部による処理について説明する。 Next, with reference to FIG. 21, the process by the hyperparameter synthesizer according to the fifth embodiment of the present invention will be described.

図21は、本発明の実施例5に係るハイパーパラメータ合成部による処理2100を示すフローチャートである。この処理2100は、独立して生成された上位処理用ハイパーパラメータ及び上位モデル用ハイパーパラメータを合成する処理を示す。 FIG. 21 is a flowchart showing the process 2100 by the hyperparameter synthesis unit according to the fifth embodiment of the present invention. This process 2100 shows a process of synthesizing independently generated hyperparameters for higher processing and hyperparameters for higher model.

まず、ステップ1901では、合成部は、合成を行うためには必要な数の処理用ハイパーパラメータ及びモデル用ハイパーパラメータがあるか否かを判定する。原則として、合成を行うためには、少なくとも1つの上位処理用ハイパーパラメータと、少なくとも1つの上位モデル用ハイパーパラメータが必要である。
そのため、合成部は、上述した上位処理用ハイパーパラメータデータベース及び上位モデル用ハイパーパラメータデータベースを参照し、十分な数のハイパーパラメータが格納されているかを確認する。十分な数のハイパーパラメータがある場合には、本処理はステップ1902に進み、十分な数のハイパーパラメータがある場合には、本処理は終了する。
First, in step 1901, the compositing unit determines whether or not there are a necessary number of processing hyperparameters and model hyperparameters for compositing. As a general rule, at least one hyperparameter for higher-level processing and at least one hyperparameter for higher-level model are required for compositing.
Therefore, the synthesis unit refers to the hyperparameter database for upper processing and the hyperparameter database for upper models described above, and confirms whether a sufficient number of hyperparameters are stored. If there are a sufficient number of hyperparameters, this process proceeds to step 1902, and if there are a sufficient number of hyperparameters, this process ends.

次に、ステップ1902では、合成部は、上位処理用ハイパーパラメータを上位処理用ハイパーパラメータデータベースから抽出し、上位モデル用ハイパーパラメータを上位モデル用ハイパーパラメータデータベースから抽出し、当該抽出した上位処理用ハイパーパラメータ及び上位モデル用ハイパーパラメータを合成する。
一例として、上位処理用ハイパーパラメータデータベースに{“missing_value”:“median”}の上位処理用ハイパーパラメータがあり、上位モデル用ハイパーパラメータデータベースには、{“number_of_layers”:2}の上位モデル用ハイパーパラメータがある場合には、合成部は、これらのハイパーパラメータを合成し、{“missing_value”:“median”,“number_of_layers”:2}のハイパーパラメータを、第2のハイパーパラメータのセットとして生成する。
なお、説明の便宜上、上位処理用ハイパーパラメータが1つ、上位モデル用ハイパーパラメータが1つある場合について説明したが、本発明はそれに限定されず、それぞれの種類のハイパーパラメータが複数存在する場合にも適用可能であるというまでもない。この場合には、合成部は、上位処理用ハイパーパラメータ及び上位モデル用ハイパーパラメータの全ての順列を生成してもよい。
Next, in step 1902, the synthesis unit extracts the hyperparameters for higher processing from the hyperparameter database for higher processing, extracts the hyperparameters for higher model from the hyperparameter database for higher model, and extracts the hyperparameters for higher processing. Synthesize parameters and hyperparameters for higher model.
As an example, the hyperparameter database for higher processing has {"missing_value": "media"} hyperparameters for higher processing, and the hyperparameter database for upper model has {"number_of_layers": 2} hyperparameters for higher model. If there is, the synthesizer synthesizes these hyperparameters and generates the hyperparameters of {"missing_value": "media", "number_of_layers": 2} as a second set of hyperparameters.
For convenience of explanation, the case where there is one hyperparameter for higher processing and one hyperparameter for higher model has been described, but the present invention is not limited to this, and when there are a plurality of hyperparameters of each type. Needless to say that is also applicable. In this case, the synthesis unit may generate all the permutations of the hyperparameters for higher processing and the hyperparameters for higher models.

次に、ステップ1903では、合成部は、生成した第2のハイパーパラメータのセットを処理部及びモデル作成部に送信する。その後、上述したように、処理部は、第2のハイパーパラメータのセットに含まれる処理用ハイパーパラメータを用いて対象データを処理し、モデル作成部は、第2のハイパーパラメータのセットに含まれるモデル用ハイパーパラメータを用いて機械学習モデルを生成する。 Next, in step 1903, the synthesis unit transmits the generated second hyperparameter set to the processing unit and the model creation unit. After that, as described above, the processing unit processes the target data using the processing hyperparameters included in the second hyperparameter set, and the model creation unit uses the model included in the second hyperparameter set. Generate a machine learning model using hyperparameters.

以上説明した本発明に係る実施形態の機能は、プログラム製品として実現されてもよい。ここでのプログラム製品とは、コンピュータプログラムが記録されたコ ンピュータが読み取り可能な媒体である。プログラムコードを記録するための記憶媒体としては、例えばフレキシブルディスク、CD-ROM、DVD-ROM、ハードディスク、光ディスク、光磁気ディスク、CD-R、磁気テープ、不揮発性メモリカード、ROM等がある。 The functions of the embodiments according to the present invention described above may be realized as a program product. The program product here is a medium that can be read by a computer on which a computer program is recorded. Examples of the storage medium for recording the program code include flexible disks, CD-ROMs, DVD-ROMs, hard disks, optical disks, magneto-optical disks, CD-Rs, magnetic tapes, non-volatile memory cards, ROMs, and the like.

以上、本発明の実施の形態について説明したが、本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention.

100 ハイパーパラメータ管理サーバ
110 プロセッサ
120 メモリ
121 処理部
122 モデル作成部
123 変更部
124 強化学習部
125 評価部
130 記憶部
131 候補ハイパーパラメータデータベース
132 上位ハイパーパラメータデータベース
135A,135B クライアント端末
225 通信ネットワーク
100 Hyperparameter management server 110 Processor 120 Memory 121 Processing unit 122 Model creation unit 123 Change unit 124 Reinforcement learning unit 125 Evaluation unit 130 Storage unit 131 Candidate hyperparameter database 132 Upper hyperparameter database 135A, 135B Client terminal 225 Communication network

Claims (8)

ハイパーパラメータ管理装置であって、
処理用ハイパーパラメータとモデル用ハイパーパラメータとを含む第1のハイパーパラメータのセットを、候補ハイパーパラメータデータベースに格納される候補ハイパーパラメータ空間に基づいて生成する強化学習部と、
前記処理用ハイパーパラメータに基づいて、対象データを処理し、訓練用情報及びテスト用情報を生成する処理部と、
前記訓練用情報を用いて、前記モデル用ハイパーパラメータに基づいて機械学習モデルを作成するモデル作成部と、
前記テスト用情報を用いて前記機械学習モデルを検証し、前記第1のハイパーパラメータのセットについての評価点数を計算する評価部と、
所定の評価基準を達成するハイパーパラメータを格納する上位ハイパーパラメータデータベースと、
前記上位ハイパーパラメータデータベースに格納されている上位ハイパーパラメータに基づいて、第2のハイパーパラメータのセットを生成する変更部と、
を特徴とするハイパーパラメータ管理装置。
It is a hyperparameter management device
A reinforcement learning unit that generates a first set of hyperparameters including processing hyperparameters and model hyperparameters based on the candidate hyperparameter space stored in the candidate hyperparameter database.
A processing unit that processes target data based on the processing hyperparameters and generates training information and test information.
A model creation unit that creates a machine learning model based on the hyperparameters for the model using the training information.
An evaluation unit that verifies the machine learning model using the test information and calculates an evaluation score for the first hyperparameter set.
A high-level hyperparameter database that stores hyperparameters that meet certain evaluation criteria,
A change part that generates a second hyperparameter set based on the upper hyperparameters stored in the upper hyperparameter database, and
A hyperparameter management device characterized by.
前記変更部は、
前記上位ハイパーパラメータデータベースに格納されているハイパーパラメータのうち、
第1のハイパーパラメータの値と、第2のハイパーパラメータの値とを交換することで前記第2のハイパーパラメータのセットを生成する、
ことを特徴とする請求項1に記載のハイパーパラメータ管理装置。
The changed part
Among the hyperparameters stored in the upper hyperparameter database
By exchanging the value of the first hyperparameter with the value of the second hyperparameter, the set of the second hyperparameter is generated.
The hyperparameter management device according to claim 1.
前記変更部は、
前記上位ハイパーパラメータデータベースに格納されているハイパーパラメータのうち、
処理用ハイパーパラメータと、モデル用ハイパーパラメータとを合成することで前記第2のハイパーパラメータのセットを生成する、
ことを特徴とする請求項1に記載のハイパーパラメータ管理装置。
The changed part
Among the hyperparameters stored in the upper hyperparameter database
The second hyperparameter set is generated by synthesizing the processing hyperparameters and the model hyperparameters.
The hyperparameter management device according to claim 1.
前記モデル作成部は、
前記第2のハイパーパラメータのセットに基づいて第2の機械学習モデルを作成し、
前記第2の機械学習モデルは、対象データに基づいた予測結果を生成する、
ことを特徴とする請求項1に記載のハイパーパラメータ管理装置。
The model creation unit
Create a second machine learning model based on the second set of hyperparameters.
The second machine learning model generates a prediction result based on the target data.
The hyperparameter management device according to claim 1.
前記ハイパーパラメータ管理装置は、
前記予測結果を所望の予測結果分布に比較し、
前記予測結果が、前記所望の予測結果分布に対する類似度基準を達成する場合には、前記第2のハイパーパラメータのセットの評価点数を増加させ、
前記予測結果が、前記所望の予測結果分布に対する類似度基準を達成しない場合には、前記第2のハイパーパラメータのセットの評価点数を減少させる予測調整部、
を更に特徴とする請求項4に記載のハイパーパラメータ管理装置。
The hyperparameter management device
The prediction result is compared with the desired prediction result distribution, and
When the prediction result achieves the similarity criterion with respect to the desired prediction result distribution, the evaluation score of the second hyperparameter set is increased.
A prediction adjustment unit that reduces the evaluation score of the second hyperparameter set when the prediction result does not achieve the similarity criterion with respect to the desired prediction result distribution.
The hyperparameter management device according to claim 4, further comprising.
前記強化学習部は、
前記第2のハイパーパラメータのセットに基づいて、ポリシー勾配法を用いて訓練される、
ことを特徴とする請求項1に記載のハイパーパラメータ管理装置。
The reinforcement learning department
Based on the second set of hyperparameters, trained using the policy gradient method,
The hyperparameter management device according to claim 1.
ハイパーパラメータ管理方法であって、
処理用ハイパーパラメータとモデル用ハイパーパラメータとを含む第1のハイパーパラメータのセットを、候補ハイパーパラメータ空間に基づいて生成する工程と、
前記処理用ハイパーパラメータに基づいて、対象データを処理し、訓練用情報及びテスト用情報を生成する工程と、
前記訓練用情報を用いて、前記モデル用ハイパーパラメータに基づいて機械学習モデルを作成する工程と、
前記テスト用情報を用いて前記機械学習モデルを検証し、前記第1のハイパーパラメータのセットについての評価点数を計算する工程と、
所定の評価基準を達成上位ハイパーパラメータデータベースに基づいて、第2のハイパーパラメータのセットを生成する工程と、
を含むハイパーパラメータ管理方法。
It is a hyperparameter management method
A process of generating a first set of hyperparameters including processing hyperparameters and model hyperparameters based on the candidate hyperparameter space, and
A process of processing target data based on the processing hyperparameters and generating training information and test information, and
The process of creating a machine learning model based on the hyperparameters for the model using the training information, and
The process of verifying the machine learning model using the test information and calculating the evaluation score for the first hyperparameter set, and
Achieve certain evaluation criteria The process of generating a second set of hyperparameters based on the upper hyperparameter database, and
Hyperparameter management methods including.
ハイパーパラメータ管理プログラム製品であって、
前記ハイパーパラメータ管理プログラム製品は、
処理用ハイパーパラメータとモデル用ハイパーパラメータとを含む第1のハイパーパラメータのセットを、候補ハイパーパラメータ空間に基づいて生成する工程と、
前記処理用ハイパーパラメータに基づいて、対象データを処理し、訓練用情報及びテスト用情報を生成する工程と、
前記訓練用情報を用いて、前記モデル用ハイパーパラメータに基づいて機械学習モデルを作成する工程と、
前記テスト用情報を用いて前記機械学習モデルを検証し、前記第1のハイパーパラメータのセットについての評価点数を計算する工程と、
所定の評価基準を達成上位ハイパーパラメータデータベースに基づいて、第2のハイパーパラメータのセットを生成する工程と、
を実行させるためのコンピュータプログラムを記録したプログラム製品。
It is a hyperparameter management program product
The hyperparameter management program product
A process of generating a first set of hyperparameters including processing hyperparameters and model hyperparameters based on the candidate hyperparameter space, and
A process of processing target data based on the processing hyperparameters and generating training information and test information, and
The process of creating a machine learning model based on the hyperparameters for the model using the training information, and
The process of verifying the machine learning model using the test information and calculating the evaluation score for the first hyperparameter set, and
Achieve certain evaluation criteria The process of generating a second set of hyperparameters based on the upper hyperparameter database, and
A program product that records computer programs for executing.
JP2019110263A 2019-06-13 2019-06-13 Hyperparameter management device, hyperparameter management method and hyperparameter management program product Active JP7215966B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019110263A JP7215966B2 (en) 2019-06-13 2019-06-13 Hyperparameter management device, hyperparameter management method and hyperparameter management program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019110263A JP7215966B2 (en) 2019-06-13 2019-06-13 Hyperparameter management device, hyperparameter management method and hyperparameter management program product

Publications (2)

Publication Number Publication Date
JP2020201870A true JP2020201870A (en) 2020-12-17
JP7215966B2 JP7215966B2 (en) 2023-01-31

Family

ID=73742673

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019110263A Active JP7215966B2 (en) 2019-06-13 2019-06-13 Hyperparameter management device, hyperparameter management method and hyperparameter management program product

Country Status (1)

Country Link
JP (1) JP7215966B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210390352A1 (en) * 2020-06-10 2021-12-16 Toyota Research Institute, Inc. Confidence-estimated domain adaptation
WO2023214582A1 (en) * 2022-05-02 2023-11-09 三菱重工業株式会社 Learning device, learning method, and learning program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05282269A (en) * 1992-04-01 1993-10-29 Hitachi Ltd Method and device for learning/recollection
WO2019084560A1 (en) * 2017-10-27 2019-05-02 Google Llc Neural architecture search

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05282269A (en) * 1992-04-01 1993-10-29 Hitachi Ltd Method and device for learning/recollection
WO2019084560A1 (en) * 2017-10-27 2019-05-02 Google Llc Neural architecture search

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
佐藤怜、外2名: "貢献度分配を導入した方策勾配によるNeural Architecture Searchの高速化", 2019年度人工知能学会全国大会(第33回), JPN6022045064, 1 June 2019 (2019-06-01), ISSN: 0004903930 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210390352A1 (en) * 2020-06-10 2021-12-16 Toyota Research Institute, Inc. Confidence-estimated domain adaptation
US11741698B2 (en) * 2020-06-10 2023-08-29 Toyota Research Institute, Inc. Confidence-estimated domain adaptation for training machine learning models
WO2023214582A1 (en) * 2022-05-02 2023-11-09 三菱重工業株式会社 Learning device, learning method, and learning program

Also Published As

Publication number Publication date
JP7215966B2 (en) 2023-01-31

Similar Documents

Publication Publication Date Title
Wang et al. One-class graph neural networks for anomaly detection in attributed networks
Knudde et al. Active learning for feasible region discovery
JP7215966B2 (en) Hyperparameter management device, hyperparameter management method and hyperparameter management program product
Cortez et al. Multi-step time series prediction intervals using neuroevolution
US20210241115A1 (en) Techniques to perform global attribution mappings to provide insights in neural networks
Shehab et al. Toward feature selection in big data preprocessing based on hybrid cloud-based model
US20200160200A1 (en) Method and System for Predictive Modeling of Geographic Income Distribution
Pishgoo et al. A dynamic feature selection and intelligent model serving for hybrid batch-stream processing
Zhou et al. LightAdam: Towards a fast and accurate adaptive momentum online algorithm
Fan et al. A repetitive feature selection method based on improved ReliefF for missing data
US20240249337A1 (en) Systems and methods for multi-task and multi-scene unified ranking
Dass et al. Amelioration of Big Data analytics by employing Big Data tools and techniques
Hoseininejad et al. A fast algorithm for local feature selection in data classification
US20230052255A1 (en) System and method for optimizing a machine learning model
Crankshaw The design and implementation of low-latency prediction serving systems
US20210256374A1 (en) Method and apparatus with neural network and training
Sagaama et al. Automatic parameter tuning for big data pipelines with deep reinforcement learning
Pölsterl et al. Scalable, axiomatic explanations of deep alzheimer’s diagnosis from heterogeneous data
Skënduli et al. Implementing scalable machine learning algorithms for mining big data: a state-of-the-art survey
Pham et al. Recurrent neural network for classifying of HPC applications
Lee et al. Computational Results for a Quantum Computing Application in Real-Life Finance
JP2021184148A (en) Optimization device, optimization method, and optimization program
Montevechi et al. Advancing credit risk modelling with Machine Learning: A comprehensive review of the state-of-the-art
Li et al. Online transferable representation with heterogeneous sources
Razmjoo et al. Feature importance ranking for classification in mixed online environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230119

R150 Certificate of patent or registration of utility model

Ref document number: 7215966

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150