JP2021114085A - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents
情報処理装置、情報処理方法及び情報処理プログラム Download PDFInfo
- Publication number
- JP2021114085A JP2021114085A JP2020005975A JP2020005975A JP2021114085A JP 2021114085 A JP2021114085 A JP 2021114085A JP 2020005975 A JP2020005975 A JP 2020005975A JP 2020005975 A JP2020005975 A JP 2020005975A JP 2021114085 A JP2021114085 A JP 2021114085A
- Authority
- JP
- Japan
- Prior art keywords
- evaluation value
- approximate expression
- value
- evaluation
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 40
- 238000003672 processing method Methods 0.000 title claims abstract description 8
- 238000011156 evaluation Methods 0.000 claims abstract description 217
- 230000013016 learning Effects 0.000 claims abstract description 113
- 238000012545 processing Methods 0.000 claims abstract description 47
- 238000004364 calculation method Methods 0.000 claims abstract description 33
- 230000002159 abnormal effect Effects 0.000 claims abstract description 32
- 238000000034 method Methods 0.000 claims description 27
- 230000001172 regenerating effect Effects 0.000 abstract 1
- 238000010801 machine learning Methods 0.000 description 18
- 230000006866 deterioration Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 238000009826 distribution Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000012549 training Methods 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 4
- 230000007717 exclusion Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- Probability & Statistics with Applications (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】学習精度を向上させる情報処理装置、情報処理方法及び情報処理プログラムを提供する。【解決手段】学習処理部12は、与えられた複数のハイパーパラメータ174を用いて学習を実行する。評価値算出部13は、学習処理部12によるハイパーパラメータ174毎の学習結果の評価を表す評価値173を算出する。近似式生成部14は、ハイパーパラメータ174と評価値173との関係を表す近似式を生成し、生成した近似式を基に異常値と判定される異常評価値が除かれた前記評価値173を用いて近似式を再度生成する処理を、異常評価値が存在しなくなるまで繰り返し、収束近似式を生成する。決定部16は、近似式生成部14により生成された収束近似式を基にハイパーパラメータ174の最適値を決定する。【選択図】図1
Description
本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。
近年、多くの分野で機械学習の有効性が確認されている。機械学習とは、データからその関係を表すモデルを作成することである。より詳しくは、学習する対象とする適当なモデル型を与え、学習アルゴリズムによってモデルパラメータを決定することで、機械学習が行われる。
例えば、特定のデータ群に対して、その特定のデータ群の特徴を得るために機械学習が用いられることがある。具体的には、混合ガウス分布を表すモデル型に与えられたデータ群を用いて機械学習を実行することで、その与えられたデータ群に適合する混合ガウス分布を求めることができる。
機械学習においては、学習プロセスそのものを制御するハイパーパラメータが外から与えられる。ここで、外から与えられるとは、人が決定した適当な値やコンピュータによるランダムな値や所定値が与えられることを指す。学習を制御するハイパーパラメータは、外から与えられるが、その適切な与え方は未だ明確になっていない。
例えば、ハイパーパラメータの与え方として、Chio, C., D.(2018), Machine Learning and Security: Protecting System with Data and Algorithms. Sebastopol, CA:に開示されたデフォルト値やランダムな値を用いる方法がある。さらに、与えられたハイパーパラメータを用いて実際にモデルを訓練して、その結果に応じてハイパーパラメータを調整する方法もある。ただしこの方法は、人手による試行錯誤に依存するため非効率的である。
そこで、複数の与えられたハイパーパラメータの値のそれぞれについて学習を行い、結果の最も良かったものを選択する技術がある。ただし、この方法では、学習の種類によっては最も適切なハイパーパラメータ以外を選択してしまうおそれがある。例えば、学習自体にランダム性が存在し、初期状態などに依存して結果の悪化がランダムに発生する場合、実際には最良なハイパーパラメータを用いたにも関わらず悪い結果が出てしまうおそれがある。その場合、最良なハイパーパラメータ以外のパラメータを最良のハイパーパラメータとして選択してしまうおそれがある。この点、同じハイパーパラメータを用いて学習を繰り返すことで、結果のランダム性を低減することができるが、学習処理が多くなり作業者及びコンピュータの付加が高くなり、最良のハイパーパラメータを選択することは困難となる。
そこで、ハイパーパラメータの値と評価値との関係を関係式で近似し、その近似式を最大化するハイパーパラメータの値を採用する方法が存在する。評価値とは、正解と考えられる値に結果がどれだけ近づいたかを表す値である。
なお、ハイパーパラメータの決定方法として以下のような従来技術がある。例えば、ハイパーパラメータと学習結果との関係を関数で表し、その関数において他のハイパーパラメータを変化させた時の特定のハイパーパラメータのピーク値が取り得る範囲を、その特定のハイパーパラメータの値域として学習を行う従来技術がある。また、学習に用いる訓練データのサイズとして特定のサイズを用いて2度の学習を行い、その2度の学習における負荷を反映した指標の合計と閾値との関係によりハイパーパラメータ及びサイズを変更して学習を繰り返す従来技術がある。
しかしながら、近似式を最大化するハイパーパラメータを採用する方法では、評価のランダムな悪化が大きい場合、その悪化が大きい点に大きく影響を受けて正確な近似式とならずに最良のハイパーパラメータの選択が困難となるおそれがある。例えば、評価のランダムな悪化の影響を受けて最大値を持たない近似式が求まる場合があり、そのような近似式では最良のハイパーパラメータを選択することは困難となる。
また、ピーク値が取り得る範囲にハイパーパラメータの値域を限定する従来技術であっても、評価のランダムな悪化の影響により適切なピーク値が得られない場合があり、最良のハイパーパラメータを選択することは困難である。また、学習負荷からハイパーパラメータ及び訓練データのサイズを決定する従来技術であっても、評価のランダムな悪化の影響を受けてしまい、最良のハイパーパラメータを選択することは困難である。このように、適切なハイパーパラメータを用いないで学習を行った場合、学習精度を向上させることは困難である。
開示の技術は、上記に鑑みてなされたものであって、学習精度を向上させる情報処理装置、情報処理方法及び情報処理プログラムを提供することを目的とする。
本願の開示する情報処理装置、情報処理方法及び情報処理プログラムの一つの態様において、学習処理部は、与えられた複数のハイパーパラメータを用いて学習を実行する。評価値算出部は、前記学習処理部による前記ハイパーパラメータ毎の学習結果の評価を表す評価値を算出する。近似式生成部は、前記ハイパーパラメータと前記評価値との関係を表す近似式を生成し、生成した前記近似式を基に異常値と判定される異常評価値が除かれた前記評価値を用いて近似式を再度生成する処理を、前記異常評価値が存在しなくなるまで繰り返し、収束近似式を生成する。決定部は、前記近似式生成部により生成された前記収束近似式を基に前記ハイパーパラメータの最適値を決定する。
1つの側面では、本発明は、学習精度を向上させることができる。
以下に、本願の開示する情報処理装置、情報処理方法及び情報処理プログラムの実施例を図面に基づいて詳細に説明する。なお、以下の実施例により本願の開示する情報処理装置、情報処理方法及び情報処理プログラムが限定されるものではない。
図1は、実施例に係る情報処理装置のブロック図である。情報処理装置1は、外部装置2と接続される。そして、情報処理装置1は、図1に示すように、情報取得部11、学習処理部12、評価値算出部13、近似式生成部14、判定部15、決定部16及び記憶部17を有する。
記憶部17は、各種データを記憶する記憶装置である。記憶部17は、予め学習データ171及び評価データ172を記憶する。
情報取得部11は、ハイパーパラメータ174の入力を外部装置2から受ける。ここで、ハイパーパラメータ174の種類は、学習に使用されるモデルに応じてその数が決定されるものであり、1つ又は複数のいずれでもよい。情報取得部11は、ハイパーパラメータ174の種類が複数ある場合には、それぞれの種類のハイパーパラメータ174の値を含むハイパーパラメータ174の組の情報を複数取得する。ハイパーパラメータ174の種類が1つの場合、情報取得部11は、1つのハイパーパラメータ174の値を複数取得する。以下では、複数の種類のハイパーパラメータ174がある場合のハイパーパラメータ174の組も、単にハイパーパラメータ174という。
そして、情報取得部11は、取得したハイパーパラメータ174を記憶部17に格納する。その後、情報取得部11は、ハイパーパラメータ174の取得を学習処理部12に通知し、学習実行を指示する。
学習処理部12は、ハイパーパラメータ174の取得の通知を情報取得部11から受ける。学習実行の指示を受けると、学習処理部12は、学習データ171及びハイパーパラメータ174を記憶部17から取得する。
そして、学習処理部12は、各ハイパーパラメータ174を用いたモデルに対して学習データ171を用いて機械学習を実行し、モデル毎のモデルパラメータを求める。そして、学習処理部12は、求めたモデルパラメータを用いて完成したモデルを生成する。学習処理部12は、ハイパーパラメータ174毎に、モデルを生成する。そして、学習処理部12は、生成したハイパーパラメータ174毎のモデルを評価値算出部13へ出力する。
例えば、既知の入力をXとし出力をYとした場合の、入力と出力の関係Rを学習する機械学習を例に説明する。この場合、関係Rは、未知である。この場合のモデルファミリを次の数式(1)で表されるMとする。モデルファミリとは、異なるハイパーパラメータ174を与えた場合のそれぞれのモデルの集まりである。
例えば、次の数式(3)で表される入力データXと出力データYとの組の要素がデータDtと表され、ハイパーパラメータ174の集合であるHに含まれるいずれかのハイパーパラメータhを使用する場合で説明する。
学習処理部12は、データDtとハイパーパラメータhを用いて、入力データXから出力データYを求める関係Rを、モデルファミリMの要素であるモデルmで近似して求める。このような処理を行うことで、学習処理部12は、数式(2)で表される学習Tを実行する。このように、学習処理部12は、学習Tにより関係Rを学習する。
ただし、学習がランダムに行われる、すなわちランダムに発生する初期状態に依存して結果が求まる場合、学習Tは確率変数となる。その場合、学習処理部12は、学習Tの結果として確率的に悪化する結果を得てしまう。不適切な学習結果を使用した場合、入力に対して適切な出力を得ることが困難となる。
評価値算出部13は、ハイパーパラメータ174毎のモデルの入力を学習処理部12から受ける。また、評価値算出部13は、評価データ172を記憶部17から取得する。そして、評価値算出部13は、評価データ172を各ハイパーパラメータ174に対応するモデルに用いて、各ハイパーパラメータ174に対応する評価値173を算出する。例えば、教師あり学習の場合、評価値算出部13は、入力に対して出力された値の教師データにおける値との差を表す精度を評価値173とする。また、教師なし学習の場合、評価値算出部13は、赤池情報基準(AIC:Akaike's Information Criterion)を用いて算出された対数尤度を評価値173とする。評価値算出部13は、赤池情報基準を用いる場合、モデルパラメータの個数に応じたペナルティを与えて対数尤度を求める。
機械学習を行う際に、モデルパラメータが多い複雑なモデルほど使用した学習データ171によく当てはまるモデルが生成できる。ただしその場合、使用した学習データ171に対する過剰適合が発生し、一般的なデータに対する適切なモデルとは言えなくなるおそれがある。パラメータの少ない単純なモデルほど一般的なデータに対して学習精度が向上する可能性が高いため、評価値算出部13は、パラメータの数に応じてペナルティを与え、なるべくパラメータの少ないより単純なモデルが選択されるように対数尤度を算出する。
例えば、評価を次の数式(4)と定義する。ここで、Eは評価を表す。また、二重線のRは評価結果を表す。
この場合、評価値算出部13は、評価データ172として次の数式(5)で表される入力データXと出力データYとの組の要素であるデータDνを、生成したモデルファミリMに含まれる各モデルmに対して用いて評価を行う。そして、評価値算出部13は、モデルファミリMに含まれる各モデルmと確からしい学習結果との差分を表すそれぞれの評価値173を求める。
この評価値173がなるべく良いハイパーパラメータ174が適切なハイパーパラメータ174と言える。例えば、評価値173が大きいほど良い結果であるとした場合、評価値173はより大きくすることが好ましい。
評価値算出部13は、求めた各ハイパーパラメータ174に対応する評価値173を記憶部17に格納する。また、評価値算出部13は、各ハイパーパラメータ174に対応する評価値173を近似式生成部14へ出力する。
図2は、評価値算出までの処理の流れを説明するための図である。ここで、図2を参照して、学習処理部12による学習から評価値算出部13までの処理の流れをまとめて説明する。
学習処理部12は、数式(3)に示すハイパーパラメータh及び学習データ171であるデータDtを用いて学習Tを実行してモデルmを生成する(ステップS103)。ここでは、ハイパーパラメータh及び学習データ171であるデータDtを用いた学習Tが、T(Dt)(h)として表される。
その後、評価値算出部13は、生成されたモデルmに対して評価データ172であるデータDνを用いて数式(4)で示される評価Eを実行する(ステップS102)。ここでは、モデルmに対してデータDνを用いた評価Eが、E(Dν)(m)として表される。
ここで、学習Tは確率変数であり学習処理部12が学習Tの結果として確率的に悪化する結果を得てしまう場合、悪化した結果を用いて評価Eを行うと、評価結果も悪化する。すなわち、評価値算出部13は、確率的に悪化した値を含む評価値を得てしまう。
評価値のランダムな悪化について図3及び図4を参照して説明する。図3は、確率変数でない場合の学習におけるハイパーパラメータと評価値との関係を表す図である。また、図4は、確率変数となる学習におけるハイパーパラメータと評価値との関係を表す図である。図3及び図4ともに、横軸でハイパーパラメータ174の値を表し、横軸で評価値を表す。図3及び図4は、縦軸の上に行くほど評価値が良くなる場合の図である。以下では、ハイパーパラメータ174の値を「ハイパーパラメータ値」と呼ぶ場合がある。
学習が確率変数とならない場合、評価においてランダムな悪化は発生せず、各パラメータ値に対して適切な評価値が得られる。その場合、図3に示すように、評価値が最も良い点101のハイパーパラメータ値が最良のハイパーパラメータ174となる。
これに対して、学習が確率変数となる場合、評価においてランダムな悪化が発生するため、図4のように各ハイパーパラメータ値に対する評価値が求まる。この場合、点103に対応するハイパーパラメータ値を用いた場合の適切な評価値は点102で表される値であった。すなわち、点103で表される評価値は、学習が確率変数となるために悪化してしまっているといえる。そのため、本来であれば点102が最高の評価値を有するはずであるにもかかわらず、図4では、点104が最高の評価値となる。この場合、点102に対応するハイパーパラメータ値ではなく、点104のハイパーパラメータ値が適切なハイパーパラメータ174となってしまう。このように、実際には最高の評価値となるハイパーパラメータ174以外が適切なハイパーパラメータ174として選択されるおそれがある。そこで、近似式を用いたハイパーパラメータ174の選択が行われる。
図1に戻って説明を続ける。近似式生成部14は、評価値算出部13から評価値173の入力を受ける。さらに、近似式生成部14は、各評価値173に対応する各ハイパーパラメータ174を記憶部17から取得する。そして、近似式生成部14は、最小二乗法などを用いて、ハイパーパラメータ174の値と評価値との関係を関係式で近似して、ハイパーパラメータ174の値と評価値との関係を表す近似式を求める。
ここで、図5を参照して、評価値がランダムに悪化する場合の近似式について説明する。図5は、収束前の近似式を表す図である。図5は、横軸でハイパーパラメータ174の値を表し、縦軸で評価値173を表す。図5では、縦軸の紙面に向かって下に進むにしたがい評価値が良くなることを表す。図5にプロットされた各点が、評価値173がランダムに悪化する場合のハイパーパラメータ174と対応する評価値173を表す点である。この場合、図5の紙面に向かって下にある点がより評価が良い。そして、近似式200がこの各点の関係を表す関係式を近似した式である。図5に示された各点の中には、点202のように近似式200から大きく外れた点も存在する。この大きく外れた点が評価値173のランダムな悪化により発生する点である。ランダムな評価値173の悪化が無ければ、実際には、図5の紙面に向かって下方向に並んだ点を結んだ線が近似式となると考えられる。しかし、近似式200は、ランダムな評価値173の悪化の影響により、最大値が選択困難な曲線となっている。そこで、ランダムな評価値173の悪化の影響を除いた近似式200を求めることが好ましい。
そこで、ランダムに悪化した評価値173を除くために、近似式生成部14は、求めた近似式を判定部15へ出力する。その後、近似式生成部14は、判定部15から除外された評価値173及びハイパーパラメータ174の情報の入力を受けると、通知された評価値173及びハイパーパラメータ174を除いた評価値173及びハイパーパラメータ174を用いて近似式を求める。これに対して、近似式の収束の通知を判定部15から受けた場合、近似式生成部14は、収束した近似式を決定部16に通知する。この収束した近似式が、「収束近似式」の一例にあたる。
判定部15は、ハイパーパラメータ174の値と評価値との関係を表す近似式の入力を近似式生成部14から受ける。次に、判定部15は、評価値173を記憶部17から取得する。そして、判定部15は、取得した評価値173の中で近似式の値よりも評価が悪い値で且つ近似式から大きく外れている評価値173が存在するか否かを判定する。
判定部15は、評価値173の中で近似式の値よりも評価が悪い値で且つ近似式から大きく外れている評価値173が存在する場合、その評価値173を異常値とする。ここで、大きく外れるとは、例えば、ハイパーパラメータ174と評価値173との関係を表す座標平面において近似式からの距離が予め与えられた閾値以上となることを指す。そして、判定部15は、異常値の評価値173及びその評価値173に対応するハイパーパラメータ174を記憶部17から削除する。そして、判定部15は、近似式の再生成を近似式生成部14に指示する。近似式の値よりも評価が悪い値で且つ近似式から大きく外れている評価値173が、「異常評価値」の一例にあたる。
これに対して、評価値173の中で近似式の値よりも評価が悪い値で且つ近似式から大きく外れている評価値173が存在しない場合、すなわち全ての評価値173が正常値の場合、判定部15は、近似式の収束を近似式生成部14に通知する。
この評価値173の除外処理の一例を説明する。判定部15は、次の数式(6)を満たす評価値yaを求める。ここで、数式(6)におけるyaは、除外対象となる評価値173であり、f(xa)は、近似式に対してyaに対応するハイパーパラメータ174を代入して求まる評価値である。また、数式(6)の右辺は、各評価値173と対応するハイパーパラメータ174を代入して求まる評価値との差分の最小値の符号を反転させた値を表す。こ数式(6)の右辺が閾値の一例にあたる。
図5を参照して、上述した評価値173の除外処理の一例を説明する。例えば、図5における点201が除外される点である場合で説明する。点201に対応する評価値173が数式(6)のyaにあたる。そして、数式(6)の左辺は、差分V1にあたる。また、点202が近似式200から評価値が良い方向に最も離れた点である。この点202における各評価値173からその評価値に対応するハイパーパラメータ174を代入して求まる評価値を引いた値が、各評価値から対応する近似式の値を減算した値のうちの最小の値となる。すなわち、数式(6)の右辺の絶対値は、差分V2にあたる。そして、差分V2以上に差分V1が離れているものを評価値173が大きく近似式200から離れた点とする。ただし、点201などの近似式よりも評価が悪い点と点202とは近似式200を挟んで逆方向に存在する。そのため、点201などの評価が悪い点の評価値173から近似式200の値を減算した値は、点202の近似式200よりも評価値173から近似式200の値を減算した値と符号が逆になる。そこで、数式(6)のように、点202の評価値173から近似式200の値を減算した値の符号を反転させたもの以上に差が存在する近似式200よりも評価が悪い点を抽出することで、評価が悪い方向に大きく近似式200から離れた点が抽出される。
期待値最大化法などのようにモデルパラメータを選択する際に最適値を探索する手順で機械学習を行う場合、評価値173は上限を有する。そのような機械学習の場合、適切な評価値173が上限に近づくことはあるが、評価値173がランダムで良い方向に大きく外れることはない。大きく外れる評価値173は学習が確率変数であるによるランダムな悪化による影響と考えられる。すなわち、評価値173が最良の点は、適切な評価値である可能性がある。そのため、適切な評価値173におけるバラつきは最良の点までの距離の間で発生する可能性が高いため、本実施例に係る判定部15は、それ以上に離れた位置にある評価が悪い点をランダムな悪化により発生した点として除外する。
図6は、収束後の近似式を表す図である。図6は、横軸でハイパーパラメータ174の値を表し、縦軸で評価値173を表す。図6では、縦軸の紙面に向かって下に進むにしたがい評価値が良くなることを表す。ただし、図5の縦軸のオーダーは10の7乗であったが、図6では、縦軸のオーダーが10の4乗となっている。すなわち、図6は、図5における下部を拡大した図である。近似式210は、図5の各点からランダムに悪化した評価値173に対応する点を除いて近似を繰り返すことで収束した近似式である。
近似式210における極値を取る点211が、評価値173が最も良くなる点、すなわち近似式210を最大化する点となる。したがって、収束された近似式210からは、ハイパーパラメータ174の最適値を選択することが可能である。
図1に戻って説明を続ける。決定部16は、収束した近似式の入力を近似式生成部14から受ける。そして、決定部16は、取得した近似式を最大化するハイパーパラメータ174を記憶部17が有するハイパーパラメータ174から取得する。そして、決定部16は、取得したハイパーパラメータ174を最適値として決定する。例えば、図6の近似式210を用いる場合、決定部16は、極値を取る点211におけるハイパーパラメータ174の値を最適値とする。このように、決定部16は、最適となるハイパーパラメータ174を収束した近似式を用いて選択することができる。
そして、決定部16は、最適値としたハイパーパラメータ174を出力する。本実施例では、決定部16は、最適値としたハイパーパラメータ174を記憶部17に記憶させる。これにより、学習処理部12は、後に行う学習において最適値となるハイパーパラメータ174を記憶部17から取得して学習を実行することができる。
次に、図7を参照してハイパーパラメータの選択処理の流れを説明する。図7は、ハイパーパラメータの選択処理のフローチャートである。
情報取得部11は、ハイパーパラメータ174を外部装置20から取得する(ステップS1)。そして、情報取得部11は、取得したハイパーパラメータ174を記憶部17に格納する。さらに、情報取得部11は、ハイパーパラメータ174を学習処理部12へ出力し学習の実行を指示する。
学習処理部12は、ハイパーパラメータ174の入力を情報取得部11から受ける。そして、学習処理部12は、学習の実行の指示を受けて、学習データ171を記憶部17から取得する。そして、学習処理部12は、学習データ171及びハイパーパラメータ174を用いて機械学習を実行する(ステップS2)。学習処理部12は、機械学習により、ハイパーパラメータ174毎にモデルパラメータを求める。そして、学習処理部12は、求めたモデルパラメータを用いてハイパーパラメータ174毎にモデルを生成する。その後、学習処理部12は、生成した各モデルを評価値算出部13へ出力する。
評価値算出部13は、機械学習により得られたモデルの入力を学習処理部12から受ける。さらに、評価値算出部13は、評価データ172を記憶部17から取得する。そして、評価値算出部13は、ハイパーパラメータ174毎の各モデルに対して評価データ172を用いて評価を行い、ハイパーパラメータ174毎に評価値173を算出する(ステップS3)。その後、評価値算出部13は、算出した評価値173を記憶部17に格納する。また、評価値算出部13は、近似式の生成を近似式生成部14に指示する。
近似式生成部14は、近似式の生成の指示を近似式生成部14から受けて、各ハイパーパラメータ174を記憶部17から取得する。そして、近似式生成部14は、ハイパーパラメータ174の値と評価値173との関係を関係式で近似して、ハイパーパラメータ174の値と評価値173との関係を表す近似式を生成する(ステップS4)。次に、近似式生成部14は、生成した近似式を判定部15へ出力する。
判定部15は、近似式の入力を近似式生成部14から受ける。そして、判定部15は、評価値173は全て正常値か否かを判定する(ステップS5)。ここでは、判定部15は、近似値から評価が悪化する方向に閾値よりも離れた評価値173が存在するか否かにより判定を行う。
異常値となる評価値173が存在する場合(ステップS5:否定)、判定部15は、ハイパーパラメータ174と評価値173との組の中から、評価値173が異常値となる組を記憶部17から削除する(ステップS6)。ここでは、判定部15は、近似式から評価が悪化する方向に閾値よりも離れる組を削除する。そして、判定部15は、近似式の生成を近似式生成部14に依頼する。その後、処理は、ステップS4に戻る。
これに対して、評価値173が全て正常値の場合(ステップS5:肯定)、判定部15は、近似式の収束完了を近似式生成部14に通知する。近似式生成部14は、近似式の収束完了の通知を受けて、収束した近似式を決定部16へ出力する。決定部16は、取得した近似式を最大化するハイパーパラメータ174を最適値として選択する(ステップS7)。
その後、決定部16は、最低既知のハイパーパラメータ174を出力し(ステップS8)、例えば記憶部17などに格納する。
ここで、機械学習に用いるモデルファミリとして混合ガウス分布を用いる場合で、本実施例に係る情報処理装置1によるハイパーパラメータの決定処理について説明する。混合ガウス分布の場合、ハイパーパラメータ174はガウス分布の混合数となる。また、混合ガウス分布の場合、モデルパラメータは平均、分散及び重みとなる。
情報取得部11は、ハイパーパラメータ174である混合数を複数取得する。学習処理部12は、混合数のそれぞれについて混合ガウス分布に対して学習データ171を用いて機械学習を実行し、モデルパラメータである平均、分散及び重みを求める。そして、求めた平均、分散及び重みを有する混合ガウス分布を混合数毎に生成する。評価値算出部13は、学習処理部12により生成された各混合数に対応する混合ガウス分布に対して評価データ172を用いて、赤池情報量基準(AIC)による評価値173を求める。
近似式生成部14は、混合数及び評価値173の関係を表す近似式を生成する。そして、判定部15は、近似式から評価が悪化する方向に閾値よりも離れた評価値173を異常値として、異常値の評価値173及びそれに対する混合数を近似式の要素から除く。そして、近似式生成部14は、異常値の評価値173及びそれに対応する混合数が除かれたデータを用いてから再度近似式を生成する。近似式生成部14及び判定部15は、評価値173が正常値となり収束するまで近似式の生成処理を繰り返す。そして、決定部16は、収束した混合数及び評価値173の関係を表す近似式を用いて混合数の最適値を求める。これにより、学習データ171に対応するデータを用いて学習を行う際に使用する混合ガウス関数の混合数として適切な値が求まる。
学習処理部12は、その混合数を有する混合ガウス関数を用いて機械学習を実行することで、適切な平均、分散及び重みといったモデルパラメータを求めることができる。したがって、学習処理部12は、求めた平均、分散及び重みを用いて、与えられたデータ群に精度よく適合する混合ガウス関数を求めることができる。すなわち、情報処理装置1は、学習精度を向上させることができる。
以上に説明したように、本実施例に係る情報処理装置は、ハイパーパラメータと評価値との関係を表す近似式を求め、求めた近似式を基に異常値と判定される評価値及びそのハイパーパラメータを除いて近似式を生成する処理を繰り返す。そして、異常値と判定される評価値が無くなると、情報処理装置は、その近似式を用いてハイパーパラメータの適切値を求める。これにより、学習が確率変数である場合のランダムに悪化する評価値の影響を低減することができ、適切なハイパーパラメータを容易に選択することができる。そして、適切なハイパーパラメータを用いることで、学習精度を向上させることができる。
(ハードウェア構成)
図8は、情報処理装置のハードウェア構成図である。本実施例に係る情報処理装置10は、CPU(Central1 Processing Unit)91、メモリ92、ハードディスク93及びNIC(Network Interface Card)94を有する。CPU91は、メモリ92、ハードディスク93及びNIC94とバスで接続される。
図8は、情報処理装置のハードウェア構成図である。本実施例に係る情報処理装置10は、CPU(Central1 Processing Unit)91、メモリ92、ハードディスク93及びNIC(Network Interface Card)94を有する。CPU91は、メモリ92、ハードディスク93及びNIC94とバスで接続される。
NIC94は、例えば、外部装置20との間の通信インタフェースである。情報取得部11は、NIC94を介して外部装置20と通信を行う。
ハードディスク93は、図1における記憶部17の機能を実現する。また、ハードディスク93は、図1に例示した情報取得部11、学習処理部12、評価値算出部13、近似値生成部14、判定部15及び決定部16の機能を実現するためのプログラムを含む各種プログラムを格納する。
CPU91は、ハードディスク93から各種プログラムを読み出してメモリ92に展開して実行することで、図1に例示した情報取得部11、学習処理部12、評価値算出部13、近似値生成部14、判定部15及び決定部16の機能を実現する。
1 情報処理装置
2 外部装置
11 情報取得部
12 学習処理部
13 評価値算出部
14 近似式生成部
15 判定部
16 決定部
17 記憶部
171 学習データ
172 評価データ
173 評価値
174 ハイパーパラメータ
2 外部装置
11 情報取得部
12 学習処理部
13 評価値算出部
14 近似式生成部
15 判定部
16 決定部
17 記憶部
171 学習データ
172 評価データ
173 評価値
174 ハイパーパラメータ
Claims (6)
- 与えられた複数のハイパーパラメータを用いて学習を実行する学習処理部と、
前記学習処理部による前記ハイパーパラメータ毎の学習結果の評価を表す評価値を算出する評価値算出部と、
前記ハイパーパラメータと前記評価値との関係を表す近似式を生成し、生成した前記近似式を基に異常値と判定される異常評価値が除かれた前記評価値を用いて近似式を再度生成する処理を、前記異常評価値が存在しなくなるまで繰り返し、収束近似式を生成する近似式生成部と、
前記近似式生成部により生成された前記収束近似式を基に前記ハイパーパラメータの最適値を決定する決定部と
を備えたことを特徴とする情報処理装置。 - 前記近似式生成部により生成された前記近似式を基に前記異常評価値を決定し、前記評価値の中から前記異常評価値を除外する判定部をさらに備え、
前記近似式生成部は、前記判定部により前記異常評価値が除外された前記評価値を用いて近似式を再度生成する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記異常評価値は、前記ハイパーパラメータと前記評価値との関係を表す座標平面上で、前記近似式から前記評価が悪くなる方向に閾値よりも離れた前記評価値を前記異常値として決定されることを特徴とする請求項1又は2に記載の情報処理装置。
- 前記閾値は、前記近似式から前記評価が良くなる方向に最も離れた前記評価値までの距離であることを特徴とする請求項3に記載の情報処理装置。
- 与えられた複数のハイパーパラメータを用いて学習を実行し、
前記ハイパーパラメータ毎の学習結果の評価を表す評価値を算出し、
前記ハイパーパラメータと前記評価値との関係を表す近似式を生成し、
生成した前記近似式を基に異常値と判定される異常評価値を前記評価値の中から除き、
前記近似式の生成及び前記異常評価値の前記評価値からの除外の処理を前記異常評価値が存在しなくなるまで繰り返して収束近似式を生成し、
生成した前記収束近似式を基に前記ハイパーパラメータの最適値を決定する
ことを特徴とする情報処理方法。 - 与えられた複数のハイパーパラメータを用いて学習を実行し、
前記ハイパーパラメータ毎の学習結果の評価を表す評価値を算出し、
前記ハイパーパラメータと前記評価値との関係を表す近似式を生成し、
生成した前記近似式を基に異常値と判定される異常評価値を前記評価値の中から除き、
前記近似式の生成及び前記異常評価値の前記評価値からの除外の処理を前記異常評価値が存在しなくなるまで繰り返して収束近似式を生成し、
生成した前記収束近似式を基に前記ハイパーパラメータの最適値を決定する
処理をコンピュータに実行させることを特徴とする情報処理プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020005975A JP2021114085A (ja) | 2020-01-17 | 2020-01-17 | 情報処理装置、情報処理方法及び情報処理プログラム |
EP20214577.7A EP3852024A1 (en) | 2020-01-17 | 2020-12-16 | Information processing apparatus, information processing method, and information processing program |
US17/129,714 US20210224689A1 (en) | 2020-01-17 | 2020-12-21 | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium |
CN202110004025.9A CN113222168A (zh) | 2020-01-17 | 2021-01-04 | 信息处理设备、信息处理方法和信息处理程序 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020005975A JP2021114085A (ja) | 2020-01-17 | 2020-01-17 | 情報処理装置、情報処理方法及び情報処理プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021114085A true JP2021114085A (ja) | 2021-08-05 |
Family
ID=73855083
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020005975A Pending JP2021114085A (ja) | 2020-01-17 | 2020-01-17 | 情報処理装置、情報処理方法及び情報処理プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210224689A1 (ja) |
EP (1) | EP3852024A1 (ja) |
JP (1) | JP2021114085A (ja) |
CN (1) | CN113222168A (ja) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6815240B2 (ja) | 2017-03-22 | 2021-01-20 | 株式会社東芝 | パラメータ調整装置、学習システム、パラメータ調整方法、およびプログラム |
US11120368B2 (en) * | 2017-09-27 | 2021-09-14 | Oracle International Corporation | Scalable and efficient distributed auto-tuning of machine learning and deep learning models |
JP6974712B2 (ja) | 2017-10-24 | 2021-12-01 | 富士通株式会社 | 探索方法、探索装置および探索プログラム |
US10635939B2 (en) * | 2018-07-06 | 2020-04-28 | Capital One Services, Llc | System, method, and computer-accessible medium for evaluating multi-dimensional synthetic data using integrated variants analysis |
KR20200021301A (ko) * | 2018-08-20 | 2020-02-28 | 삼성에스디에스 주식회사 | 하이퍼파라미터 최적화 방법 및 그 장치 |
US10699192B1 (en) * | 2019-01-31 | 2020-06-30 | StradVision, Inc. | Method for optimizing hyperparameters of auto-labeling device which auto-labels training images for use in deep learning network to analyze images with high precision, and optimizing device using the same |
US11188039B2 (en) * | 2019-10-18 | 2021-11-30 | Johnson Controls Tyco IP Holdings LLP | Building management system with dynamic energy prediction model updates |
-
2020
- 2020-01-17 JP JP2020005975A patent/JP2021114085A/ja active Pending
- 2020-12-16 EP EP20214577.7A patent/EP3852024A1/en not_active Withdrawn
- 2020-12-21 US US17/129,714 patent/US20210224689A1/en active Pending
-
2021
- 2021-01-04 CN CN202110004025.9A patent/CN113222168A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN113222168A (zh) | 2021-08-06 |
EP3852024A1 (en) | 2021-07-21 |
US20210224689A1 (en) | 2021-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Moor et al. | Topological autoencoders | |
Muruganantham et al. | Dynamic multiobjective optimization using evolutionary algorithm with Kalman filter | |
Katagiri et al. | Multiobjective evolutionary optimization of training and topology of recurrent neural networks for time-series prediction | |
JP7139657B2 (ja) | 学習プログラム、学習方法および学習装置 | |
JP7115207B2 (ja) | 学習プログラム、学習方法および学習装置 | |
Patterson et al. | Empirical design in reinforcement learning | |
KR20190028880A (ko) | 봇넷 탐지 시스템을 학습하기 위한 학습 데이터를 생성하는 방법 및 그 장치 | |
Fan et al. | A novel multi-objective PSO algorithm based on completion-checking | |
TWI452529B (zh) | Combined with the system equivalent model of the system and its computer program products | |
JP7382633B2 (ja) | 学習モデル構築装置、学習モデル構築方法及びコンピュータプログラム | |
CN111412795B (zh) | 测试点设置方案生成方法及装置 | |
JP2021114085A (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
Pilát et al. | Hypervolume-based local search in multi-objective evolutionary optimization | |
JP2021022316A (ja) | 学習装置、学習方法及び学習プログラム | |
JP2020030500A (ja) | 施策探索装置、方法およびプログラム | |
KR102559605B1 (ko) | 함수 최적화 방법 및 장치 | |
KR102200809B1 (ko) | 학습기반 데이터 처리 시스템 및 모델 갱신 방법 | |
Abdelbari et al. | Model learning using genetic programming under full and partial system information conditions | |
Chaudhary et al. | A Constant Learning Rate Self-Organizing Map (CLRSOM) Learning Algorithm. | |
Smedberg | Knowledge-driven reference-point based multi-objective optimization: first results | |
Queeney et al. | Optimal transport perturbations for safe reinforcement learning with robustness guarantees | |
Zheng et al. | Efficient feature selection using a self-adjusting harmony search algorithm | |
KR102222072B1 (ko) | 학습기반 데이터 처리 시스템 및 모델 갱신 방법 | |
US20200410366A1 (en) | Automatic determination of the run parameters for a software application on an information processing platform by genetic algorithm and enhanced noise management | |
Zolotukhin et al. | Curious SDN for network attack mitigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220908 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230801 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240213 |