JP2019101961A - 機械学習システム、機械学習装置及び機械学習方法 - Google Patents

機械学習システム、機械学習装置及び機械学習方法 Download PDF

Info

Publication number
JP2019101961A
JP2019101961A JP2017235018A JP2017235018A JP2019101961A JP 2019101961 A JP2019101961 A JP 2019101961A JP 2017235018 A JP2017235018 A JP 2017235018A JP 2017235018 A JP2017235018 A JP 2017235018A JP 2019101961 A JP2019101961 A JP 2019101961A
Authority
JP
Japan
Prior art keywords
interlayer
interlayer parameter
crossover
parameter sets
machine learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017235018A
Other languages
English (en)
Inventor
鎌谷 直之
Naoyuki Kamatani
直之 鎌谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SUTAAGEN KK
StaGen Co Ltd
Original Assignee
SUTAAGEN KK
StaGen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SUTAAGEN KK, StaGen Co Ltd filed Critical SUTAAGEN KK
Priority to JP2017235018A priority Critical patent/JP2019101961A/ja
Publication of JP2019101961A publication Critical patent/JP2019101961A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】深層学習を効率的に行うこと。【解決手段】少なくとも2つの層の間の層間パラメータを網羅する層間パラメータセットを複数用い、複数の層間パラメータセットにおける層間パラメータを所定単位で交換して新たな複数の層間パラメータセットを生成する交叉処理を行う。さらに、交叉処理により得られた複数の層間パラメータセットから次世代に遺伝する層間パラメータセットを選択する選択処理を行う。また、交叉処理に依らず層間パラメータを変更する変更処理(平均など)を行う。そして、交叉処理、選択処理及び変更処理(平均など)により複数の層間パラメータセットから次世代の複数の層間パラメータセットを生成する処理を繰り返して層間パラメータを最適化することで、深層学習を効率的に行うことができる。【選択図】図1

Description

本発明は、多層ニューラルネットワークにおける層間パラメータの訓練を行う機械学習システム、機械学習装置及び機械学習方法に関する。
従来、脳機能を摸したニューラルネットワークを各種データ処理に適用することが行われている。かかるニューラルネットワークは、少なくとも入力層と出力層にそれぞれノードを配し、ノード間のパラメータを学習によって最適化することで、新規の入力に対して適切な出力を行うことができる。
入力層と出力層の間に2層以上の隠れ層(中間層)を有する多層ニューラルネットワークにおける学習手法は、特に深層学習(ディープラーニング)と呼ばれており、近年その活用が試みられている。
例えば、特許文献1は、一連の対象者の一連の年代における医療データを、対象者及び年代ごとの個別データの集まりとして深層学習を適用し、潜在トピック分析により適切なクラスタリングを行う医療データ解析装置を開示している。
特開2017−027307号公報
しかしながら、従来の技術では、深層学習には膨大な計算能力と計算時間、勾配消失問題、局所最適解問題などのいくつかの問題があった。
学習の過程で局所最適解に陥ったり、勾配消失問題が起きたりすると、真の最適解に到達することなく学習が停滞し、所望の精度を得ることができない。そこで、局所最適解から脱出したり、勾配消失問題を回避したりして、真の最適解に到達することが重要となるが、このような問題を解決するすぐれた手法は見いだされていないのが実状である。
これらのことから、いかにして局所最適解から効率的に脱出し、勾配消失問題を回避し、深層学習に要求される計算能力と計算時間を削減し、もって深層学習全体の効率化を実現するかが重要な課題となっている。
本発明は、上述した課題を解決するためになされたものであって、深層学習を効率的に行うことのできる機械学習システム、機械学習装置及び機械学習方法を提供することを目的とする。
上述した課題を解決し、目的を達成するため、本発明は、多層ニューラルネットワークにおける層間パラメータの訓練を行う機械学習システムであって、少なくとも2つの層の間の層間パラメータを網羅する層間パラメータセットを複数用い、複数の層間パラメータセットにおける層間パラメータを所定単位で交換して新たな複数の層間パラメータセットを生成する交叉処理を行う交叉処理部と、前記交叉処理により得られた複数の層間パラメータセットから次世代に遺伝する層間パラメータセットを選択する選択処理を行う選択処理部と、前記交叉処理に依らず前記層間パラメータを変更する変更処理を行う変更処理部とを備え、前記交叉処理、選択処理及び前記変更処理により前記複数の層間パラメータセットから次世代の複数の層間パラメータセットを生成する処理を繰り返すことで前記層間パラメータを最適化することを特徴とする。
また、本発明は、上記発明において、前記交叉処理部は、出力側の1ノードに対する入力パラメータの組み合わせを前記所定単位として前記交叉処理を行うことを特徴とする。
また、本発明は、上記発明において、前記交叉処理部は、2つの層間パラメータセットにおける層間パラメータを前記所定単位で交換して新たな2つの層間パラメータセットを生成し、前記選択処理部は、前記新たな2つの層間パラメータセットを評価して次世代に継承する1つの層間パラメータセットを選択することを特徴とする。
また、本発明は、上記発明において、前記交叉処理部は、前記層間パラメータセットに含まれる層間パラメータのうち、どの層間パラメータを交換するかを無作為に決定することを特徴とする。
また、本発明は、上記発明において、前記交叉処理部は、第1父系層間パラメータセットと第1母系層間パラメータセットに対して交叉処理を行って新たな2つの第1父系層間パラメータセット候補を生成するとともに、第2父系層間パラメータセットと第2母系層間パラメータセットに対して交叉処理を行って新たな2つの第1母系層間パラメータセット候補を生成し、前記選択処理部は、前記2つの第1父系層間パラメータセット候補から次世代の第1父系層間パラメータセットを選択し、前記2つの第1母系層間パラメータセット候補から次世代の第1母系層間パラメータセットを選択することを特徴とする。
また、本発明は、上記発明において、前記変更処理部は、前記第1父系層間パラメータセットと前記第1母系層間パラメータセットとを用い、対応する層間パラメータを平均して次世代に遺伝する第2父系層間パラメータセットを生成するとともに、前記第2父系層間パラメータセットと前記第2母系層間パラメータセットとを用い、対応する層間パラメータを平均して次世代に遺伝する第2母系層間パラメータセットを生成することを特徴とする。
また、本発明は、上記発明において、前記変更処理部は、次世代に遺伝する層間パラメータセットに対して適用する勾配を算定し、算定した勾配に基づいて層間パラメータの更新を行うことで次世代の層間パラメータセットを生成することを特徴とする。
また、本発明は、上記発明において、前記変更処理部は、前記勾配を無作為に決定する処理である変異を所定確率で発生させることを特徴とする。
また、本発明は、上記発明において、前記変更処理部は、次世代に遺伝する層間パラメータセットを評価し、評価結果に応じて前記勾配の算定方法を異ならせることを特徴とする。
また、本発明は、多層ニューラルネットワークにおける層間パラメータの訓練を行う機械学習装置であって、少なくとも2つの層の間の層間パラメータを網羅する層間パラメータセットを複数用い、複数の層間パラメータセットにおける層間パラメータを所定単位で交換して新たな複数の層間パラメータセットを生成する交叉処理を行う交叉処理部と、前記交叉処理により得られた複数の層間パラメータセットから次世代に遺伝する層間パラメータセットを選択する選択処理を行う選択処理部と、前記交叉処理に依らず前記層間パラメータを変更する変更処理を行う変更処理部とを備え、前記交叉処理、選択処理及び前記変更処理により前記複数の層間パラメータセットから次世代の複数の層間パラメータセットを生成する処理を繰り返すことで前記層間パラメータを最適化することを特徴とする。
また、本発明は、多層ニューラルネットワークにおける層間パラメータの訓練を行う機械学習方法であって、少なくとも2つの層の間の層間パラメータを網羅する層間パラメータセットを複数用い、複数の層間パラメータセットにおける層間パラメータを所定単位で交換して新たな複数の層間パラメータセットを生成する交叉処理を行う交叉処理ステップと、前記交叉処理により得られた複数の層間パラメータセットから次世代に遺伝する層間パラメータセットを選択する選択処理を行う選択処理ステップと、前記交叉処理に依らず前記層間パラメータを変更する変更処理を行う変更処理ステップとを含み、前記交叉処理、選択処理及び前記変更処理により前記複数の層間パラメータセットから次世代の複数の層間パラメータセットを生成する処理を繰り返すことで前記層間パラメータを最適化することを特徴とする。
本発明によれば、深層学習を効率的に行うことができる。
図1は、本実施例に係る機械学習システムの概念の説明図である。 図2は、層間パラメータ行列と染色体の関係についての説明図である。 図3は、新世代の層間パラメータセットの生成についての説明図である。 図4は、交叉の具体例についての説明図である。 図5は、染色体ma1の勾配の算定を説明するフローチャートである。 図6は、染色体fe1の勾配の算定を説明するフローチャートである。 図7は、複数の層間における行列についての説明図である。 図8は、機械学習装置の機能構成を示す機能ブロック図である。 図9は、サブセット方式とミニセット方式の説明図である。 図10は、収束速度のテスト結果の説明図である。 図11は、サンプル数を変更した場合のテスト結果の説明図である。 図12は、局所最小からの脱出能力に係るテスト結果の説明図である。
以下に、添付図面を参照して、本発明に係る機械学習システム、機械学習装置及び機械学習方法の好適な実施例を詳細に説明する。
まず、本実施例に係る機械学習システムの概念について説明する。図1は、本実施例に係る機械学習システムの概念の説明図である。図1に示すように、本実施例に係る機械学習システムは、入力層、第1隠れ層、第2隠れ層及び出力層を有する多層ニューラルネットワークにおける深層学習を行う。
図1では、入力層に5つのノードを例示し、第1隠れ層に4つのノードを例示し、第2隠れ層に4つのノードを例示し、出力層に3つのノードを例示している。この多層ニューラルネットワークでは、ノード間のパラメータが学習によって更新される。
例えば、入力層のノード数は5であり、第1隠れ層のノード数が4であれば、入力層と第1隠れ層との間には5×4のパラメータが存在する(実際には、5×4のパラメータはパラメータの中でウェイトと呼ばれる部分であり、それ以外にバイアスという5つのパラメータが存在するため、5×5のパラメータが存在するが、これについては後述する)。このように、2つの層の間に存在するパラメータをそれぞれ層間パラメータという。
また、2つの層の間に存在するパラメータ全体、すなわち、2つの層の間の層間パラメータを網羅するパラメータのセットを層間パラメータセットという。この層間パラメータセットの中のウェイトは、「出力側のノード数×入力側のノード数」の行列として表すことができる。この行列において、1つの行は出力側の1ノードに対する入力側の全ノードからの出力に対応するウェイトのベクトルである。また、パラメータの中のバイアスはウェイトの行列の一つの行に一つ対応し、ウェイトとバイアスを含めたパラメータ全体は、各行の最後の要素に対応するバイアスを加えた「出力側のノード数×(入力側のノード数+1)」の行列で表される。この場合、入力側のノードの最後に仮想的なノードを加え、このノードは常に1を出力すると考える。以下の議論ではこのようなバイアスを加えた行列で考えることにする。
本実施例に係る機械学習システムでは、初期の層間パラメータセットを複数用意し、複数の層間パラメータセットから複数の層間パラメータセットを得る処理を繰り返すことで学習を行う。
ここで、本実施例に係る機械学習システムでは、交叉処理や選択処理などの遺伝的演算子を用いて複数の層間パラメータセットから複数の層間パラメータセットを得る処理を実現している。詳細については後述するが、本実施例における交叉処理とは、2つの層間パラメータセットの行列を行単位で交換して新たな2つの層間パラメータセットを生成する処理である。また、本実施例おける選択処理とは、2つの層間パラメータセットから次世代に遺伝する層間パラメータセットを1つ選択する処理である。さらに、交叉処理及び選択処理に加え、交叉処理に依らず層間パラメータを変更する変更処理として、平均、変異、勾配による更新なども用いる。
図1では、初期の層間パラメータセット、すなわち第1世代の層間パラメータセットとして2つの行列を例示している。第1世代の一方の行列は、便宜上全ての要素を「a」として表示しているが、各要素はそれぞれ任意に設定される。同様に、第1世代の他方の行列は、便宜上全ての要素を「b」として表示しているが、各要素はそれぞれ任意に設定される。
第1世代の2つ行列に対して交叉処理を行うと、新たな2つの行列が得られる。交叉処理では、交叉の数及び箇所が無作為に決定され、決定された箇所以降の行列が交換される。図1では、交叉の数は2、交叉の箇所は2行目と4行目である。2行目の交叉により、以降の行は全て他方の行に置き換えられ、4行目の交叉により、以降の行が再び他方の行に置き換えられる。従って、偶数回の交叉が発生した行は、元の要素が維持されることになる。
かかる交叉処理により得られた新たな2つの行列の一方は、1行目「a」、2行目「b」、3行目「b」、4行目「a」である。そして、新たな2つの行列の他方は、1行目「b」、2行目「a」、3行目「a」、4行目「b」である。この新たな2つの行列のうち、図1では1行目が「a」の行列が選択されている。
また、図1では、第1世代の2つ行列の平均を求め、新たな1つの行列を生成している。この行列は、それぞれの要素が第1世代の対応する2つの要素の平均値であるが、便宜上、全ての要素を「c」として表示している。
第1世代の2つ行列に対して交叉処理及び選択処理を行って得られた行列と、平均を行って得られた行列とが、第2世代の2つの行列となる。同様に、第2世代の2つ行列に対して交叉処理及び選択処理を行って得られた行列と、平均を行って得られた行列とが、第3世代の2つの行列となる。
このように、本実施例に係る機械学習システムでは、少なくとも2つの層の間の層間パラメータを網羅する層間パラメータセットを複数用い、複数の層間パラメータセットにおける層間パラメータを所定単位で交換して新たな複数の層間パラメータセットを生成する交叉処理を行う。さらに、交叉処理により得られた複数の層間パラメータセットから次世代に遺伝する層間パラメータセットを選択する選択処理を行う。また、交叉処理に依らず層間パラメータを変更する変更処理を行う。そして、交叉処理、選択処理及び変更処理により複数の層間パラメータセットから次世代の複数の層間パラメータセットを生成する処理を繰り返して層間パラメータを最適化することで、深層学習を効率的に行うことができる。
次に、層間パラメータ行列と染色体の関係について説明する。図2は、層間パラメータ行列と染色体の関係についての説明図である。本実施例に係る機械学習システムでは、層間パラメータの行列を染色体に対応させている。染色体は複数の順序付けられた座位を有し、各座位は、層間パラメータ行列の行に対応する。
具体的には、図2に示すように、1番目のノードと前の層のすべてのノードとの間の接続の重み(層間パラメータ)は、層間パラメータセットの行列の1行目として表され、この1行目が染色体の1番目の座位に対応する。但し、前述のようにそれぞれの行の最後にバイアスを加えたものをその行とするが、これについては詳しく述べない。同様に、i番目のノードと前の層のすべてのノードとの間の接続の重み(層間パラメータ)は、層間パラメータセットの行列のi行目として表され、このi行目が染色体のi番目の座位に対応する。
図3は、新世代の層間パラメータセットの生成についての説明図である。図1においては説明を簡明にするため、2つの層間パラメータセットから新たな2つの層間パラメータセットを生成する場合を例に説明を行ったが、本実施例に係る機械学習システムは、図3に示すように4つの層間パラメータセットから新たな4つの層間パラメータセットを生成することで深層学習を行う。
便宜上、4つの層間パラメータセットから新たな4つの層間パラメータセットを生成する場合に、先の4つの層間パラメータセットを旧世代とし、旧世代の層間パラメータセットから生成される新たな層間パラメータセットを新世代とする。
また、同一世代の4つの層間パラメータセットは、1組の男女の染色体とみなし、男性が保持する父系染色体、男性が保持する母系染色体、女性が所持する父系染色体、女性が保持する母系染色体にそれぞれ対応させる。父系染色体は、旧世代の男性から遺伝した染色体であり、母系染色体は旧世代の女性から遺伝した染色体である。旧世代の各個体の染色体は変更され、変更された染色体は次世代の男性と女性に伝達される。
図3に示すように、新世代の男性に与える染色体を生成する場合には、旧世代のそれぞれの個体の相同染色体に対し、交叉、選択、勾配算定及び更新の4つの処理を行う。一方、新世代の女性に与える染色体を生成する場合には、旧世代のそれぞれの個体の相同染色体に対し、平均、勾配算定及び更新の3つの処理を行う。
ここで、交叉処理について説明する。旧世代の各個体における交叉処理では、正規分布N(1, 0.52)から取り出した実数を四捨五入して染色体上の交叉部位の数を決定する。実数が負の場合はゼロに設定する。交叉部位は、全ての座位の間から無作為に選択される。このようにして決定された交叉部位に応じて、旧世代の個体の一対の相同染色体対が、世代交代中に交叉を起こす。隣接する2つの座位の間で交叉が起こる場合、交叉部位より下の座のアレルは2つの相同染色体の間で交換される。これは、座位に対応する父系および母系染色体の2つの行列の行が交換されることを意味する。交叉処理の後、2つの新しい染色体が作られる。最初の座位において父系アレルを有する染色体は、交叉後に父系染色体と命名される。もう片方の染色体は、交叉後に母系染色体と命名される。
選択処理では、交叉処理で生成された個体内の新しい染色体対が、サンプルによって計算された尤度に基づいて選択に供される。そのため、各新しい染色体に対応する行列を用いて、サンプルを用いてニューラルネットワークにおける尤度を計算する。計算結果に基づき、高い尤度を持つ染色体が選択され、次の勾配算定処理に送られる。
一方、平均処理では、旧世代の個体の父系および母系染色体に対応する2つの行列を平均して新しい行列を作成する。従って、2つの行列の各要素について平均値が計算され、新しい行列が作成される。このようにして作られた平均化された行列は、次の勾配算定処理に送られる。
勾配算定処理では、選択処理又は平均処理の後、染色体はma1、ma2、fe1及びfe2とラベル付けされる。即ち、染色体ma1および染色体ma2は、旧世代の男性から新世代に送られたものであり、染色体fe1及び染色体fe2は、旧世代の女性から新世代に送られたものである。染色体ma1及び染色体fe1は新世代の男性に、染色体ma2及び染色体fe2は新世代の女性に送られる。
染色体ma1及び染色体fe1については、選択処理で尤度が既に計算されており、交差エントロピーを容易に計算することができる。そして、2つの染色体のそれぞれについて、前世代から新世代への交差エントロピーの減少を計算し、交差エントロピーの差分として定義する。染色体ma1と染色体fe1の勾配の算定方法は、交差エントロピーの差分が以前の交差エントロピーの1%よりも大きいかどうか(交差エントロピーが1%以上減少するか否か)によって異ならせる。染色体ma2及び染色体fe2の勾配は、それぞれ染色体ma1及び染色体fe1の勾配と同一とする。
更新処理では、元の層間パラメータと、勾配処理で計算された勾配を使用して新しい層間パラメータが計算される。例えば、学習率を0.01とした場合には、新しい層間パラメータは、元の層間パラメータから0.01倍された勾配だけ増加する。
図4は、交叉の具体例についての説明図である。図4(a)は、交叉部位が1箇所のケースを示している。図4(a)では、2番目の座位と3番目の座位の間が交叉部位として決定されている。このため、父系染色体の3番目以降の座位と、母系染色体の3番目以降の座位が交換される。
従って、交叉前の父系染色体に対応する父系行列の全ての要素をa、交叉前の母系染色体に対応する母系行列の全ての要素をbとすると、交叉によって生成される新たな2つの行列の一方は、1行目「a」、2行目「a」、3行目「b」、4行目「b」となる。そして、新たな2つの行列の他方は、1行目「b」、2行目「b」、3行目「a」、4行目「a」となる。この新たな2つの行列に対して尤度が計算され、いずれかの行列が選択されることになる。
図4(b)は、交叉部位が2箇所のケースを示している。図4(b)では、2番目の座位と3番目の座位の間、並びに3番目の座位と4番目の座位の間が交叉部位として決定されている。このため、父系染色体の3番目以降の座位と、母系染色体の3番目以降の座位が交換され、さらに交換後の父系染色体の4番目以降の座位と、交換後の母系染色体の4番目以降の座位が交換される。
従って、交叉前の父系染色体に対応する父系行列の全ての要素をa、交叉前の母系染色体に対応する母系行列の全ての要素をbとすると、交叉によって生成される新たな2つの行列の一方は、1行目「a」、2行目「a」、3行目「b」、4行目「a」となる。そして、新たな2つの行列の他方は、1行目「b」、2行目「b」、3行目「a」、4行目「b」となる。この新たな2つの行列に対して尤度が計算され、いずれかの行列が選択されることになる。
次に、染色体ma1の勾配の算定について説明する。図5は、染色体ma1の勾配の算定を説明するフローチャートである。まず、機械学習システムは、染色体ma1の交差エントロピー(ma1)の差分を算出する(ステップS101)。交差エントロピー(ma1)の差分は、旧世代の染色体の交差エントロピー(ma1)prevから交叉及び選択後の交差エントロピー(ma1)currを減算することで計算できる。
機械学習システムは、交差エントロピー(ma1)が1%以上減少しているかを判定し(ステップS102)、交差エントロピー(ma1)が1%以上減少しているならば(ステップS102;Yes)、乱数により勾配の算定方法を決定する(ステップS103)。具体的には、90%の確率で行列(ma1)の偏微分により勾配(ma1)を算定し(ステップS105)、1.5%の確率で行列(fe1)の偏微分により勾配(ma1)を算定し(ステップS106)、8.5%の確率で正規分布N(0,1)により勾配(ma1)を算定する(ステップS107)。
また、機械学習システムは、交差エントロピー(ma1)が1%以上減少していなければ(ステップS102;No)、乱数により勾配の算定方法を決定する(ステップS104)。具体的には、15%の確率で行列(fe1)の偏微分により勾配(ma1)を算定し(ステップS108)、85%の確率で正規分布N(0,1)により勾配(ma1)を算定する(ステップS109)。
ここで、ステップS107及びステップS109において採用した正規分布からの勾配の算定は、遺伝における変異に対応する処理である。すなわち、正規分布から勾配を算定することで、それまでの層間パラメータに依存することなく求められた勾配に従って更新が行われることになる。
ステップS105〜ステップS109のいずれかで勾配(ma1)が算定されたならば、機械学習システムは、染色体(ma2)の勾配(ma2)を勾配(ma1)と同一の値とし(ステップS110)、処理を終了する。
次に、染色体fe1の勾配の算定について説明する。図6は、染色体fe1の勾配の算定を説明するフローチャートである。まず、機械学習システムは、染色体fe1の交差エントロピー(fe1)の差分を算出する(ステップS201)。交差エントロピー(fe1)の差分は、旧世代の染色体の交差エントロピー(fe1)prevから交叉及び選択後の交差エントロピー(fe1)currを減算することで計算できる。
機械学習システムは、交差エントロピー(fe1)が1%以上減少しているかを判定し(ステップS202)、交差エントロピー(fe1)が1%以上減少しているならば(ステップS202;Yes)、乱数により勾配の算定方法を決定する(ステップS203)。具体的には、90%の確率で行列(fe1)の偏微分により勾配(fe1)を算定し(ステップS205)、1.5%の確率で行列(ma1)の偏微分により勾配(fe1)を算定し(ステップS206)、8.5%の確率で正規分布N(0,1)により勾配(fe1)を算定する(ステップS207)。
また、機械学習システムは、交差エントロピー(fe1)が1%以上減少していなければ(ステップS202;No)、乱数により勾配の算定方法を決定する(ステップS204)。具体的には、15%の確率で行列(ma1)の偏微分により勾配(fe1)を算定し(ステップS208)、85%の確率で正規分布N(0,1)により勾配(fe1)を算定する(ステップS209)。
ここで、ステップS207及びステップS209において採用した正規分布からの勾配の算定は、遺伝における変異に対応する処理である。すなわち、正規分布から勾配を算定することで、それまでの層間パラメータに依存することなく求められた勾配に従って更新が行われることになる。
ステップS205〜ステップS209のいずれかで勾配(fe1)が算定されたならば、機械学習システムは、染色体(fe2)の勾配(fe2)を勾配(fe1)と同一の値とし(ステップS210)、処理を終了する。
次に、複数の層間における行列について説明する。図7は、複数の層間における行列についての説明図である。フィードフォワードネットワーク(FNN)では、1つのネットワークに複数の層間スペースに対応する複数の行列が存在する。図7に示すように、入力層、第1隠れ層、第2隠れ層及び出力層からなる4層の例では、1つのネットワークに3つの層間スペースが存在する。その結果、1つのネットワークに3組の行列を定義する必要がある。そのため、機械学習システムは、父系染色体と母系染色体の組にそれぞれ対応する父系ネットワークと母系ネットワークを用いる。1つの染色体は1つの行列に対応する。
既に説明したように、1番目の座位に父系アレルを有する染色体は、交叉後に父系染色体であると定義される。もう一方の染色体は、交叉後に母系染色体と定義される。FNNの場合、父系ネットワークは父系染色体の集合として定義され、母系ネットワークは母系染色体の集合として定義される。交叉処理の後、父系ネットワークは、1番目の座位に父系アレルを有する染色体の集合からなる。母系ネットワークは、もう一方の染色体の集合からなる。尤度は、父系および母系ネットワークのそれぞれについて計算される。
次に、機械学習システムにおける機械学習装置の構成について説明する。図8は、機械学習装置10の機能構成を示す機能ブロック図である。図8に示すように、機械学習装置10は、表示部11、操作部12、通信部13、記憶部14及び制御部15を有する。
表示部11は、液晶パネルなどの表示デバイスで構成され、操作者に対する表示出力に用いられる。操作部12は、キーボードやボタン等の操作デバイスで構成され、操作者からの操作の受付けに用いられる。また、タッチパネルディスプレイなどを用い、表示部11と操作部12とを一体に構成してもよい。通信部13は、外部の装置との通信を行う通信インタフェースである。
記憶部14は、ハードディスク装置又は不揮発性メモリなどからなる記憶デバイスであり、ネットワーク構造データ14a、訓練用データ14b及びパラメータデータ14c等を記憶する。
ネットワーク構造データ14aは、多層ニューラルネットワークの構造を示すデータである。訓練用データ14bは、入力データと正解の出力データがセットとなったサンプルデータである。パラメータデータ14cは、1世代分の層間パラメータセットを示すデータであり、このパラメータデータ14cが更新されることで学習が行われることになる。
制御部15は、機械学習装置10の全体制御を行う制御部であり、条件設定部15a、交叉処理部15b、選択処理部15c、平均処理部15d、勾配算定部15e及び更新処理部15fを有する。実際には、これらの機能部に対応するプログラムを図示しないROMや不揮発性メモリに記憶しておき、これらのプログラムをCPU(Central Processing Unit)にロードして実行することにより、条件設定部15a、交叉処理部15b、選択処理部15c、平均処理部15d、勾配算定部15e及び更新処理部15fにそれぞれ対応するプロセスを実行させることになる。
条件設定部15aは、深層学習に係る各種条件の設定を行う処理部である。深層学習に係る各種条件の設定には、ネットワーク構造データ14aの記憶部14への格納、訓練用データ14bの取得と記憶部14への格納、パラメータデータ14cの初期値(各層間パラメータの初期値)の設定と記憶部14への格納、訓練用データ14bの使用方法や訓練回数の設定などが含まれる。
交叉処理部15bは、パラメータデータ14cから1世代分の複数の層間パラメータセットを読み出し、複数の層間パラメータセットにおける層間パラメータを所定単位で交換して新たな複数の層間パラメータセットを生成する交叉処理を行う処理部である。具体的には、交叉処理部15bは、同一個体の父系染色体と母系染色体に対応する2つの層間パラメータセットについて、行単位で交換を行い、新たな2つの層間パラメータセットを生成する。
選択処理部15cは、交叉処理により得られた複数の層間パラメータセットから次世代に遺伝する層間パラメータセットを選択する選択処理を行う処理部である。具体的には、選択処理部15cは、交叉処理により得られた2つの層間パラメータセットについて尤度を計算し、次世代に父系染色体として遺伝させる層間パラメータセットを選択する。
平均処理部15d、勾配算定部15e及び更新処理部15fは、交叉処理に依らず前記層間パラメータを変更する変更処理を行う変更処理部として機能する。具体的には、平均処理部15dは、同一個体の父系染色体と母系染色体に対応する2つの層間パラメータセットについて、対応する層間パラメータを平均して次世代に母系染色体として遺伝させる層間パラメータセットを生成する。また、勾配算定部15eは、次世代に遺伝する層間パラメータセットに対して適用する勾配を算定する処理部であり、更新処理部15fは、算定された勾配に基づいて層間パラメータの更新を行う処理部である。
ここで、勾配算定部15eは、次世代に遺伝する層間パラメータセットを評価し、評価結果に応じて勾配の算定方法を異ならせる。また、勾配を無作為に決定する処理である変異を所定確率で発生させる。
次に、学習の具体例について説明する。まず、訓練用データ14bとしては、所定の手書き数字データセットを用いた。この所定の手書き数字データセットの1つのサンプルは、28×28画素(入力データ)に対応する値を有する画像データと正解の数値から構成される。
また、比較のため、遺伝的演算子(交叉、変異、選択等)を伴わない標準的なstacked denoising autoencoder(SDA)についても学習を行った。なお、入力層のノード数は784、第1隠れ層のノード数は200、第2隠れ層のノード数は200、出力層のノード数は10とした。入力層のノード数はサンプル中のピクセル数で決定されたものである。また、出力層のノード数は出力が1桁の整数(0〜9)であるために10となった。
SDAは、事前訓練又は教師なし学習と微調整又は教師あり学習の2つの部分に分かれている。まず、出力層のノード数を入力層と同じにし、更に各ノードの値が入力層と出力層で同じ値になるようにパラメータを調整する方法(autoencoder)により、最初の2つの層(入力層および第1隠れ層)を対象とし、教師なし学習を行った。訓練の後、出力層を削除し、引き続き、第1隠れ層及び第2隠れ層をそれぞれ入力層と隠れ層にし、入力層と同じノード数の出力層を新たに加えた。その上で、入力層と出力層の各ノードの値が同じになるようにautoencoderによって訓練し、出力層は削除した。最後に、教師あり学習による微調整は、最初の4つの層のすべてを用いてパラメータを訓練することによって実行した。第2隠れ層から10ノードの出力層への移行のためのパラメータを除いて、教師なしの学習によって訓練された値から初期パラメータ値を採用した。第2隠れ層から10ノードの出力層への移行のためのパラメータは、N(0,1)/10から取り出した。望ましい出力は10個のうちの一つ(0〜9)であるため、SDAの出力層は10個のsoftmax関数で構成され、それぞれの数の事後確率を示している。
教師なし学習と教師あり学習の両方において、パラメータの最適化は、訓練サンプルを用いて計算された交差エントロピーの最小化に基づいた方法を用いた。交差エントロピーの最小化には、バックプロパゲーションアルゴリズムによって偏微分を計算した後、確率的勾配降下(SGD)法を使用した。
ここで、ネットワークの訓練には、2つの異なる方式、サブセット方式およびミニセット方式を使用した。図9は、サブセット方式とミニセット方式の説明図である。図9(a)に示すように、サブセット方式では、サブセット内のすべてのサンプルについて、7つのエポックの間、最初のサンプルから最後のサンプルまで順番に使用した。一方、図9(b)に示すミニセット方式では、サブセットを100サンプルのミニセットに分割し、各ミニセットを別々に使用して訓練を実施した。すなわち、最初のミニセットを7エポックで訓練した後、次のミニセットを7エポックで引き続き訓練した。このようにして、次々に一連のミニセットを用いて訓練を行った。
また、XORモデルを用いて、アルゴリズムの局所最小問題をテストした。ここでは、手書き数字データの認識に使用した同じSDAを、各層の異なるユニット数、異なるサンプルおよび教師データ、及び異なる学習速度で使用した。この新しいSDAは、入力層に2ノード、第1隠れ層及び第2隠れ層に2ノード、出力層に1ノードを有していた。XORモデルを用いた局所最小問題の検定手順では、学習率は0.2とした。訓練セットは、{0,0}、{0,1}、{1,0}、および{1,1}の250回繰り返しにより構成された。SDA、TL1及びTL2は、1000サンプルで100回(エポック)訓練され、同様の4つの繰り返しサンプルを使用して100回テストした。教師データと同じ出力を有するサンプルの割合を精度とした。
ここで、TL2は、上述した交叉、選択、変異を含む勾配算定を全て用いるアルゴリズムであり、TL1は、交叉及び選択を用いるが、勾配算定を標準的な方法で行うアルゴリズムである。従って、TL1では、勾配は、それ自身の染色体の値から得られた偏微分を用いてのみ決定されることになる。なお、SDAでは、交叉と選択も行われない。
深層学習の問題の1つは、巨大な計算能力と計算時間が必要なことであり、通常、複数のGPUを使用した並列コンピューティングが必要である。そこで、収束する時間を評価するために、標準的な方法よりも少ないサンプル数と少ないエポック数でテストを行った。使用したSDAは、60000のサンプルを15のエポックで訓練し、10000のテストサンプルでテストした結果、98.82%の精度を達成する能力を持っていた。しかし、結果が妥当な値にどれほど迅速に収束するかを知るために、少数のサンプルを訓練に使用した。
最初に、標準SDA、TL1(交叉、選択があるが変異なし)とTL2(交叉、選択および変異)の10進の手書き数字(0〜9)認識の精度を、手書き数字データセットのサブセットを用いて比較した。以下の記述では、ミニセットは100サンプルのセットを指す。事前訓練と微調整の両方でミニバッチサイズ10を使用した。また、事前訓練(7回)と微調整(7回)の両方でエポックの数を制限して、収束がどのくらい早く起きるかを確認した。各アルゴリズムの性能を、異なる数のサンプルならびに異なる方式を用いて調べた。
図10は、収束速度のテスト結果の説明図である。この図10では、SDA、TL1及びTL2を用いた結果を示している。図10の各点は、4回の独立した実験の結果の平均及びSDを示す。これらのテストにおける精度は、実際にはランダムに起きる正解確率から予想される10%よりも大きいが、100%の理想精度よりもはるかに低い。これは、サブセットとして使用されるサンプルの数が100で、標準的な訓練よりもはるかに小さいためである。図10の結果は、交叉、選択および変異を組み込んだTL2の性能が最良であることを示している。SDAの性能もTL1の性能もTL2ほど良好では無かった。また、エポックの数が増加したときにTL2の精度は増加するが、他のアルゴリズムの精度は不安定であることが示されている。
理論的には、精度を上げるには2つの方法がある。即ち、1つはサンプルの数を増やすことで、もう1つはエポックの数を増やすことである。そこで、サンプル数を変更してテストを行った。図11は、サンプル数を変更した場合のテスト結果の説明図である。
まず、サブセットのサンプル数を400に増やしてテストを行った。このテストでは、サブセットをミニセットに分割せず、サブセット方式を採用した(図11A)。その結果、精度は一般にエポックの数が増加するにつれて増加した。少数のエポックでは、TL2の精度が最も高く、SDAとTL1の精度は同等であったが、TL2より劣っていた。エポック数7では、3つのアルゴリズムの違いはほとんどなかったが、TL2の精度は、100サンプルのサブセットを使用した場合よりも低かった。
次に、400サンプルのサブセットを100サンプルずつの4つのミニセットに分割し、順次訓練するミニセット方式を採用してテストを行った(図11B)。ここで、第1ミニセットの結果は、図10のエポック7の結果に対応する。TL2が使用されたとき、使用されるミニセットの数が増加すると精度が増加し、すべてのミニセットが使用された時の精度は40%以上であった。しかし、TL1とSDAの性能はTL2に比べて劣っていた。
これらの結果は、TL2が使用されるとき、ミニセット方式が精度に関してサブセット方式よりも優れていることを示している。
次に、サブセット方式で訓練用に800サンプルのサブセットを使用し、テスト用に800サンプルの独立したセットを使用した。精度は一般に、100または400サンプルのサブセットを使用した場合よりも高く、エポックの数が増加するにつれて精度が向上した(図11C)。エポック7の精度は、SDA、TL1及びTL2の間で同等であった。なお、データは示していないが、エポックの数がさらに増えても精度はそれほど向上しなかった。
次に、ミニセット方式で800サンプルのサブセットを使用した。TL2は他のアルゴリズムより優れており、精度はミニセットの数の関数として単調増加した(図11D)。このような単調増加はSDAやTL1では観察されなかった。
次に、局所最小からの脱出能力のテスト結果について説明する。図12は、局所最小からの脱出能力に係るテスト結果の説明図である。局所最小からの脱出能力のテストを行ったのは、この能力が深層学習の精度の差に貢献する可能性があるためである。また、この能力は、上述のXORテストで試験した。また、TL1とTL2に加えて、単純なニューラルネットワーク(NN)も使用した。その結果、TL2(97.5%)、NN(90.25%)の順で局所最小値からの脱出率が高かった。TL1は87.25%の最低値を示した。この順序は、一般に精度の順序に一致する。これらの結果は、変異が局所的最小問題に有用であり、TL2における高い精度に寄与している可能性を示唆する。
上述してきたように、本実施例に係る機械学習システムでは、少なくとも2つの層の間の層間パラメータを網羅する層間パラメータセットを複数用い、複数の層間パラメータセットにおける層間パラメータを所定単位で交換して新たな複数の層間パラメータセットを生成する交叉処理を行う。さらに、交叉処理により得られた複数の層間パラメータセットから次世代に遺伝する層間パラメータセットを選択する選択処理を行う。また、交叉処理に依らず層間パラメータを変更する変更処理を行う。そして、交叉処理、選択処理及び変更処理により複数の層間パラメータセットから次世代の複数の層間パラメータセットを生成する処理を繰り返して層間パラメータを最適化することで、深層学習を効率的に行うことができる。
具体的には、本実施例では、出力側の1ノードに対する入力パラメータの組み合わせを所定単位として交叉処理を行っている。また、2つの層間パラメータセットにおける層間パラメータを所定単位で交換して新たな2つの層間パラメータセットを生成し、新たな2つの層間パラメータセットを評価して次世代に遺伝する1つの層間パラメータセットを選択している。また、層間パラメータセットに含まれる層間パラメータのうち、どの層間パラメータを交換するかは無作為に決定している。
また、第1父系層間パラメータセット(男性の父系染色体)と第1母系層間パラメータセット(男性の母系染色体)に対して交叉処理を行って新たな2つの第1父系層間パラメータセット候補を生成するとともに、第2父系層間パラメータセット(女性の父系染色体)と第2母系層間パラメータセット(女性の母系染色体)に対して交叉処理を行って新たな2つの第1母系層間パラメータセット候補を生成し、2つの第1父系層間パラメータセット候補から次世代の第1父系層間パラメータセット(次世代の男性に遺伝する父系染色体)を選択し、2つの第1母系層間パラメータセット候補から次世代の第1母系層間パラメータセット(次世代の男性に遺伝する母系染色体)を選択している。
また、第1父系層間パラメータセット(男性の父系染色体)と第1母系層間パラメータセット(男性の母系染色体)とを用い、対応する層間パラメータを平均して次世代に遺伝する新たな第2父系層間パラメータセット(次世代の女性に遺伝する父系染色体)を生成するとともに、前記第2父系層間パラメータセットと前記第2母系層間パラメータセットとを用い、対応する層間パラメータを平均して次世代に遺伝する第2母系層間パラメータセット(次世代の女性に遺伝する母系染色体)を生成している。
また、次世代に遺伝する層間パラメータセットに対して適用する勾配を算定し、算定した勾配に基づいて層間パラメータの更新を行うことで次世代の層間パラメータセットを生成している。さらに、勾配を無作為に決定する処理である変異を所定確率で発生させている。また、次世代に遺伝する層間パラメータセットを評価し、評価結果に応じて勾配の算定方法を異ならせている。
また、本実施例により、サブセットを分割して訓練を行うミニセット方式を用いることで、コンピュータのCPUパワーとメモリサイズの制限といった深層学習の問題を解決する可能性が示唆された。また、交叉、選択及び変異を用いるTL2は他のアルゴリズムより速く収束するため、計算時間の短縮が期待できる。TL2を用い、ミニセット方式で訓練を行うことは、特に限られたコンピューティングリソースを持つパーソナルコンピュータでの実施に有用である。
なお、上記実施例はあくまで一例であり、本発明を限定するものではない。また、図示した各構成は機能概略的なものであり、必ずしも物理的に図示の構成をされていることを要しない。すなわち、各装置の分散・統合の形態は図示のものに限られず、その全部または一部を各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
以上のように、本発明に係る機械学習システム、機械学習装置及び機械学習方法は、深層学習を効率的に行うことに適している。
10 機械学習装置
11 表示部
12 操作部
13 通信部
14 記憶部
14a ネットワーク構造データ
14b 訓練用データ
14c パラメータデータ
15 制御部
15a 条件設定部
15b 交叉処理部
15c 選択処理部
15d 平均処理部
15e 勾配算定部
15f 更新処理部

Claims (11)

  1. 多層ニューラルネットワークにおける層間パラメータの訓練を行う機械学習システムであって、
    少なくとも2つの層の間の層間パラメータを網羅する層間パラメータセットを複数用い、複数の層間パラメータセットにおける層間パラメータを所定単位で交換して新たな複数の層間パラメータセットを生成する交叉処理を行う交叉処理部と、
    前記交叉処理により得られた複数の層間パラメータセットから次世代に遺伝する層間パラメータセットを選択する選択処理を行う選択処理部と、
    前記交叉処理に依らず前記層間パラメータを変更する変更処理を行う変更処理部と
    を備え、
    前記交叉処理、選択処理及び前記変更処理により前記複数の層間パラメータセットから次世代の複数の層間パラメータセットを生成する処理を繰り返すことで前記層間パラメータを最適化することを特徴とする機械学習システム。
  2. 前記交叉処理部は、出力側の1ノードに対する入力パラメータの組み合わせを前記所定単位として前記交叉処理を行うことを特徴とする請求項1に記載の機械学習システム。
  3. 前記交叉処理部は、2つの層間パラメータセットにおける層間パラメータを前記所定単位で交換して新たな2つの層間パラメータセットを生成し、
    前記選択処理部は、前記新たな2つの層間パラメータセットを評価して次世代に継承する1つの層間パラメータセットを選択する
    ことを特徴とする請求項1又は2に記載の機械学習システム。
  4. 前記交叉処理部は、前記層間パラメータセットに含まれる層間パラメータのうち、どの層間パラメータを交換するかを無作為に決定することを特徴とする請求項3に記載の機械学習システム。
  5. 前記交叉処理部は、第1父系層間パラメータセットと第1母系層間パラメータセットに対して交叉処理を行って新たな2つの第1父系層間パラメータセット候補を生成するとともに、第2父系層間パラメータセットと第2母系層間パラメータセットに対して交叉処理を行って新たな2つの第1母系層間パラメータセット候補を生成し、
    前記選択処理部は、前記2つの第1父系層間パラメータセット候補から次世代の第1父系層間パラメータセットを選択し、前記2つの第1母系層間パラメータセット候補から次世代の第1母系層間パラメータセットを選択する
    ことを特徴とする請求項3又は4に記載の機械学習システム。
  6. 前記変更処理部は、前記第1父系層間パラメータセットと前記第1母系層間パラメータセットとを用い、対応する層間パラメータを平均して次世代に遺伝する第2父系層間パラメータセットを生成するとともに、前記第2父系層間パラメータセットと前記第2母系層間パラメータセットとを用い、対応する層間パラメータを平均して次世代に遺伝する第2母系層間パラメータセットを生成することを特徴とする請求項5に記載の機械学習システム。
  7. 前記変更処理部は、次世代に遺伝する層間パラメータセットに対して適用する勾配を算定し、算定した勾配に基づいて層間パラメータの更新を行うことで次世代の層間パラメータセットを生成することを特徴とする請求項1〜6のいずれか一つに記載の機械学習システム。
  8. 前記変更処理部は、前記勾配を無作為に決定する処理である変異を所定確率で発生させることを特徴とする請求項7に記載の機械学習システム。
  9. 前記変更処理部は、次世代に遺伝する層間パラメータセットを評価し、評価結果に応じて前記勾配の算定方法を異ならせることを特徴とする請求項7又は8に記載の機械学習システム。
  10. 多層ニューラルネットワークにおける層間パラメータの訓練を行う機械学習装置であって、
    少なくとも2つの層の間の層間パラメータを網羅する層間パラメータセットを複数用い、複数の層間パラメータセットにおける層間パラメータを所定単位で交換して新たな複数の層間パラメータセットを生成する交叉処理を行う交叉処理部と、
    前記交叉処理により得られた複数の層間パラメータセットから次世代に遺伝する層間パラメータセットを選択する選択処理を行う選択処理部と、
    前記交叉処理に依らず前記層間パラメータを変更する変更処理を行う変更処理部と
    を備え、
    前記交叉処理、選択処理及び前記変更処理により前記複数の層間パラメータセットから次世代の複数の層間パラメータセットを生成する処理を繰り返すことで前記層間パラメータを最適化することを特徴とする機械学習装置。
  11. 多層ニューラルネットワークにおける層間パラメータの訓練を行う機械学習方法であって、
    少なくとも2つの層の間の層間パラメータを網羅する層間パラメータセットを複数用い、複数の層間パラメータセットにおける層間パラメータを所定単位で交換して新たな複数の層間パラメータセットを生成する交叉処理を行う交叉処理ステップと、
    前記交叉処理により得られた複数の層間パラメータセットから次世代に遺伝する層間パラメータセットを選択する選択処理を行う選択処理ステップと、
    前記交叉処理に依らず前記層間パラメータを変更する変更処理を行う変更処理ステップと
    を含み、
    前記交叉処理、選択処理及び前記変更処理により前記複数の層間パラメータセットから次世代の複数の層間パラメータセットを生成する処理を繰り返すことで前記層間パラメータを最適化することを特徴とする機械学習方法。
JP2017235018A 2017-12-07 2017-12-07 機械学習システム、機械学習装置及び機械学習方法 Pending JP2019101961A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017235018A JP2019101961A (ja) 2017-12-07 2017-12-07 機械学習システム、機械学習装置及び機械学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017235018A JP2019101961A (ja) 2017-12-07 2017-12-07 機械学習システム、機械学習装置及び機械学習方法

Publications (1)

Publication Number Publication Date
JP2019101961A true JP2019101961A (ja) 2019-06-24

Family

ID=66977012

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017235018A Pending JP2019101961A (ja) 2017-12-07 2017-12-07 機械学習システム、機械学習装置及び機械学習方法

Country Status (1)

Country Link
JP (1) JP2019101961A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102352375B1 (ko) * 2020-08-19 2022-01-18 서울대학교산학협력단 유전 알고리즘 기반의 엣지 컴퓨팅 최적화 장치 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102352375B1 (ko) * 2020-08-19 2022-01-18 서울대학교산학협력단 유전 알고리즘 기반의 엣지 컴퓨팅 최적화 장치 및 방법

Similar Documents

Publication Publication Date Title
Cai et al. A diversity indicator based on reference vectors for many-objective optimization
Wang et al. A grey prediction-based evolutionary algorithm for dynamic multiobjective optimization
Thiele et al. A preference-based evolutionary algorithm for multi-objective optimization
EP0942384A2 (en) Method and apparatus to model the variables of a data set
CN112966114A (zh) 基于对称图卷积神经网络的文献分类方法和装置
Naik et al. Genetic algorithm-aided dynamic fuzzy rule interpolation
Garcia-Capulin et al. A hierarchical genetic algorithm approach for curve fitting with B-splines
Oh et al. Genetically optimized fuzzy polynomial neural networks
Peng et al. Birandom variables and birandom programming
Chan et al. A two-phase evolutionary algorithm for multiobjective mining of classification rules
CN111369000A (zh) 一种基于分解的高维多目标进化方法
Zhang et al. A reference direction and entropy based evolutionary algorithm for many-objective optimization
Guenounou et al. TSK fuzzy model with minimal parameters
Zhang et al. Embedding multi-attribute decision making into evolutionary optimization to solve the many-objective combinatorial optimization problems
JP2019101961A (ja) 機械学習システム、機械学習装置及び機械学習方法
Datta Efficient genetic algorithm on linear programming problem for fittest chromosomes
D’Ambrosio et al. Meta-model assisted evolutionary optimization of cellular automata: An application to the SCIARA model
Sun et al. Adaptive Strategies Based on Differential Evolutionary Algorithm for Many‐Objective Optimization
Tan Hybrid evolutionary approach for designing neural networks for classification
KR20230043071A (ko) 변이체 병원성 채점 및 분류 그리고 이의 사용
Makino et al. Stochastic schemata exploiter-based AutoML
CN113205185A (zh) 网络模型优化方法、装置、计算机设备和存储介质
JP3287738B2 (ja) 関係関数探索装置
Drugan Sets of interacting scalarization functions in local search for multi-objective combinatorial optimization problems
de Almeida et al. Transgenetic algorithms for the multi-objective quadratic assignment problem