JP2018156619A - Global search device and program for consecutive optimization problem - Google Patents
Global search device and program for consecutive optimization problem Download PDFInfo
- Publication number
- JP2018156619A JP2018156619A JP2017155490A JP2017155490A JP2018156619A JP 2018156619 A JP2018156619 A JP 2018156619A JP 2017155490 A JP2017155490 A JP 2017155490A JP 2017155490 A JP2017155490 A JP 2017155490A JP 2018156619 A JP2018156619 A JP 2018156619A
- Authority
- JP
- Japan
- Prior art keywords
- evaluation function
- gradient
- equation
- partial
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、連続最適化問題の大域的探索装置及びプログラムに関する。 The present invention relates to a global search apparatus and program for continuous optimization problems.
例えば、多次元の探索空間において変数、すなわちパラメータの最適値を求める手法が提案されている(例えば、特許文献1参照)。特許文献1記載の技術によれば、探索空間内に最適値算出対象のパラメータを要素とする複数の個体を生成し、これらの個体の評価値を算出し、個体の中から評価値の悪い個体を選択している。そして、この選択された個体を評価値の良い個体に所定の割合(α)で近づけている。また、評価値の悪い個体を最良の評価値の個体から一定のユークリッド距離内にある任意の領域に移動させている。そして、より良い評価値の個体を選択し最良の評価値の個体を随時更新し、複数の個体の評価値を収束させ、終了判定条件を満たしたと判定した時点で最良の評価値を有する個体に含まれるパラメータをパラメータの最適値として出力している。
For example, a method for obtaining an optimum value of a variable, that is, a parameter in a multidimensional search space has been proposed (see, for example, Patent Document 1). According to the technique described in
例えば多数の極値を備える評価関数を適用した場合、特許文献1に記載の技術を用いて変数の最適値を探索すると、多数の極値を網羅的に探索するためには所定の割合αを小さく設定して収束過程における探索処理を細かく設定しなければならない。すると、収束しきるまでに長時間を要してしまい、解の精度と処理速度とを両立することが困難となる。
本発明の目的は、解の精度と処理速度を共に向上できるようにした連続最適化問題の大域的探索装置及びプログラムを提供することにある。
For example, when an evaluation function having a large number of extreme values is applied, when the optimum value of a variable is searched using the technique described in
It is an object of the present invention to provide a global search apparatus and program for continuous optimization problems that can improve both the accuracy and processing speed of solutions.
請求項1に記載した発明は、複数の要求、制約により生成される全体評価関数の最適解を探索するための連続最適化問題の大域的探索装置である。この請求項1記載の発明によれば、次のように作用する。設定部は、多数の要求、制約の中から一部の要求、制約により生成される部分評価関数に分け、部分評価関数に沿って1または複数の個体を設定する。そして、最適解探索部は、設定された部分評価関数の最適解を探索しながら、または、部分的な最適解を探索した後、当該探索される部分的な解を備える個体の間に引力を作用させて全体評価関数の最適解を探索する。
The invention described in
請求項1記載の発明によれば、一度に全ての要求、制約を扱うことなく、少数の要求、制約による部分評価関数の最適解を探索しながら又は探索した後、全ての要求、制約による全体評価関数の最適解を探索できるようになり、高速且つ高精度に探索可能になる。 According to the first aspect of the present invention, the entire solution based on all the requests and constraints is searched while searching for the optimal solution of the partial evaluation function based on a small number of requests and constraints without handling all the requests and constraints at once. The optimum solution of the evaluation function can be searched, and the search can be performed with high speed and high accuracy.
以下、本発明の連続最適化問題の大域的探索装置及びプログラムの幾つかの実施形態について図面を参照して説明する。以下の実施形態中では、各実施形態間で同一機能または類似機能を備えた部分に同一符号を付して説明を行い、同一又は類似機能を備えた構成及びその作用、連携動作説明等を必要に応じて省略する。 Hereinafter, several embodiments of a global search apparatus and program for a continuous optimization problem of the present invention will be described with reference to the drawings. In the following embodiments, parts having the same function or similar functions are denoted by the same reference numerals in each embodiment, and a configuration having the same or similar functions, its operation, explanation of cooperative operation, etc. are necessary. Omitted according to.
(第1実施形態)
図1Aから図10は第1実施形態の説明図を示している。最適化装置1は、CPU2と、ROM、RAM等のメモリ3と、入出力インタフェース4とをバス接続して構成されたマイクロコンピュータ(以下マイコン)5、又は汎用コンピュータなどを用いて連続最適化問題の大域的探索装置として構成される。以下、マイコン5が最適化処理を実行することとして説明を行う。マイコン5が、メモリ3に記憶された最適化プログラムを実行し、各種手順を実行することで最適化処理を実行する。メモリ3は非遷移的実体的記録媒体として用いられる。
(First embodiment)
FIG. 1A to FIG. 10 are explanatory diagrams of the first embodiment. The
ここで最適化処理とは、1以上のM(≧1)次元を備えたユークリッド空間からなる探索空間Sを想定し、この探索空間Sの中で、複数の要求や制約によって生成された全体評価関数Hoptの最小値、または、全体評価関数Hoptが最適値となる条件を満たす変数xi、すなわち最適解を求める処理を示す。
以下では、全体評価関数Hoptの最小値を最適値として求めるための形態を示すが、最大値を最適値として求める処理に適用しても良い。
Here, the optimization process assumes a search space S composed of Euclidean space having one or more M (≧ 1) dimensions, and an overall evaluation generated by a plurality of requests and constraints in the search space S. A process of obtaining a variable x i that satisfies the minimum value of the function Hopt or the overall evaluation function Hopt as an optimal value, that is, an optimal solution is shown.
In the following, a form for obtaining the minimum value of the overall evaluation function Hopt as the optimum value is shown, but it may be applied to processing for obtaining the maximum value as the optimum value.
全体評価関数Hoptは、複数の要求や制約によって生成され、1以上のM個の変数(パラメータ)に基づいて導出される数式による関数を示すものであり、例えば任意の多項式、有理関数、無理関数、指数関数、対数関数やその加減乗除等による組み合わせなどを挙げることができる。図1Bに示すように、最適化装置1は、マイコン5により実現される機能として、設定部6、及び、最適解探索部7などの各種機能を備えるものである。
The overall evaluation function Hopt is a function that is generated by a plurality of requests or constraints and is derived based on one or more M variables (parameters). For example, an arbitrary polynomial, rational function, or irrational function , An exponential function, a logarithmic function, and a combination of addition, subtraction, multiplication and division. As shown in FIG. 1B, the
図2に最適化処理の概略的な流れをフローチャートで示し、図3に探索処理のイメージ図を示している。マイコン5は、全体評価関数Hoptを形成する複数の要求、制約について、図2のS1において全体の要求、制約を複数のグループに分ける。(図3のS10:設定部6の機能)。
FIG. 2 is a flowchart showing a schematic flow of the optimization process, and FIG. 3 is an image diagram of the search process. The
そして、マイコン5は、図2のS2においてこの分類された要求、制約により部分評価関数Hi(xi)を設定する(図3のS11:設定部6の機能)。図5には部分評価関数Hi(xi)のイメージを模式的に示している。部分評価関数Hi(xi)は前述のS10にて選択される要求、制約に応じて設定されるもので、実効的な評価関数Heffは下記の(1)式のように示される。
この(1)式の実効的な評価関数Heff({xi})は、個々の部分評価関数Hi(xi)と関数f(xi−xi+1)の和の積算値を示すものであり、関数f(xi−xi+1)は例えば(2)式に示すような引力係数λi,ρi/2を用いた関数である。ここで、λiは1次引力係数、ρi/2は2次引力係数を示している。ここで、ρiは予め定められた正の定数である。
マイコン5は、図2のS3において1または複数の個体Kを部分評価関数Hi(xi)に沿って設定する(設定部6の機能)。図6には、グループ分けされた4つの部分評価関数Hi(xi)にそれぞれ1つの個体Kを設定するときの設定例を示している。すなわち、4つの個体K1〜K4の設定例を示している。
The
次にマイコン5は、図2のS4において、複数の個体Kが収束するようにこの複数の個体Kの間の引力を制御しながら、実効的な評価関数Heffを極小化する(図3のS12、S13:最適解探索部7の機能)。探索初期において引力を弱く設定することで、探索初期には部分評価関数Hi(xi)がそれぞれ極小化され、探索後半においては引力により個体Kを収束させる。また、探索初期において引力を強く設定すれば、部分評価関数Hi(xi)の極小化と個体Kの収束が並行して実行されることになる。図7は、探索初期の引力を弱く設定し、部分評価関数Hi(xi)の極小値に収束させたときの個体K1〜K4の位置を示している。以上のように、マイコン5は、図2のS4において部分的な最適解を探索しつつ当該探索される部分的な解を備える個体Kの間に引力を作用させて実効的な評価関数Heffを最小化することで全体評価関数Hoptの最適解を探索する(図3のS13:最適解探索部7の機能)。
Next, in S4 of FIG. 2, the
例えば、図4に示されるように、機械学習においては、取得した膨大なデータに沿うモデル(例えばy=ax+b)を、例えば最小二乗法によるフィッティングモデルを用いて取得データに対して最適なパラメータa,bを決定することがある。これらの取得データは、それぞれがパラメータa,bに対する一つの要求、制約となる。本実施形態では、多数の全体のデータを複数グループに分け、各グループに対するフィッティングモデルを部分評価関数Hi(x)とし、この部分評価関数Hi(x)の最適解を探索しながら個体Kの間に引力を作用させて一つに収束させることで、全データを表現するモデルとして最も適切なパラメータa,bを導出する。 For example, as shown in FIG. 4, in machine learning, a model (for example, y = ax + b) along a large amount of acquired data is converted into an optimum parameter a for the acquired data using, for example, a fitting model based on the least square method. , B may be determined. Each of these acquired data becomes one requirement and restriction for the parameters a and b. In this embodiment, divided into a number of entire data into a plurality of groups, a fitting model for each group as a partial evaluation function H i (x), the individual K while searching the optimal solution of the partial evaluation function H i (x) The parameters a and b most suitable as a model for expressing all data are derived by applying an attractive force between the two to converge to one.
この内容を実現するため、実効的な評価関数Heffを(1)、(2)式のように設定し、下記の(3−1)式、(3−2)式の条件を満たすように、一次引力係数λを更新する。ここで二次引力係数ρiは所定の値に設定される。
この(3)式において、g(x)は所定の関数であり、dg(x)/dx≧0、x・g(x)≧0を満たすことから、g(x)は単純増加関数であり、変数xと関数g(x)とは同一符号とすることが望ましい。また、例えば下記の(4)式を満たすように設定することが望ましい。ここで、次数nは2m−1(但しmは自然数)を満たす奇数である。
この図2のS4における(1)〜(3−1)、(3−2)式を満たす更新処理においては、部分評価関数Hi(xi)の最適解を導出しつつ、個体Kの間の引力を増加させながら実効的な評価関数Heffの極小化を繰り返すことで、全体評価関数Hoptの最適解を探索する。なお、探索初期の引力を弱くすれば、部分評価関数Hi(xi)の最適解探索と収束による全体評価関数Hoptの最適解探索処理は分離される。図7及び図8は、部分評価関数Hi(xi)の最適解を探索した後、個体Kの収束により全体評価関数Hoptの最適解を探索するイメージを示している。 In the update process that satisfies the expressions (1) to (3-1) and (3-2) in S4 of FIG. 2, while deriving the optimal solution of the partial evaluation function H i (x i ), By repeating the minimization of the effective evaluation function H eff while increasing the attractive force, the optimum solution of the overall evaluation function H opt is searched. If the attractive force at the initial stage of the search is weakened, the optimal solution search for the partial evaluation function H i (x i ) and the optimal solution search process for the overall evaluation function H opt by convergence are separated. FIGS. 7 and 8 show an image of searching for an optimal solution of the overall evaluation function H opt by convergence of the individual K after searching for an optimal solution of the partial evaluation function H i (x i ).
次に、最適化処理の手順の一例について、さらに具体的な数式展開を用いて説明する。まずマイコン5は、図9のS21において部分評価関数Hiに沿って個体Kを設定する。以下、断らない限り、複数の個体K1、K2のうち一部又は全ての個体を個体Kと略して説明を行うと共に、特別な個体Kについては符号Kの後に添え字を付して説明を行う。
Next, an example of the optimization processing procedure will be described using more specific mathematical expression expansion.
次に、マイコン5は、図9のS22において実効的な評価関数Heffを極小化するように個体Kの変数xiを変化させて更新する。実効的な評価関数Heffは、M個の変数xiを有するN個の部分評価関数Hiに分解して探索する場合、下記の(5)式のように数式設定する。
(5)式の右辺第1項は、複数の個体Kによる部分評価関数Hiの評価値Hi(xi)を加算した評価加算値、すなわち、部分評価関数Hiに複数の個体Kの変数xiを代入した評価値Hi(xi)を加算した加算値を示しており、(1)式の右辺第2項及び第3項は、複数の個体Kの間の引力相互作用項を示し、λi^Tは一次引力係数、ρi/2は二次引力係数を示している。 (5) the first term of the right side of expression evaluation value H i (x i) evaluation sum value obtained by adding the partial evaluation function H i of a plurality of individual K, i.e., partial evaluation of the plurality of functions H i of the individual K An addition value obtained by adding an evaluation value H i (x i ) into which a variable x i is substituted is shown. The second term and the third term on the right side of the equation (1) are attractive interaction terms between a plurality of individuals K. Λ i ^ T is the primary attractive coefficient, and ρ i / 2 is the secondary attractive coefficient.
ここで、ρiは予め定められた正の定数である。これらの第2項及び第3項の引力相互作用項は、複数の個体Kの間の変数xiの差が大きいほど大きくなり、逆に複数の個体Kの間の変数xiの差が小さいときには小さくなるように変化する。 Here, ρ i is a predetermined positive constant. Attractive interaction terms of these second and third terms, the difference between the variable x i between the plurality of individual K increases as large, small differences in the variable x i between the plurality of individual K conversely Sometimes it changes to be smaller.
次に(5)式中の(6−1)式で定義される変数xiを更新するため、部分評価関数Hi(xi)について補助関数法を用いて極値化する。補助関数法は、(1)式の第1項の部分評価関数Hiを極小化するときに用いられる一方法であり、部分評価関数Hiを当該部分評価関数Hiに近似した2次関数ffに置換し、この置換した2次関数ffに基づいて極値化する方法を示している。 Next, in order to update the variable x i defined by the equation (6-1) in the equation (5), the partial evaluation function H i (x i ) is converted to an extreme value using the auxiliary function method. Auxiliary function method, (1) is one method used when minimizing the partial evaluation function H i of the first term of equation quadratic function that approximates the partial evaluation function H i to the partial evaluation function H i A method of converting to ff and converting to an extremum based on the replaced quadratic function ff is shown.
以下、補助関数法について詳細説明する。補助関数法の詳細イメージを図10に示している。図10に示すように、部分評価関数Hi(x)の変数xに現在の解候補xi^*を代入し、この評価値Hi(x^*)を通過すると共に、その微分値が部分評価関数Hi(x)の偏微分値∂Hi(x^*)/∂xと等しく、且つ、その解候補xi^*を含む探索空間S内の全ての変数xiにおける評価値Hi(xi)よりも大きな値を得る条件を満たすリプシッツ定数Lを用いた2次関数ffを導入して置換する。この2次関数ffを数式化すると(7)式の右辺のように示すことができる。
この(7)式において、Li,pはリプシッツ定数を示し、x^*はxの現在の解候補を示している。このとき2次関数ffの極小値を次回の値の解候補として繰り返し更新し、所定の更新回数以上の回数だけ繰り返し極小値を更新するようにしている。
(8)式の右辺をi番目の個体Kのp番目の変数xi,pで微分し、この微分値が0となる条件を満たす変数xi,pの極小点を算出する。この(8)式においては、更新前の値をxi,p^*とし、更新後の値をxi,pとしている。すると(9)式の方程式のように展開できる。
ここで、更新後のp番目の変数行列~xpを(12−1)式、リプシッツ定数行列Lpを(12−2)式、二次引力係数行列ρを(12−3)式、係数行列Gを(12−4)式、としている。
また、更新前のp番目の変数行列xp^*を(13−1)式、部分評価関数Hi(xi^*)の偏微分行列∇pHi(xi^*)を(13−2)式、一次引力係数行列λp^*を(13−3)式、係数行列Wを(13−4)式、としている。
この(14)式において、λi^*は更新前の一次引力係数行列を示し、変数~xiは、S22で算出された変数を示す。次にマイコン5は、図9のS24において終了条件を満たしたか否かを判定する。この終了条件は、例えば実効的な評価関数Heffの実効評価値が所定の閾値以下となったか否か、又は、繰り返し処理回数が所定の上限回数を超えたか否かを判定することを条件としている。
In this equation (14), lambda i ^ * denotes the update before the primary attraction coefficient matrix, variable ~ x i, indicating the variables calculated in S22. Next, the
実効的な評価関数Heffの実効評価値の閾値は、複数の個体Kが実効的な評価関数Heffの極値の位置に概ね収束することが想定される値に予め設定することが望ましい。このため、複数の個体Kが概ね一点に収束していなければ、S22に戻して処理を繰り返すことになる。図7に示したように、複数の個体Kがそれぞれの谷の極小値に移動しつつ、図8に示すように各谷の間の経路M1〜M4に基づく引力相互作用を生じさせることができる。 Threshold of the effective evaluation value of the effective evaluation function H eff, it is desirable to pre-set to a value in which a plurality of individual K is able to substantially converge on the position of the extreme value of the effective evaluation function H eff is assumed. For this reason, if a plurality of individuals K has not converged to one point, the process returns to S22 and the process is repeated. As shown in FIG. 7, an attractive interaction based on the paths M <b> 1 to M <b> 4 between the valleys can be generated as shown in FIG. 8, while the plurality of individuals K move to the minimum value of each valley. .
<本実施形態の概念的なまとめ>
以上、説明したように本実施形態によれば、複数の要求、制約により生成される全体評価関数Hoptについて、全体評価関数Hoptを一部の要求、制約から作成した部分評価関数Hi(xi)に分け、1または複数の個体Kを部分評価関数Hi(xi)に沿って設定し、設定された部分評価関数Hi(xi)の部分的な最適解を探索しながら、または、部分的な最適解を探索した後、当該探索される部分的な解を備える個体Kの間に引力を作用させて全体評価関数Hoptの最適解を探索している。これにより、単純化された部分的な部分評価関数Hi(xi)の最適化処理に基づいて、全体の複雑な全体評価関数Hoptの最適解を探索できるようになり、全体評価関数Hoptの最適解を高速に取得できる。
<Conceptual summary of this embodiment>
As described above, according to the present embodiment as described, a plurality of requests, the total evaluation function H opt generated by restriction of some overall evaluation function H opt request, partial evaluation were prepared from the constraint function H i ( divided into x i), set along one or more individuals K to the partial evaluation function H i (x i), while searching the partial optimal solution set partial evaluation function H i (x i) Alternatively, after searching for a partial optimal solution, an attractive force is applied to the individual K having the partial solution to be searched to search for an optimal solution of the overall evaluation function H opt . As a result, the optimum solution of the entire complex overall evaluation function H opt can be searched based on the simplified optimization process of the partial partial evaluation function H i (x i ). The optimal solution of opt can be acquired at high speed.
実効的な評価関数Heffを(1)式としたときに、引力相互作用の項を(2)式として(3−1)式、(3−2)式を満たすように個体Kの間に引力を作用させるようにしているため、複数の個体Kを一点に収束させることができる。なお、このとき(3)式のg(x)を(4)式として探索することが望ましい。 When the effective evaluation function H eff is expressed by the equation (1), the term of the attractive interaction is expressed by the equation (2) and the equation (3-1) and the equation (3-2) are satisfied between the individual K so that Since the attractive force is applied, a plurality of individuals K can be converged to one point. At this time, it is desirable to search for g (x) in equation (3) as equation (4).
(第2実施形態)
第2実施形態では、引力相互作用項となるf(xi−xi+1)を(15)式のように変更した形態を説明する。
In the second embodiment, a mode in which f (x i -x i + 1 ) serving as an attractive interaction term is changed as in equation (15) will be described.
(15)式のf(xi−xi+1)は(2)式でλi=0としたものであり、二次引力係数ρi/2を所定値から徐々に増加させることで、個体Kを一点に収束させることができる。 F (x i −x i + 1 ) in the equation (15) is obtained by setting λ i = 0 in the equation (2). By gradually increasing the secondary attractive coefficient ρ i / 2 from a predetermined value, the individual K Can be converged to one point.
そこで本実施形態では、図2及び(15)式の二次引力係数ρi/2を所定値から徐々に増加させる処理を適用することで、各部分評価関数Hi(xi)に設定された個体Kを徐々に収束させ、全体評価関数Hoptの最適解を探索する。 Therefore, in the present embodiment, by applying the process of gradually increasing the secondary attractive coefficient ρ i / 2 in the equations (2) and (15) from a predetermined value, each partial evaluation function H i (x i ) is set. The individual K is gradually converged to search for the optimum solution of the overall evaluation function H opt .
本実施形態によれば、実効的な評価関数Heffを(1)式として定義したときに、引力相互作用の項を(15)式とし、(15)式中の二次引力係数ρiを初期値から大きくすることで個体Kの間に引力を作用させて最適値に収束させて最適解を導出している。このような場合においても、同様の作用効果を奏する。 According to the present embodiment, when the effective evaluation function H eff is defined as the equation (1), the term of the attractive interaction is the equation (15), and the secondary attractive force coefficient ρ i in the equation (15) is By increasing the value from the initial value, an attractive force is applied between the individuals K to converge to the optimal value and the optimal solution is derived. Even in such a case, the same effects can be obtained.
(第3実施形態)
図11から図15は第3実施形態の追加説明図を示している。第3実施形態では、個体Kの変数xiの初期分布の設定方法を説明する。前述実施形態に示したように、各個体KはM次元の変数xiを備えているが、このM次元の変数xiの初期分布を如何なる形態とするかに応じて、実効的な評価関数Heffの谷の通過数、すなわち極値の通過数、及び、収束方法も変化する。
(Third embodiment)
11 to 15 show additional explanatory diagrams of the third embodiment. In the third embodiment, illustrating a method of setting the initial distribution of the variables x i of the individual K. As shown in the previous embodiment, each individual K has an M-dimensional variable x i , but an effective evaluation function depends on the form of the initial distribution of the M-dimensional variable x i. The number of passes through the valley of H eff , that is, the number of passes of extreme values, and the convergence method also change.
実効的な評価関数Heffの実効評価値が、どのような値で極値、最小値となるか予め把握することはできないため、マイコン5は、予め探索空間Sを満たすように個体Kを初期設定することが望ましい。個体Kの数を多くすれば精度が高くなるが処理時間も大きくなる。このため、限られた数の個体Kを用いて処理を行うことが望ましく、この限られた個体Kの変数xiの初期分布が最適値の探索処理に重要な要素を占めることになる。このためには、例えば図11から図15に示すように、個体Kの変数xiの初期分布を設定することが望ましい。
Since the effective evaluation value of the effective evaluation function H eff cannot be grasped in advance as to what value is the extreme value or the minimum value, the
図11から図15は、それぞれの個体KがM=2次元の変数xiを備えている場合の初期分布の例を示している。M=2次元の探索空間Sを想定したときに、例えば図11に示すように、探索空間S内に複数の個体Kの変数xiをランダムに設定すると良い。この場合、個体Kが一点に収束する過程において広範囲の極値を探索できるようになる。 Figures 11-15, each individual K indicates an example of an initial distribution when and a M = 2 dimensional variables x i. When an M = 2-dimensional search space S is assumed, for example, as shown in FIG. 11, variables x i of a plurality of individuals K may be set in the search space S at random. In this case, a wide range of extreme values can be searched in the process in which the individual K converges to one point.
この中でも図12の個体Ka、Kbに示すように、少なくとも1つ以上の個体Ka、Kbの変数xiを探索空間Sの上限値又は下限値とすると良い。また、その他の個体Kの変数xiをランダムに設定すると良い。このように設定することで、さらに広範囲の極値を探索できる。特に、探索空間Sの中で全ての変数xiについて上限値又は下限値となるように個体Kamの変数xiを設定することがさらに望ましい。 Individuals Ka of 12 Among these, as shown in Kb, may be an upper limit value or lower limit value of at least one or more individuals Ka, the Kb of the variable x i search space S. In addition, the variable x i of other individual K may be set to random. By setting in this way, a wider range of extreme values can be searched. In particular, it is more desirable to set the variable x i of the individual Kam so that all the variables x i in the search space S become the upper limit value or the lower limit value.
ある収束過程において広範囲の極値を探索できるようにするため、探索空間Sの全てを極力網羅するように個体Kを広範囲に分布させることが望ましいが、変数xiの探索を開始する前に例えば探索空間Sの内部に推定解が与えられる場合もある。 In order to be able to search a wide range of extreme values in a certain convergence process, it is desirable to distribute the individuals K over a wide range so as to cover all of the search space S as much as possible, but before starting the search for the variable x i , for example, An estimated solution may be given inside the search space S.
例えば、ある変数xiが時間的に連続して変化することを考慮する。例えばマイコン5がこのような変数xi(t)の解をある所定の時間毎に導出するときに、次回のタイミングにおける変数xi(t+1)の解を得るために、図14に示すように今回の変数xi(t)の解を推定解xizとして与えることで、次回のタイミングにおける変数xi(t+1)の解の導出処理を素早く、しかも正確に行うことができる場合もある。
For example, consider that a variable x i changes continuously in time. For example, when the
このような場合、図13に示すように、初期分布として探索空間S内に限定された限定探索範囲Saを設け、この限定探索範囲Saとして推定解xizを含むように初期分布を設定することが望ましい。特にこの場合、例えば推定解xizから所定範囲(例えばxi,1−α1<変数xi,1<xi,1+β1、xi,2−α2<変数xi,2<xi,2+β2;但し、α1、α2、β1、β2>0)を満たすように限定探索範囲Saを絞ることが望ましい。これにより、さらに少ない評価回数で変数xiの最適解への到達確率を高めることができる。 In such a case, as shown in FIG. 13, a limited search range Sa limited in the search space S is provided as an initial distribution, and the initial distribution is set so as to include the estimated solution xiz as the limited search range Sa. desirable. Particularly in this case, for example, a predetermined range from the estimated solution xiz (for example, xi , 1− α1 <variable xi , 1 <xi , 1 + β1, xi , 2− α2 <variable xi , 2 <xi , 2 + β2). However, it is desirable to narrow the limited search range Sa so as to satisfy α1, α2, β1, β2> 0). As a result, the probability of reaching the optimal solution of the variable x i can be increased with a smaller number of evaluations.
さらに図14に示すように、初期分布として推定解xizを含む空間に近いほど個体Kを密に分布させると共に推定解から遠ざかるほど個体Kの密度を減少させるように設定するようにしても良い。これにより、より少ない個体Kの数で変数xiの最適解への到達確率を高めることができる。 Furthermore, as shown in FIG. 14, the initial distribution may be set such that the closer to the space including the estimated solution xiz, the denser the individuals K are distributed, and the further away from the estimated solution, the density of the individuals K is decreased. As a result, the probability of reaching the optimal solution of the variable x i can be increased with a smaller number of individuals K.
さらに図15に示すように、初期分布として推定解xizを含む空間に近い所定範囲Sb内に個体Kを密に分布させると共にその他の個体Kを所定範囲Sbの外にランダムに分布させ、その他の個体Kのうち、少なくとも1つの個体Ka、Kb、Kamの変数xiを探索範囲Sの変数xiの上限値又は下限値に設定するようにしても良い。これにより、変数xiの推定解xizの付近を重点的に探索しながら広範囲を探索することができ、推定解xiz又はその周辺に解が存在していなかった場合においても、変数xiの最適解への到達確率の低下を防ぐことができる。 Further, as shown in FIG. 15, the individuals K are densely distributed within a predetermined range Sb close to the space including the estimated solution xiz as an initial distribution, and other individuals K are randomly distributed outside the predetermined range Sb. among individual K, at least one individual Ka, Kb, may be set to the upper limit value or lower limit value of the variable x i of the variable x i a search range S of Kam. Thus, while intensively searching the vicinity of the estimated solution xiz variables x i can explore a wide range, in a case where the estimated solution xiz or solutions in its periphery did not exist, the optimal variables x i A decrease in the probability of reaching the solution can be prevented.
(第4実施形態)
図16から図23は第4実施形態の追加説明図を示している。第4実施形態では極小化の方法について別の形態を説明する。
(Fourth embodiment)
16 to 23 show additional explanatory views of the fourth embodiment. 4th Embodiment demonstrates another form about the method of minimization.
第4実施形態では、前述した(1)式の実効的な評価関数Heffについて、部分評価関数Hiの更新幅Δxc(第2更新幅相当)、引力相互作用項f(xi−xi+1)の更新幅Δxq(第1更新幅相当)を別々に算出し、これらの更新幅Δxc、Δxqを加算した合計更新幅Δxを導出する。 In the fourth embodiment, with respect to the effective evaluation function H eff of the above-described equation (1), the update width Δx c (corresponding to the second update width) of the partial evaluation function H i and the attractive interaction term f (x i −x The update width Δx q (corresponding to the first update width) of i + 1 ) is calculated separately, and a total update width Δx obtained by adding these update widths Δx c and Δx q is derived.
このときまず、マイコン5は、ある時刻tにおける部分評価関数Hiの勾配gc(t)を(16)式のように定義し、部分評価関数Hiの勾配gcの指数移動平均値mcを(17−1)式のように定義して導出し、さらに部分評価関数Hiの勾配gcの二乗の指数移動平均値vcを(17−2)式のように定義して導出する。これらの式中において、β1c、β2cは定数であり、深層学習における勾配算出処理として適切な値に設定される。
そして、マイコン5は更新幅Δxcを(18−1)式及び(18−2)式のように導出する。なお(18−1)式中のεcはゼロ除算を避けるための定数であり、他の定数に比べて大幅に小さく設定される。
またマイコン5は、このような処理を引力相互作用項f(xi−xi+1)の更新幅Δxqについても同様に行う。すなわちマイコン5は、ある時刻tにおける引力相互作用項f(xi−xi+1)の勾配gq(t)を(19)式のように定義して算出し、引力相互作用項f(xi−xi+1)の勾配gqの指数移動平均値mqを(20−1)式のように定義して導出し、さらに引力相互作用項f(xi−xi+1)の勾配gqの二乗の指数移動平均値vqを(20−2)式のように定義して導出する。これらの式中において、β1q、β2qは定数であり深層学習における勾配算出処理に適切な値に設定される。
そしてマイコン5は更新幅Δxqを(21−1)式及び(21−2)式のように導出する。なお(21−1)式中のεqはゼロ除算を避けるための定数であり、他の定数に比べて大幅に小さく設定される。
このようにして合計更新幅Δxを導出でき、実効的な評価関数Heffの変数xiの更新幅Δxとして用いることで最適化変数xiの更新幅Δxを適応的に変更できるようになる。最適化変数xiの更新イメージを図16及び図17に示している。 Thus can derive the total update width Δx in, it becomes possible to adaptively change the update width Δx that the optimization variables x i used as an update width Δx of the variable x i of the effective evaluation function H eff. Are shown in FIGS. 16 and 17 the update image of the optimization variables x i.
図16は更新初期における更新イメージを示している。例えば、引力相互作用項f(xi−xi+1)の変数が、当該評価関数の極小値を満たす最適化変数から離間していると、この関数を極小化する最適化変数に向けて、図16に示すように徐々に更新されることになる。このとき勾配gq(t)が緩やかに変化するため、(23−1)式に示すように、時刻tと時刻t+1とのタイミングを比較しても勾配gqはあまり変化しない。このため(23−2)式に示すように、勾配gqの指数移動平均値~mqと勾配gqの二乗の指数移動平均値~vqの平方根とを比較しても概ね同じ値となり、更新幅Δxqは(23−3)式に示すように−ηで概ね一定となる。
他方、図17は変数が極小値近辺に遷移した後の更新イメージを示している。変数が極小値近辺に遷移すると、勾配gq(t)は極小値を挟んで振動するように移動することから、(24−1)式に示すように、時刻tと時刻t+1とのタイミングを比較すると勾配gqは絶対値が概ね同一で正負が逆転するように変化する。すると(24−2)式に示すように、勾配gqの指数移動平均値~mqは概ね0に近づき、勾配gqの指数移動平均値~mqを勾配の二乗の指数移動平均値~vqの平方根と比較しても二乗の指数移動平均値~vqの平方根の方が大幅に大きな値となる。したがって、更新幅Δxqは(24−3)式に示すように−ηよりも大幅に小さな値となる。
このようにしてマイコン5は、引力相互作用項f(xi−xi+1)の勾配gqの指数移動平均値~mqと引力相互作用項f(xi−xi+1)の勾配gqの二乗の指数移動平均値~vqとが近くなるにしたがって更新幅Δxqを大きくすると共に、指数移動平均値~mqが勾配gqの二乗の指数移動平均値~vqよりも小さくなるにつれて更新幅Δxqを小さくするように導出している。すなわち、更新幅Δxqを大きい幅から小さい幅に自動的に変化させることができ、極力少ない更新回数で極小値に効率的に到達させることができるようになる。
The
ここでは引力相互作用項f(xi−xi+1)についての説明を行ったが、部分評価関数Hiにおいても同様に適用できるため、その詳細説明を省略する。部分評価関数Hiの処理について概念的にまとめると、マイコン5は、部分評価関数Hiの勾配gcの指数移動平均値~mcと部分評価関数Hiの勾配gcの二乗の指数移動平均値~vcとが近くなるにしたがって更新幅Δxcを大きくすると共に、指数移動平均値~mcが勾配の二乗の指数移動平均値~vcよりも小さくなるにつれて更新幅Δxcを小さくするように導出することになる。この例の場合も同様に、更新幅Δxcを大きい幅から小さい幅に自動的に変化させることができ、少ない更新回数で極小値に効率的に到達させることができるようになる。
Here, the attractive interaction term f (x i -x i + 1 ) has been described. However, since it can be similarly applied to the partial evaluation function H i , the detailed description thereof is omitted. Conceptually summarized processed partial evaluation function H i, the
<具体例の検証条件>
発明者は、以上のように説明した方法について具体例を用いて検証している。以下では、この検証条件について説明する。発明者らは、「0」〜「9」の一桁の手書き数字を深層学習を用いて識別する問題を挙げて検証している。
<Verification conditions for specific examples>
The inventor has verified the method described above using a specific example. Below, this verification condition is demonstrated. The inventors have verified the problem by identifying single-digit handwritten numerals “0” to “9” using deep learning.
この検証条件としては、図18に示すように、入力層を8×8ピクセル分の64入力用意し、出力層を「0」〜「9」の10出力用意し、中間層を5層用意したニューラルネットワークを用いている。各中間層のノード数は、1層目を30ノードとし、2層目から5層目を各20ノード用意し、ネットワークはこれらの入力層、中間層、出力層の各ノードを全て結合して構成した形態を用いた。 As the verification conditions, as shown in FIG. 18, 64 inputs corresponding to 8 × 8 pixels are prepared, 10 outputs “0” to “9” are prepared, and 5 intermediate layers are prepared. A neural network is used. The number of nodes in each intermediate layer is 30 nodes in the first layer, 20 nodes each in the second to fifth layers are prepared, and the network combines all the nodes in the input layer, intermediate layer, and output layer. The configured form was used.
また、各ノードの結合の重みを決定するための学習データを1000個用意して学習試行している。ここで、部分評価関数Hiを定義するための学習データの分割数を10とした。すなわち(16)式及び(19)式中のNを10とし、当該N個の部分評価関数Hiについて学習データ各100個(以下、必要に応じて「部分データ」と称する)を用いて評価した。また引力相互作用項f(xi−xi+1)については(15)式を適用し、この(15)式の二次引力係数ρiを固定値0.1として検証した。また、その他の(16)〜(22)式に用いられる各定数η,β1c,β2c,β1q,β2q,εc,εqを図19に示す値を用いて評価した。 In addition, 1000 pieces of learning data for determining the connection weight of each node are prepared and learning is attempted. Here, the number of divisions of the learning data for defining the partial evaluation function H i is 10. That is, N in the equations (16) and (19) is set to 10, and the N partial evaluation functions Hi are evaluated using 100 pieces of learning data (hereinafter referred to as “partial data” as necessary). did. Further, the equation (15) was applied to the attractive interaction term f (x i -x i + 1 ), and the secondary attractive coefficient ρ i of the equation (15) was verified as a fixed value 0.1. Moreover, each constant (eta), (beta) 1c , (beta) 2c , (beta) 1q , (beta) 2q , (epsilon) c , (epsilon) q used for the other (16)-(22) Formula was evaluated using the value shown in FIG.
さらに発明者は、前述の(1)式右辺第2項の引力相互作用項f(xi−xi+1)を省いた一般的な評価関数を用いた例を比較例とし、前述と同様に深層学習により手書き数字を識別するように検証している。この比較例は、一般にAdam(Adaptive moment estimation)と称される深層学習における勾配法を適用した例に類似する方法である。この比較例においても、本実施形態の処理方法との比較検証を行うため、同じ学習データを1000個用意すると共に学習データをN=10分割し、それぞれ学習データ各100個の部分データを用いて評価した。すなわち(16)式〜(18)式と同様の処理を行うことで評価しており、このとき前述同様の定数η,β1c,β2c,εcの値を用いている。 Further, the inventor made a comparative example using a general evaluation function in which the attractive interaction term f (x i -x i + 1 ) in the second term on the right-hand side of the equation ( 1 ) was omitted. It is verified to identify handwritten numbers by learning. This comparative example is a method similar to an example in which a gradient method in deep learning generally called Adam (Adaptive moment estimation) is applied. Also in this comparative example, in order to perform comparison verification with the processing method of the present embodiment, 1000 pieces of the same learning data are prepared and the learning data is divided into N = 10, and each of the 100 pieces of learning data is used. evaluated. That is, evaluation is performed by performing the same processing as in the equations (16) to (18), and at this time, the values of the constants η, β 1c , β 2c , and ε c similar to those described above are used.
<検証結果>
以下、前述の検証結果について説明する。
図20は本実施形態の引力相互作用項f(xi−xi+1)を用いて得られたLossfunctionの検証結果、図21は引力相互作用項f(xi−xi+1)を用いない場合の比較例のLossfunctionの検証結果を示している。
<Verification results>
Hereinafter, the verification result will be described.
FIG. 20 shows the verification result of Lossfunction obtained using the attractive interaction term f (x i −x i + 1 ) of this embodiment, and FIG. 21 shows the case where the attractive interaction term f (x i −x i + 1 ) is not used. The verification result of Lossfunction of a comparative example is shown.
図20及び図21のLossfunction特性は探索ステップ数を横軸として示しており、図18に示すニューラルネットワークを用意した学習データに適合させて各ノードの重みを決定した後の学習誤差を示している。探索ステップ数が少ないとN=10個の分割データのそれぞれの部分評価関数Hiに対する適合度に応じたLossfunctionを求めることになるため、その絶対値も部分データ毎に大きくばらつくが、探索ステップ数が多くなると引力相互作用項fの作用が進み、より適切に識別可能になることが確認されている。 The Lossfunction characteristics of FIGS. 20 and 21 show the number of search steps on the horizontal axis, and show the learning error after determining the weight of each node by adapting the neural network shown in FIG. 18 to the learning data. . To become to seek Lossfunction corresponding to adaptability the search step number is small for each partial evaluation function H i of N = 10 pieces of divided data, its the absolute value is also large variation for each partial data, search step number It has been confirmed that the action of the attractive interaction term f advances as the value increases, and can be identified more appropriately.
この検証結果によれば、本実施形態及び比較例の何れの方法を用いても探索ステップ数を増せば増すほどLossfunctionを減少させることができることがわかるが、比較例ではLossfunctionの最小値が0.039となるのに対し、本実施形態では最小値を0.021にでき、Lossfunctionの最小値をより少なくできることが把握できる。 According to this verification result, it can be seen that the loss function can be decreased as the number of search steps is increased by using any of the methods of the present embodiment and the comparative example, but in the comparative example, the minimum value of the loss function is 0. On the other hand, in this embodiment, the minimum value can be set to 0.021, and it can be understood that the minimum value of the loss function can be further reduced.
<未知のテストデータに対する検証結果>
以下、未知のテストデータに対する検証結果について説明する。
図22は本実施形態のAccuracyの検証結果、図23は比較例のAccuracyの検証結果を示している。図22及び図23のAccuracyは前述の学習データとは異なる未知のテストデータを用いた正答率を示すものであり、新たなデータに対するクラスラベルや関数値を正確に予測できるかどうかを示す汎化性能に関する指標を示すもので、前述同様に探索ステップ数を横軸として示している。比較例では正答率、すなわち識別精度を73.65%となるのに対し、本実施形態では正答率、識別精度を91.71%とすることができ、本実施形態を採用することで比較例よりも高い識別性能を示すことが把握できた。
<Verification results for unknown test data>
Hereinafter, verification results for unknown test data will be described.
FIG. 22 shows the accuracy verification result of this embodiment, and FIG. 23 shows the accuracy verification result of the comparative example. Accuracy in FIGS. 22 and 23 indicates a correct answer rate using unknown test data different from the above-described learning data, and generalization indicating whether class labels and function values for new data can be accurately predicted. An index related to performance is shown, and the number of search steps is shown on the horizontal axis in the same manner as described above. In the comparative example, the correct answer rate, that is, the identification accuracy is 73.65%, whereas in this embodiment, the correct answer rate and the identification accuracy can be 91.71%. By adopting this embodiment, the comparative example It can be understood that it shows higher discrimination performance.
<本実施形態の概念的なまとめ>
以上説明したように、本実施形態によれば、引力相互作用項f(xi−xi+1)と部分評価関数Hiの勾配gq、gcに応じて、それぞれ個体Kの変数xiの更新幅Δxq、Δxcを導出するときに、引力相互作用項f(xi−xi+1)と部分評価関数Hiの勾配gq、gcの指数移動平均値~mq、~mcと引力相互作用項f(xi−xi+1)と部分評価関数Hiの勾配gq、gcの二乗の指数移動平均値~vq、~vcがそれぞれ近くなるにしたがってそれぞれ更新幅Δxq、Δxcを大きくしている。また、勾配の指数移動平均値~mq、~mcが勾配の二乗の指数移動平均値~vq、~vcよりも小さくなるにつれて更新幅Δxq、Δxcを小さくするように導出している。このため、更新幅Δxq、Δxcを大きい幅から小さい幅に自動的に変化させることができ、極力少ない更新回数で効率的に極小値に個体Kを到達させることができる。
<Conceptual summary of this embodiment>
As described above, according to this embodiment, attractive interaction term f (x i -x i + 1 ) and partial evaluation function H i of the gradient g q, according to g c, the variable x i of each individual K update width [Delta] x q, when deriving the [Delta] x c, attractive interaction term f (x i -x i + 1 ) and partial evaluation function H i of the gradient g q, exponential moving average of g c ~ m q, ~ m c Gravity interaction terms f (x i -x i + 1 ) and partial evaluation function H i of the gradient g q, exponential moving average of the square of g c ~ v q, ~ v c each update width in accordance with the close respectively Δx q and Δx c are increased. Furthermore, exponential moving average ~ m q gradient, ~ m c is exponential moving average of the square of the gradient ~ v q, update width [Delta] x q as smaller than ~ v c, derived so as to reduce the [Delta] x c ing. For this reason, the update widths Δx q and Δx c can be automatically changed from a large width to a small width, and the individual K can efficiently reach the minimum value with as few updates as possible.
<第4実施形態の変形例>
なお、第4実施形態に示した処理を用いると、引力相互作用項f(xi−xi+1)の影響力は、前述した勾配gqの変化に応じて適応的に変更される。このため(15)式の二次引力係数ρiを固定値(例えば0.1)としても問題なく収束する。すなわち、例えば第2実施形態では二次引力係数ρiを初期値から大きくすることで個体Kの間に引力を作用させて最適値に収束させるようにしたが、第4実施形態では増加させる処理をする必要がなくなる。また第2実施形態に説明したように、二次引力係数ρiを増加させるように処理しても良い。
<Modification of Fourth Embodiment>
If the process shown in the fourth embodiment is used, the influence of the attractive interaction term f (x i -x i + 1 ) is adaptively changed according to the change in the gradient g q described above. For this reason, even if the secondary attractive coefficient ρ i in the equation (15) is set to a fixed value (for example, 0.1), the convergence is achieved without any problem. That is, for example, in the second embodiment, the secondary attractive force coefficient ρ i is increased from the initial value to cause the attractive force to act on the individual K so as to converge to the optimum value. There is no need to do. Further, as described in the second embodiment, the secondary attraction coefficient ρ i may be increased.
また、第4実施形態の方法を採用すると、変数xiを更新するときには、勾配gq、gcに応じた情報を用いることになるため、引力相互作用項f(xi−xi+1)は(15)式のように二次関数に限定するものではなく、下記(25)式の引力相互作用項f(xi−xi+1)に示すように、四次以上の偶数次関数を用いても良い。
(他の実施形態)
本発明は、上記した実施形態に限定されるものではなく、以下のように変形又は拡張することができる。
個体Kは各部分評価関数Hi(xi)の間で同数の変数xiを備えることが望ましい。前述実施形態では、個体Kの変数xiを解出力する形態を説明しているが、変数xiに対応した評価値、すなわち、解出力すべき変数xiを実効的な評価関数Heffに代入した評価値を解出力するようにしても良い。第3実施形態では、二次引力係数ρi/2を初期値=0から徐々に大きくする形態を示したが、初期値は0に限られない。
(Other embodiments)
The present invention is not limited to the above-described embodiment, and can be modified or expanded as follows.
It is desirable that the individual K has the same number of variables x i among the partial evaluation functions H i (x i ). In the above embodiment has been described a form of solution output variables x i of the individual K, evaluation value corresponding to the variable x i, i.e., the variable x i to be construed output to the effective evaluation function H eff The assigned evaluation value may be output as a solution. In the third embodiment, the secondary attractive force coefficient ρ i / 2 is gradually increased from the initial value = 0, but the initial value is not limited to zero.
また、特許請求の範囲に記載した括弧内の符号は、本発明の一つの態様として前述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。前述実施形態の一部を、課題を解決できる限りにおいて省略した態様も実施形態と見做すことが可能である。また、特許請求の範囲に記載した文言によって特定される発明の本質を逸脱しない限度において、考え得るあらゆる態様も実施形態と見做すことが可能である。 Further, the reference numerals in parentheses described in the claims indicate the correspondence with the specific means described in the embodiment described above as one aspect of the present invention, and the technical scope of the present invention is It is not limited. An aspect in which a part of the above-described embodiment is omitted as long as the problem can be solved can be regarded as the embodiment. In addition, any conceivable aspect can be regarded as an embodiment as long as it does not depart from the essence of the invention specified by the words described in the claims.
また本発明は、前述した実施形態に準拠して記述したが、本発明は当該実施形態や構造に限定されるものではないと理解される。本発明は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範畴や思想範囲に入るものである。 Moreover, although this invention was described based on embodiment mentioned above, it understands that this invention is not limited to the said embodiment and structure. The present invention includes various modifications and modifications within an equivalent range. In addition, various combinations and forms, as well as other combinations and forms including one element, more or less, are within the scope and spirit of the present disclosure.
図面中、1は最適化装置(連続最適化問題の大域的探索装置)、6は設定部、7は最適解探索部、8は導出部、Kは個体、Sは探索空間、xiは変数、g/2は引力係数、Hoptは全体評価関数、Heffは実効評価値、xizは推定解、gq、gcは勾配、~mq、~mcは勾配の指数移動平均値、~vq、~vcは勾配の二乗の指数移動平均値、Δxq、Δxcは更新幅、を示す。 In the drawings, 1 is an optimization device (global search device for continuous optimization problems), 6 is a setting unit, 7 is an optimal solution search unit, 8 is a derivation unit, K is an individual, S is a search space, and x i is a variable. , g / 2 is attraction coefficient, whole Hopt evaluation function, Heff is an effective evaluation value, Xiz estimated solution, g q, g c is the slope, ~ m q, ~ m c is exponential moving average value of the gradient, ~ v q and ˜v c represent exponential moving average values of the squares of gradients, and Δx q and Δx c represent update widths.
Claims (26)
前記設定された部分評価関数の部分的な最適解を探索しながら、または、部分的な最適解を探索した後、当該探索される部分的な解を備える個体の間に引力を作用させて前記全体評価関数の最適解を探索する最適解探索部(7)と、
を備える連続最適化問題の大域的探索装置。 The overall evaluation function generated by a plurality of requests and constraints is divided into a partial evaluation function ( Hi (x)) generated by some requests and constraints, and one or a plurality of individuals are set along the partial evaluation function. A setting unit (6) to perform,
While searching for a partial optimal solution of the set partial evaluation function or after searching for a partial optimal solution, an attractive force is applied between individuals having the partial solution to be searched for. An optimal solution search unit (7) for searching for an optimal solution of the overall evaluation function;
A global search device for continuous optimization problems.
前記部分評価関数と引力相互作用項(f(xi−xi+1))により構成される実効的な評価関数(Heff)を(1)式としたときに、
前記引力相互作用項の勾配に応じて前記個体の変数の第1更新幅(Δxq)を導出し、前記部分評価関数の勾配に応じて前記個体の変数の第2更新幅(Δxc)を導出し、当該第2更新幅(Δxc)を前記第1更新幅(Δxq)に加算した合計更新幅(Δx)を算出して導出するように構成され、
前記引力相互作用項の勾配に応じて前記個体の変数の第1更新幅(Δxq)を導出するときに、前記引力相互作用項の勾配の移動平均値と前記引力相互作用項の勾配の二乗の移動平均値とが近くなるにしたがって前記第1更新幅を大きくすると共に前記勾配の移動平均値が前記勾配の二乗の移動平均値よりも小さくなるにつれて前記第1更新幅を小さくするように導出する請求項1記載の連続最適化問題の大域的探索装置。
When an effective evaluation function (H eff ) composed of the partial evaluation function and the attractive interaction term (f (x i −x i + 1 )) is expressed as (1),
A first update width (Δx q ) of the variable of the individual is derived according to the gradient of the attractive interaction term, and a second update width (Δx c ) of the variable of the individual is determined according to the gradient of the partial evaluation function. Deriving and calculating and deriving a total update width (Δx) obtained by adding the second update width (Δx c ) to the first update width (Δx q ),
When deriving the first update width (Δx q ) of the individual variable according to the gradient of the attractive interaction term, the moving average value of the gradient of the attractive interaction term and the square of the gradient of the attractive interaction term The first update width is increased as the moving average value of the gradient becomes closer, and the first update width is decreased as the moving average value of the gradient becomes smaller than the moving average value of the square of the gradient. The global search device for continuous optimization problems according to claim 1.
前記第2更新幅を導出するときに、前記部分評価関数の勾配の移動平均値と前記部分評価関数の勾配の二乗の移動平均値とが近くなるにしたがって前記第2更新幅を大きくすると共に前記勾配の移動平均値が前記勾配の二乗の移動平均値よりも小さくなるにつれて前記第2更新幅を小さくするように導出する請求項2または3記載の連続最適化問題の大域的探索装置。 The optimal solution search unit includes:
When deriving the second update width, the second update width is increased as the moving average value of the gradient of the partial evaluation function and the moving average value of the square of the gradient of the partial evaluation function become closer, and 4. The global search device for a continuous optimization problem according to claim 2, wherein the second update width is derived so as to decrease as the moving average value of the gradient becomes smaller than the moving average value of the square of the gradient.
前記部分評価関数(Hi)の解候補を求めた後、当該解候補を代入したときの微分値が当該部分評価関数の微分値と等しく、且つ、前記解候補を含む探索空間の内の全ての変数における評価値よりも大きな値を得る条件を満たす2次関数に置換し、当該2次関数の極値を次回の値の解候補として繰り返して更新する補助関数法を用いる請求項1、7から9の何れか一項に記載の連続最適化問題の大域的探索装置。 When the optimal solution search unit minimizes the effective evaluation function,
After obtaining a solution candidate for the partial evaluation function (H i ), the differential value when the solution candidate is substituted is equal to the differential value of the partial evaluation function, and all of the search spaces including the solution candidate 8. An auxiliary function method is used in which a quadratic function that satisfies a condition that obtains a value larger than the evaluation value in the variable is replaced with an extrinsic function method that repeatedly updates the extreme value of the quadratic function as a solution candidate for the next value. The global search apparatus of the continuous optimization problem as described in any one of 1-9.
前記設定部は、初期分布として前記探索空間の内部に限定された限定探索範囲(Sa)であって当該推定解を含む限定探索範囲に前記個体の変数を設定する請求項1から10の何れか一項に記載の連続最適化問題の大域的探索装置。 If a variable estimation solution (xiz) is given in advance before the search for the variable is started,
The said setting part is the limited search range (Sa) limited to the inside of the said search space as an initial distribution, The variable of the said individual is set to the limited search range containing the said estimated solution. A global search apparatus for continuous optimization problems according to one item.
複数の要求、制約により生成される全体評価関数について、一部の要求、制約により生成した部分評価関数(Hi(xi))に分け、1または複数の個体を前記部分評価関数に沿って設定する手順と、
前記設定された部分評価関数により部分的な最適解を探索する手順と、
前記部分的な最適解を探索しながら、または、部分的な最適解を探索した後、当該探索される部分的な解を備える個体の間に引力を作用させて前記全体評価関数の最適解を探索する手順と、
を実行させるプログラム。 In global search device (1),
The overall evaluation function generated by a plurality of requests and constraints is divided into partial evaluation functions (H i (x i )) generated by a part of the requests and constraints, and one or more individuals are arranged along the partial evaluation function. Steps to set,
A procedure for searching for a partial optimal solution by the set partial evaluation function;
While searching for the partial optimal solution, or after searching for the partial optimal solution, an attractive force is applied between the individuals having the partial solution to be searched for to determine the optimal solution of the overall evaluation function. Steps to explore,
A program that executes
前記部分評価関数と引力相互作用項(f(xi−xi+1))により構成される実効的な評価関数(Heff)を(1)式としたときに、
前記引力相互作用項の勾配に応じて前記個体の変数の第1更新幅(Δxq)を導出し、前記部分評価関数の勾配に応じて前記個体の変数の第2更新幅(Δxc)を導出し、当該第2更新幅(Δxc)を前記第1更新幅(Δxq)に加算した合計更新幅(Δx)を算出して導出するものであり、
前記引力相互作用項の勾配に応じて前記個体の変数の第1更新幅(Δxq)を導出するときに、前記引力相互作用項の勾配の移動平均値と前記引力相互作用項の勾配の二乗の移動平均値とが近くなるにしたがって前記第1更新幅を大きくすると共に前記勾配の移動平均値が前記勾配の二乗の移動平均値よりも小さくなるにつれて前記第1更新幅を小さくするように導出する請求項14記載のプログラム。
When an effective evaluation function (H eff ) composed of the partial evaluation function and the attractive interaction term (f (x i −x i + 1 )) is expressed as (1),
A first update width (Δx q ) of the variable of the individual is derived according to the gradient of the attractive interaction term, and a second update width (Δx c ) of the variable of the individual is determined according to the gradient of the partial evaluation function. And calculating and deriving a total update width (Δx) obtained by adding the second update width (Δx c ) to the first update width (Δx q ),
When deriving the first update width (Δx q ) of the individual variable according to the gradient of the attractive interaction term, the moving average value of the gradient of the attractive interaction term and the square of the gradient of the attractive interaction term The first update width is increased as the moving average value of the gradient becomes closer, and the first update width is decreased as the moving average value of the gradient becomes smaller than the moving average value of the square of the gradient. The program according to claim 14.
前記引力相互作用項の勾配を(19)式とし、前記引力相互作用項の勾配の移動平均値を(20−1)式とし、前記引力相互作用項の勾配の二乗の移動平均値を(20−2)式としたときに、前記第1更新幅を(21−1)式、(21−2)式のように導出する請求項15記載のプログラム。
The gradient of the attractive interaction term is represented by Equation (19), the moving average value of the gradient of the attractive interaction term is represented by Equation (20-1), and the moving average value of the square of the gradient of the attractive interaction term is represented by (20). The program according to claim 15, wherein the first update width is derived as in the formulas (21-1) and (21-2) when the formula (-2) is used.
前記部分評価関数の勾配に応じて前記個体の変数の第2更新幅(Δxc)を導出し、当該第2更新幅を前記第1更新幅(Δxq)に加算した合計更新幅(Δx)を算出して導出するように構成され、
前記第2更新幅を導出するときに、前記部分評価関数の勾配の移動平均値と前記部分評価関数の勾配の二乗の移動平均値とが近くなるにしたがって前記第2更新幅を大きくすると共に前記勾配の移動平均値が前記勾配の二乗の移動平均値よりも小さくなるにつれて前記第2更新幅を小さくするように導出する請求項15または16記載のプログラム。 In the procedure for searching for the optimal solution of the overall evaluation function,
A total update width (Δx) obtained by deriving a second update width (Δx c ) of the variable of the individual according to the gradient of the partial evaluation function and adding the second update width to the first update width (Δx q ). Is configured to calculate and derive
When deriving the second update width, the second update width is increased as the moving average value of the gradient of the partial evaluation function and the moving average value of the square of the gradient of the partial evaluation function become closer, and The program according to claim 15 or 16, wherein the second update width is derived so as to decrease as the moving average value of the gradient becomes smaller than the moving average value of the square of the gradient.
前記部分評価関数と引力相互作用項(f(xi−xi+1))により構成される実効的な評価関数(Heff)を(1)式としたときに、引力相互作用の項を(2)式として(3)式を満たすように前記個体の間に引力を作用させる請求項14記載のプログラム。
When the effective evaluation function (H eff ) composed of the partial evaluation function and the attractive interaction term (f (x i −x i + 1 )) is expressed by equation (1), the attractive interaction term is expressed as (2 The program according to claim 14, wherein an attractive force is applied between the individuals so as to satisfy the expression (3) as an expression.
前記(3)式のg(x)を(4)式として探索する請求項20記載のプログラム。
The program according to claim 20, wherein g (x) in the equation (3) is searched as an equation (4).
前記実効的な評価関数を(1)式として定義したときに、引力相互作用の項を(15)式とし、前記(15)式中のρiを初期値から大きくすることで個体の間に引力を作用させて最適値に収束させる請求項14記載のプログラム。
When the effective evaluation function is defined as equation (1), the term of attractive interaction is defined as equation (15), and ρ i in the equation (15) is increased from the initial value, so The program according to claim 14, wherein an attractive force is applied to converge to an optimum value.
前記部分評価関数(Hi)の解候補を求めた後、当該解候補を代入したときの微分値が当該部分評価関数の微分値と等しく、且つ、前記解候補を含む探索空間の内の全ての変数における評価値よりも大きな値を得る条件を満たす2次関数に置換し、当該2次関数の極値を次回の値の解候補として繰り返して更新する補助関数法を用いる請求項14,20から22の何れか一項に記載のプログラム。 In the procedure for minimizing the effective evaluation function,
After obtaining a solution candidate for the partial evaluation function (H i ), the differential value when the solution candidate is substituted is equal to the differential value of the partial evaluation function, and all of the search spaces including the solution candidate 21. An auxiliary function method is used in which a quadratic function satisfying a condition for obtaining a value larger than an evaluation value in the variable is used, and an extreme value of the quadratic function is repeatedly updated as a solution candidate for the next value. The program according to any one of 1 to 22.
前記初期分布として前記探索空間に前記複数の個体の変数をランダムに分布させるように設定する請求項14から23の何れか一項に記載のプログラム。 In the procedure for setting the variables of the plurality of individuals,
The program according to any one of claims 14 to 23, wherein the initial distribution is set so that the variables of the plurality of individuals are randomly distributed in the search space.
前記複数の個体の変数を設定する手順では、
前記初期分布として前記探索空間の内部に限定された限定探索範囲(Sa)であって当該推定解を含む限定探索範囲に前記個体の変数を設定する請求項14から23の何れか一項に記載のプログラム。 If an estimated variable solution (xiz) is given in advance before starting the search for the variable,
In the procedure for setting the variables of the plurality of individuals,
24. The variable of the individual is set in a limited search range (Sa) limited to the inside of the search space as the initial distribution and including the estimated solution. Program.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017051554 | 2017-03-16 | ||
JP2017051554 | 2017-03-16 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018156619A true JP2018156619A (en) | 2018-10-04 |
JP7045150B2 JP7045150B2 (en) | 2022-03-31 |
Family
ID=63718152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017155490A Active JP7045150B2 (en) | 2017-03-16 | 2017-08-10 | Global search device and program for continuous optimization problems |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7045150B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020235104A1 (en) * | 2019-05-23 | 2020-11-26 | 日本電信電話株式会社 | Parameter estimating device, parameter estimating method, and parameter estimating program |
WO2021029034A1 (en) * | 2019-08-14 | 2021-02-18 | 日本電信電話株式会社 | Secret gradient descent calculation method, secret deep learning method, secret gradient descent calculation system, secret deep learning system, secret calculation device, and program |
-
2017
- 2017-08-10 JP JP2017155490A patent/JP7045150B2/en active Active
Non-Patent Citations (3)
Title |
---|
ADACHI, S. H. ET AL.: "Application of Auantumu Annealing to Training of Deep Neural Networks", ARXIV.ORG [ONLINE], vol. arXiv:1510.06356, JPN6021035004, 21 October 2015 (2015-10-21), ISSN: 0004588389 * |
CHAUDHARI, P., ET AL.: "Entropy-SGD: Biasing Gradient Descent Into Wide Valleys", ARXIV.ORG [ONLINE], vol. arXiv:1611.01838v4, JPN6021035002, 14 January 2017 (2017-01-14), ISSN: 0004588388 * |
石亀 篤司: "Particle Swarm Optimization——群れでの探索——", 計測と制御, vol. 47, no. 6, JPN6021035006, 1 June 2008 (2008-06-01), pages 459 - 465, ISSN: 0004588390 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020235104A1 (en) * | 2019-05-23 | 2020-11-26 | 日本電信電話株式会社 | Parameter estimating device, parameter estimating method, and parameter estimating program |
JPWO2020235104A1 (en) * | 2019-05-23 | 2020-11-26 | ||
JP7310884B2 (en) | 2019-05-23 | 2023-07-19 | 日本電信電話株式会社 | Parameter estimation device, parameter estimation method, and parameter estimation program |
WO2021029034A1 (en) * | 2019-08-14 | 2021-02-18 | 日本電信電話株式会社 | Secret gradient descent calculation method, secret deep learning method, secret gradient descent calculation system, secret deep learning system, secret calculation device, and program |
JPWO2021029034A1 (en) * | 2019-08-14 | 2021-02-18 | ||
AU2019461061B2 (en) * | 2019-08-14 | 2023-03-30 | Nippon Telegraph And Telephone Corporation | Secure gradient descent computation method, secure deep learning method, secure gradient descent computation system, secure deep learning system, secure computation apparatus, and program |
JP7279796B2 (en) | 2019-08-14 | 2023-05-23 | 日本電信電話株式会社 | Secret gradient descent calculation method, secret deep learning method, secret gradient descent calculation system, secret deep learning system, secret computing device, and program |
Also Published As
Publication number | Publication date |
---|---|
JP7045150B2 (en) | 2022-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110245269B (en) | Method and device for acquiring dynamic embedded vector of node in relational network graph | |
JP2019160319A (en) | Method and device for optimizing and applying multi-layer neural network model, and storage medium | |
McLeod et al. | Optimization, fast and slow: optimally switching between local and Bayesian optimization | |
Billups et al. | Derivative-free optimization of expensive functions with computational error using weighted regression | |
JP7091209B2 (en) | Information processing method and information processing system | |
JP2021504836A5 (en) | ||
CN113420421B (en) | QoS prediction method based on time sequence regularized tensor decomposition in mobile edge calculation | |
CN109800853B (en) | Matrix decomposition method and device fusing convolutional neural network and explicit feedback and electronic equipment | |
CN111652664A (en) | Apparatus and method for training mixed element learning network | |
KR20190141581A (en) | Method and apparatus for learning artificial neural network for data prediction | |
JP2018156619A (en) | Global search device and program for consecutive optimization problem | |
CN114072809A (en) | Small and fast video processing network via neural architectural search | |
CN116432543A (en) | Method for predicting remaining life of power semiconductor module, terminal device and storage medium | |
CA3119351C (en) | Extending finite rank deep kernel learning to forecasting over long time horizons | |
JP7150651B2 (en) | Neural network model reducer | |
WO2022252694A1 (en) | Neural network optimization method and apparatus | |
WO2022166125A1 (en) | Recommendation system with adaptive weighted baysian personalized ranking loss | |
JP6993250B2 (en) | Content feature extractor, method, and program | |
Gergel et al. | Efficient methods of multicriterial optimization based on the intensive use of search information | |
JP7107797B2 (en) | Information processing method and information processing system | |
CN110097183B (en) | Information processing method and information processing system | |
CN110858311B (en) | Deep nonnegative matrix factorization-based link prediction method and system | |
KR20220111897A (en) | Power prediction device with mode decomposition and neural network | |
CN114897188B (en) | Large-scale data processing method | |
KR102574489B1 (en) | Method and apparatus for structured pruning with linear transform parameters in for deep neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170904 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200716 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210907 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220203 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220318 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7045150 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |